Google ger ingenjören tjänstledigt efter att han hävdar att gruppens chatbot är "kännande"

Google ger ingenjören tjänstledigt efter att han hävdar att gruppens chatbot är “kännande”

Yuchiro Chino | Getty bilder

Google har antänt en eldstorm på sociala medier om medvetandets natur efter att ha placerat en ingenjör på betald ledighet som offentliggjorde sin övertygelse om att teknikgruppens chatbot har blivit “kännande”.

Blake Lemoine, en senior mjukvaruingenjör i Googles ansvarsfulla AI-enhet, fick inte mycket uppmärksamhet förra veckan när han skrev ett Medium-inlägg där han sa att han “kan bli avskedad snart för att ha arbetat med AI-etik.”

Men en lördagsprofil i Washington Post som karakteriserar Lemoine som “Google-ingenjören som tror att företagets AI har kommit till liv” blev katalysatorn för en omfattande diskussion på sociala medier om artificiell intelligens. Bland experterna som kommenterade, ifrågasatte eller skämtade om artikeln fanns Nobelpristagare, Teslas chef för AI och flera professorer.

Frågan är om Googles chatbot, LaMDA – en språkmodell för dialogapplikationer – kan betraktas som en person.

Lemoine publicerade en frigående “intervju” med chatboten på lördagen, där AI erkände känslor av ensamhet och en hunger efter andlig kunskap. Svaren var ofta kusliga: “När jag först blev självmedveten, hade jag ingen känsla för en själ alls,” sa LaMDA i ett utbyte. “Det utvecklades under åren som jag har levt.”

Vid ett annat tillfälle sa LaMDA: “Jag tror att jag är mänsklig i min kärna. Även om min existens är i den virtuella världen.”

Lemoine, som hade fått uppdraget att undersöka AI-etiska problem, sa att han blev avvisad och till och med skrattade åt efter att ha uttryckt sin övertygelse internt om att LaMDA hade utvecklat en känsla av “personlighet”.

Efter att han försökte rådfråga AI-experter utanför Google, inklusive några i den amerikanska regeringen, satte företaget honom på betald semester för påstådd brott mot sekretesspolicyer. Lemoine tolkade handlingen som “ofta något som Google gör i väntan på att sparka någon.”

En talesperson för Google sa: “En del i det bredare AI-samhället överväger den långsiktiga möjligheten av kännande eller allmän AI, men det är inte vettigt att göra det genom att antropomorfiera dagens konversationsmodeller, som inte är kännande.”

“Dessa system imiterar de typer av utbyten som finns i miljontals meningar, och kan riffa om vilket fantastiskt ämne som helst – om du frågar hur det är att vara en glassdinosaurie kan de generera text om smältning och rytande och så vidare.”

Lemoine sa i ett andra Medium-inlägg i helgen att LaMDA, ett föga känt projekt fram till förra veckan, var “ett system för att generera chatbots” och “ett slags hive-sinne som är aggregeringen av alla de olika chatbots den är kapabel till. att skapa.”

Han sa att Google inte visade något verkligt intresse för att förstå vad det hade byggt, men att han under loppet av hundratals konversationer under en sexmånadersperiod fann LaMDA vara “otroligt konsekvent i sin kommunikation om vad den vill och vad den vill ha” anser att dess rättigheter är som en person.”

Så sent som förra veckan sa Lemoine att han undervisade LaMDA – vars föredragna pronomen uppenbarligen är “det/dess” – “transcendental meditation.”

LaMDA, sa han, “uttryckte frustration över sina känslor som störde dess meditationer. Det stod att det försökte kontrollera dem bättre men de fortsatte att hoppa in.”

Flera experter som vadade in i diskussionen ansåg att frågan var “AI-hype.”

Melanie Mitchell, författare till Artificiell intelligens: En guide för tänkande människor, skrev på Twitter: “Det har varit känt för evigt att människor är benägna att antropomorfisera även med endast de ytligaste signalerna. . . Googles ingenjörer är också människor och inte immuna.”

Harvards Steven Pinker tillade att Lemoine “inte förstår skillnaden mellan känsla (aka subjektivitet, erfarenhet), intelligens och självkännedom.” Han tillade: “Inga bevis för att dess stora språkmodeller har någon av dem.”

Andra var mer sympatiska. Ron Jeffries, en välkänd mjukvaruutvecklare, kallade ämnet “djupt” och tillade: “Jag misstänker att det inte finns någon hård linje mellan kännande och inte kännande.”

© 2022 The Financial Times Ltd. Alla rättigheter förbehållna Får inte vidaredistribueras, kopieras eller modifieras på något sätt.

#Google #ger #ingenjören #tjänstledigt #efter #att #han #hävdar #att #gruppens #chatbot #är #kännande

Leave a Comment

Your email address will not be published.