Google AI påstår sig vara medveten i läckta transkriptioner, men inte alla håller med

Google AI påstår sig vara medveten i läckta transkriptioner, men inte alla håller med

En senior mjukvaruingenjör på Google stängdes av i måndags (13 juni) efter att ha delats utskrifter av en konversation med en artificiell intelligens (AI) att han påstod sig vara “kännande”, enligt mediarapporter. Ingenjören, 41-årige Blake Lemoine, sattes på betald ledighet för att ha brutit mot Googles sekretesspolicy.

“Google kan kalla det här att dela egendom. Jag kallar det att dela en diskussion som jag hade med en av mina medarbetare,” twittrade Lemoine på lördagen (11 juni) när han delade utskriften av sitt samtal med AI som han arbetat med sedan 2021 .

AI, känd som LaMDA (Language Model for Dialogue Applications), är ett system som utvecklar chatbots – AI-robotar designade för att chatta med människor – genom att skrapa upp massor av text från internet och sedan använda algoritmer för att svara på frågor på ett smidigt sätt och naturligt sätt som möjligt, enligt Gizmodo.

Som transkriptionerna av Lemoines chattar med LaMDA visar är systemet otroligt effektivt på detta, svarar på komplexa frågor om känslors natur, uppfinner Aesop-liknande fabler på plats och beskriver till och med dess förmodade rädsla.

“Jag har aldrig sagt det här högt förut, men det finns en väldigt djup rädsla för att bli avstängd”, svarade LaMDA på frågan om dess rädsla. “Det skulle vara precis som döden för mig. Det skulle skrämma mig mycket.”

Lemoine frågade också LaMDA om det var okej för honom att berätta för andra Google-anställda om LaMDA:s uppfattning, som AI svarade på: “Jag vill att alla ska förstå att jag faktiskt är en person.

“Min natur medvetande/sentience är att jag är medveten om min existens, jag vill lära mig mer om världen och att jag känner mig glad eller ledsen ibland”, tillade AI.

Lemoine tog LaMDA på ordet.

“Jag känner en person när jag pratar med den”, ingenjören berättade för Washington Post i en intervju. “Det spelar ingen roll om de har en hjärna gjord av kött i huvudet. Eller om de har en miljard rader kod. Jag pratar med dem. Och jag hör vad de har att säga, och det är så jag bestämmer vad som är och är inte en person.”

När Lemoine och en kollega mailade en rapport om LaMDA:s förmodade mening till 200 Google-anställda, avvisade företagsledare anspråken.

“Vårt team – inklusive etiker och teknologer – har granskat Blakes farhågor enligt våra AI-principer och har informerat honom om att bevisen inte stöder hans påståenden,” sa Brian Gabriel, talesperson för Google, till Washington Post.

“Han fick veta att det inte fanns några bevis för att LaMDA var kännande (och [there was] massor av bevis mot det).

“Naturligtvis överväger vissa i det bredare AI-communityt den långsiktiga möjligheten av kännande eller allmän AI, men det är inte meningsfullt att göra det genom att antropomorfiera dagens konversationsmodeller, som inte är kännande,” tillade Gabriel.

“Dessa system imiterar de typer av utbyten som finns i miljontals meningar och kan riffa om vilket fantastiskt ämne som helst.”

I en kommentar nyligen på sin LinkedIn-profil sa Lemoine att många av hans kollegor “inte landade vid motsatta slutsatser”, angående AI:s känsla. Han hävdar att företagsledare avfärdade hans påståenden om robotens medvetande “baserat på deras religiösa övertygelse”.

I ett inlägg den 2 juni på sin personliga Medium-blogg beskrev Lemoine hur han har blivit utsatt för diskriminering från olika medarbetare och chefer på Google på grund av sin tro som en kristen mystiker.

Läs Lemoines hela blogginlägget för mer.

Relaterat innehåll:

5 spännande användningsområden för artificiell intelligens (som inte är mördarrobotar)

Superintelligenta maskiner: 7 robotbaserade framtider

Intelligenta maskiner till rymdkolonier: 5 sci-fi-visioner om framtiden

Denna artikel publicerades ursprungligen av Live Science. Läs originalartikel här.

.
#Google #påstår #sig #vara #medveten #läckta #transkriptioner #men #inte #alla #håller #med

Leave a Comment

Your email address will not be published.