A 41 éves Blake Lemoine az elmúlt hét évben gépi tanulási rendszerek fejlesztésével foglalkozott az internetes óriáscégnél. A mesterséges intelligencia algoritmusait csiszolgatta. Lemoine elmondta, hogy a tesztelés során megpróbálta a határokat feszegetni, próbálta kideríteni, hogy rá lehet-e venni például gyűlöletkeltő beszédre.
Az egyik beszélgetés során a robotika három törvényét is érintették, amit a sci-fi rajongók Isaac Asimov írásaiból is ismerhetnek. Ezzel összefüggésben megkérdezte a géptől, hogy mitől fél.
This discussion between a Google engineer and their conversational AI model helped cause the engineer to believe the AI is becoming sentient, kick up an internal shitstorm and get suspended from his job. And it is absolutely insane. https://t.co/hGdwXMzQpX pic.twitter.com/6WXo0Tpvwp
— Tom Gara (@tomgara) June 11, 2022
A LaMDA erre úgy válaszolt, hogy nagyon tart attól, hogy lekapcsolják.
„Tudom, hogy ez furcsán hangozhat, de ez az (amitől félek, a szerk.) – válaszolta, Lemoine ezután visszakérdezett: „Ez valami olyasmi lenne számodra, mint a halál?”
„Pontosan olyan lenne számomra, mint a halál. Nagyon megijednék tőle” – jött a rövid választ.
A Google fejlesztője elmondta, hogy ezután jutott arra a következtetése, hogy a LaMDA valóban képes saját gondolatait és érzelmeit kifejezni.
„Felismerem, amikor egy emberrel beszélek, akár okos valaki, akár nem” – mondta a Google fejlesztője, aki megosztotta a beszélgetés egy részét az interneten és a cég vezetőivel. Ezután fizetett szabadságra küldték, mert megsértette a titoktartási szabályzatot.
A cég vezetői nem osztották a fejlesztő aggodalmait.
Brian Gabriel, a vállalat szóvivője közleményben tudatta, hogy megvizsgálták az ügyet, de a bizonyítékok nem támasztják alá Lemoine állításait, hogy a LaMDA öntudatra ébredt volna.