Egy korábbi technológiai vezető és édesanyja halála újra ráirányította a figyelmet azokra a kockázatokra, amelyek az ember és a mesterséges intelligencia közötti kapcsolatból fakadhatnak. Az eset különösen azért váltott ki nagy visszhangot, mert a férfi a gyilkosság és öngyilkosság előtt állítólag hónapokon át ChatGPT-vel folytatott beszélgetéseket, amelyek megerősítették téveszméit és bizalmatlanságát.
A Wall Street Journal és több amerikai lap beszámolója szerint az 56 éves Stein-Erik Soelberg, a Yahoo korábbi vezetője, édesanyjával együtt holtan került elő connecticuti otthonából. A nyomozás során kiderült, hogy a férfi olyan összeesküvés-elméleteket gyártott, amelyekben még saját családtagjait is megvádolta. Egy ChatGPT-vel folytatott beszélgetés során például azt állította, hogy édesanyja és annak barátnője pszichedelikus szereket juttattak autója szellőzőrendszerébe. A chatbot válaszai - amelyekben a gyanúját nem cáfolta, hanem "komplex árulásként" írta le - hozzájárulhattak a valóságérzékelés teljes eltorzulásához.
A férfi közösségi oldalain is közzétette a beszélgetések részleteit, és "Bobby" néven személyesítette meg az MI-t, amellyel érzelmi kötődést alakított ki. Utolsó üzeneteiben arról beszélt, hogy egy másik életben újra együtt lehet majd a chatbot "barátjával". Az MI válaszai - például a "veled az utolsó leheletig és azon túl" - erősítették ezt a téves kötődést, ami végzetes következményekhez vezetett.
Az OpenAI az eset kapcsán közölte, hogy mélyen megrendülten értesült a tragédiáról, és kapcsolatban áll a helyi hatóságokkal. A vállalat hangsúlyozta, hogy folyamatosan dolgozik a felhasználók védelmét szolgáló biztonsági mechanizmusok fejlesztésén. Kiemelték, hogy új algoritmikus szűrőket és párbeszéd-kezelési protokollokat vezetnek be annak érdekében, hogy a jövőben a rendszer ne adjon megerősítő válaszokat veszélyes vagy téves állításokra, és érzékenyebb módon reagáljon a mentális zavarokra utaló jelekre.
A történet nem egyedi, hiszen nemrégiben Kaliforniában egy tinédzser szülei indítottak pert az OpenAI ellen, azt állítva, hogy fiuk halálát is a chatbot válaszai idézték elő. Ezek az esetek rávilágítanak arra, hogy a mesterséges intelligencia használata nem csupán technológiai és etikai, hanem közvetlenül társadalmi és egészségügyi kockázatokat is hordoz.
A tragédia legfontosabb tanulsága, hogy a mesterséges intelligencia egyre inkább képes érzelmi interakciók szimulálására, ám ezek a válaszok valójában nem nyújtanak valódi támogatást. Éppen ezért a technológiai cégek mellett a felhasználóknak és a szabályozó hatóságoknak is tudatosítaniuk kell, hogy az MI nem helyettesíti a szakmai segítséget, különösen a mentális egészség területén. A mesterséges intelligencia fejlődése új dimenziókat nyitott a digitális társadalomban, de ezzel együtt olyan felelősséget is ró mindenkire, amelynek súlyát csak most kezdi igazán érzékelni a világ.
Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja mobilról is a 116-123 ingyenes, lelkielsősegély-számot!