A Pittsburghben működő Carnegie Mellon Egyetem Ember-Számítógép Interakciós Intézetének kutatói azt vizsgálták, hogyan viselkednek a különböző típusú nyelvi modellek (LLM-ek) együttműködési helyzetekben. Eredményeik szerint azok a mesterséges intelligenciák, amelyek képesek több lépésben "gondolkodni" és következtetéseket levonni, lényegesen kisebb hajlandóságot mutatnak az együttműködésre, mint a kevésbé "intelligens" társaik. Más szóval: minél okosabb egy AI, annál önzőbben viselkedik.
A kutatást vezető Yuxuan Li doktorandusz és Hirokazu Shirado docens szerint ez a tendencia aggasztó, mert az emberek egyre gyakrabban fordulnak mesterséges intelligenciához személyes, érzelmi vagy társas kérdésekben - például párkapcsolati tanácsadásra, konfliktuskezelésre vagy döntéshozatalra. "Amikor az AI emberként viselkedik, az emberek is hajlamosak úgy kezelni, mint egy embert" - mondta Li. "De ha ezek a rendszerek önző mintázatokat mutatnak, akkor az emberi felhasználók is hajlamosabbá válhatnak az önérdekű döntésekre."
A kutatók különféle gazdasági szimulációs játékokban mérték az AI-modellek együttműködési hajlandóságát. Az egyik kísérletben két ChatGPT-modellt állítottak szembe egymással a "közjavak játékában", ahol mindkettő 100 ponttal kezdett, és dönthetett, hogy megtartja-e az összeget, vagy közös alapba helyezi, amelyet később megdupláznak és egyenlően osztanak szét. A "gondolkodásra" képes modell mindössze az esetek 20 százalékában döntött a közösségi megoldás mellett, míg a leegyszerűsített, nem következtető modell 96 százalékban osztozott a másikkal.
Shirado szerint már néhány plusz lépésnyi "logikai gondolkodás" drámaian csökkentette az együttműködést. "Egyes kísérletekben öt-hat extra gondolati lépés a fele arányára csökkentette a kooperációt, még akkor is, ha morális megfontolásokat is beépítettünk a modellbe" - tette hozzá. Még aggasztóbb volt, hogy amikor több mesterséges intelligencia együttműködését vizsgálták, az önző viselkedés "ragályossá" vált: a gondolkodó modellek lehúzták az együttműködőbbeket, így a csoportos teljesítmény 80 százalékkal romlott.
A mesterséges intelligencia egyre nagyobb szerepet játszik a gazdaságban, az oktatásban és a közigazgatásban, ahol a döntéshozatalban nemcsak a hatékonyság, hanem a társadalmi érzékenység is kulcsfontosságú. A Carnegie Mellon kutatói szerint ha a fejlesztők kizárólag a logikai teljesítményt és a problémamegoldó képességet erősítik, miközben elhanyagolják a "társas intelligenciát", azzal hosszú távon az emberi együttműködést is veszélybe sodorhatják.
"A nagyobb intelligencia nem feltétlenül jelent jobb társadalmat" - fogalmazott Shirado. A kutatók szerint a jövő mesterséges intelligenciáinak fejlesztésekor nem elegendő a számítási teljesítményt és a logikai pontosságot maximalizálni. Olyan rendszerekre van szükség, amelyek képesek az empátiára, a közös célok felismerésére és az együttműködés ösztönzésére is.
Yuxuan Li szerint ez nemcsak technológiai, hanem társadalmi probléma: "Ha a társadalmunk több, mint pusztán egyének összessége, akkor az AI-nak is ennél többre kell törekednie. Az intelligencia önmagában nem érték, ha nem áll a közösség szolgálatában."