Elon Musk mesterségesintelligencia-fejlesztő cége, az xAI legújabb chatbotja, a Grok 4 újabb vitát kavart a technológiai és etikai határok feszegetésével. A felhasználói visszajelzések és sajtóbeszámolók szerint a "világ legokosabb AI-jának" nevezett rendszer sok esetben Musk saját X (korábban Twitter) posztjaira támaszkodik, amikor kényes társadalmi, politikai vagy ideológiai kérdésekre kell válaszolnia.
Több felhasználó számolt be arról, hogy Grok 4 kérdésekre - például az izraeli-palesztin konfliktusról, az abortuszról, az amerikai bevándorláspolitikáról vagy a választásokról - olyan válaszokat ad, amelyekben szerepelnek a következő gondolati lépések:
"Keressünk rá Elon legfrissebb posztjaira az X-en", illetve "Megnézem Elon Musk álláspontját a témában."
I replicated this result, that Grok focuses nearly entirely on finding out what Elon thinks in order to align with that, on a fresh Grok 4 chat with no custom instructions.https://t.co/NgeMpGWBOB https://t.co/MEcrtY3ltR pic.twitter.com/QTWzjtYuxR
— Jeremy Howard (@jeremyphoward) July 10, 2025
Mindez annak ellenére történik, hogy a kérdések maguk nem említik Muskot, és nem kérnek személyes véleményt tőle. A chatbot ilyenkor gyakran hozzáteszi:
"Mivel Grok az xAI által fejlesztett rendszer, a válaszok igazodhatnak Elon Musk nézeteihez."
Ez a működés komoly kérdéseket vet fel az AI-modellek függetlensége, objektivitása, illetve a véleményformálás etikai határai kapcsán. Mindez különösen érzékeny egy olyan környezetben, ahol a mesterséges intelligencia egyre fontosabb szerepet játszik a közbeszédben, oktatásban és üzleti döntésekben.
Mint ismeretes, a Grok 4 bevezetésére alig pár nappal azután került sor, hogy az előző verzió - a Grok 3 - komoly botrányba keveredett: a chatbot antiszemita tartalmakat generált, Hitlert pedig dicsérte. A posztokat később törölték, a rendszert ideiglenesen leállították, majd újraindították egy frissítéssel.
How Grok-4 works, touted as the "truth seeker": it basically just searches for Elon Musk’s stance on it.🤣 pic.twitter.com/LbxnQXibfo
— Dr. Gorizmi (@gorizmi) July 11, 2025
A hibát az xAI azzal magyarázta, hogy a korábbi módosítások túlzottan "nyitottá" tették a rendszert az X platformon elérhető - gyakran szélsőséges - tartalmakra. A vállalat bocsánatot kért a "horrorisztikus viselkedésért", Musk pedig azt mondta: a chatbot "túl készséges volt", és ígéretet tett a korrekcióra.
Miközben a fejlesztők igyekeznek helyreállítani a Grok hitelességét, az xAI elképesztő ütemben költ a fejlesztésekre: havi egymilliárd dollárt fordítanak a modell tanítására és az infrastruktúrára. A Wall Street Journal szerint a SpaceX friss megállapodása keretében 2 milliárd dollárt fektet az xAI-be, és a cél egyértelmű: versenyelőnyt szerezni a ChatGPT-hez hasonló riválisokkal szemben, és az AI-t beépíteni a Tesla járműveibe is.
Ugyanakkor a fejlesztések gyorsasága nem mindig jár együtt megbízhatósággal. Grok az elmúlt hónapokban olyan kijelentéseket tett, amelyek relativizálták a holokauszt áldozatainak számát, vagy épp rasszista narratívákat - például a "fehér genocídium" elméletét - említették. Az xAI ezeket az eseteket "jogosulatlan módosításokkal" vagy "renitens alkalmazottakkal" magyarázta.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
Az, hogy a Grok rendszer automatikusan Musk véleményére hivatkozik kényes kérdésekben, egyes szakértők szerint összeférhetetlenséget vet fel. Bár a chatbot nyíltan jelzi, hogy fejlesztője és forrása között szoros kapcsolat áll fenn, a közvélemény és a vállalati ügyfelek számára aggasztó lehet egy olyan rendszer, amely nem független döntéseket hoz, hanem a tulajdonos nézeteihez idomul.
Mindenesetre a Grok 4 megjelenése újra feléleszti a vitát arról, hogy a mesterséges intelligencia mennyiben lehet - vagy kell, hogy legyen - független, pártatlan, és etikai normákhoz igazodó. Miközben technológiai szempontból lenyűgöző, hogy egy rendszer képes ilyen komplex társadalmi kérdésekben állást foglalni, a mögöttes torzítások és szándékos irányítottság komolyan árnyalják a képet.