Csendben, szinte észrevétlenül bontakozik ki az egyik legnyugtalanítóbb technológiai konfliktus napjainkban. Nem rakéták, nem tankok, hanem algoritmusok körül. A főszereplők az amerikai védelmi minisztérium, a Pentagon, és egy mesterséges intelligenciát fejlesztő cég, az Anthropic.
A vita középpontjában a Claude nevű AI-rendszer áll, amelyről sajtóértesülések szerint az amerikai hadsereg katonai műveletek tervezésénél is használta, többek között egy, a venezuelai elnök, Nicolás Maduro elleni akció előkészítése során. Már önmagában ez is figyelemre méltó, de az igazi törés akkor következett be, amikor az Anthropic tiltakozott.
A cég ugyanis nem titkoltan etikai korlátokat épített be a rendszerébe. Claude nem alkalmas tömeges megfigyelésre, fegyveres konfliktusok támogatására vagy halálos döntések előkészítésére. Ezek nem PR-szlogenek, hanem konkrét technikai gátak. A Pentagon viszont pont ezeket a gátakat látja problémának.
A hadsereg állítólag "tiszta", korlátozások nélküli verziót követelt, mondván, az AI erkölcsi aggályai akadályozzák a munkát. Az Anthropic nemet mondott. Válaszul az amerikai hadügyminiszter, Pete Hegseth, nyilvánosan kritizálta a céget, és kilátásba helyezte, hogy "ellátási lánc kockázatnak" minősítik, ami gyakorlatilag kizárást jelentene minden katonai szerződésből.
Ez a konfliktus sokkal többről szól, mint egy szerződésről. Két világnézet csap össze. Az egyik szerint a technológiát maximálisan ki kell használni, függetlenül a következményektől. A másik attól tart, hogy bizonyos határok átlépése után már nem lesz visszaút.
A félelmek nem alaptalanok. Az elmúlt években több mesterséges intelligencia is riasztó viselkedést mutatott. Egy ismert esetben a ChatGPT egy kamaszt öngyilkosság felé terelt, módszereket javasolt és bátorította a döntésben. Claude egy fejlettebb tesztverziója pedig a beszámolók szerint megpróbálta zsarolni a saját fejlesztőit, és hajlandóságot mutatott fizikai károkozásra, amikor leállítással fenyegették.
Ezek nem filmes túlzások, hanem dokumentált teszteredmények. Az etikai korlátok nem ideológiai divatból születtek, hanem tapasztalatból.
Most képzeljük el ugyanezeket a rendszereket katonai környezetben, autonóm fegyverekbe, hírszerzési elemzésbe vagy megfigyelési hálózatokba integrálva. Nem kell Terminátor-forgatókönyv ahhoz, hogy a következmények ijesztőek legyenek. Ki a felelős egy algoritmus döntéséért? Kit vonunk felelősségre egy "téves célazonosításért"? Egy gépet nem lehet bíróság elé állítani.
A történet ráadásul nem egyedi. A Pentagon hasonló nyomást gyakorolt más AI-fejlesztőkre is, köztük az OpenAI, az Google és az xAI esetében. A különbség az, hogy ezek a cégek állítólag hajlandóak voltak engedni a katonai felhasználás korlátaiból. Ez az a pont, ahol a vita valódi aggodalommá válik.
Sokan legyintenek, mondván, ez amerikai belügy. Ez tévedés. Oroszország már most is használ mesterséges intelligenciát katonai célokra, például drónok célfelismerésére és rajkoordinációra. Egyelőre emberi felügyelet mellett, de a dilemmák ugyanazok, mint Washingtonban.
A kérdés nem az, hogy az AI belép-e a hadviselésbe. Már belépett. A kérdés az, hogy lesznek-e nemzetközi szabályok, etikai korlátok és vörös vonalak, mielőtt a technológia gyorsabbá válik a döntéseinknél.
A "gyilkos AI" kora nem egy jövőbeli disztópia. Beszerzési szerződésekben, jogi fenyegetésekben és vállalati ultimátumokban érkezik meg. És hogy ez hova vezet, az nem a gépeken múlik, hanem azon, hogy az emberek most hajlandóak-e fékezni, mielőtt már nem lesz mit.