A mesterséges intelligenciától sok kiadó a sajtó jövőjét várja, azonban egyre több bizonyíték mutatja, hogy a technológia a gyakorlatban súlyos hiányosságokkal küzd. Új vizsgálatok szerint a vezető AI-modellek rendszeresen hibás összefoglalókat készítenek, tévesen hivatkoznak tudományos forrásokra, és ezzel nemhogy csökkentenék, hanem épp növelik az újságírók munkaterheit.
Az elmúlt években a médiavállalatok költségcsökkentés és hatékonyságnövelés reményében egyre nagyobb mértékben építenek az AI-ra, gyakran újságírók helyett használva a technológiát. Az eredmények azonban sokszor kiábrándítóak. Olvasók és szakmabeliek számos esetben találkoztak összefüggéstelen, félrevezető vagy egyszerűen értéktelen szövegekkel, amelyek rontják a médiumok hitelességét.
A problémákra Hilke Schellmann, a New York-i Egyetem díjnyertes újságíró professzora és kutatócsoportja világított rá a Columbia Journalism Review-ban megjelent tanulmányában. Tesztjeik szerint ugyan a legújabb modellek - köztük a Google Gemini 2.5 Pro és az OpenAI GPT-4o - rövid összefoglalók készítésében viszonylag pontosak, a hosszabb, részletes feldolgozások során már jelentős torzulások tapasztalhatók. A vizsgálatok azt mutatták, hogy a hosszú szövegekben az AI a tények közel felét egyszerűen kihagyta, miközben nőtt a téves információk aránya is.
Különösen aggasztó eredményeket hozott a tudományos háttérkutatás vizsgálata. Öt vezető AI-keresőeszközt arra kértek, hogy állítson össze releváns szakirodalmat négy tudományos cikkhez. A találatok szinte teljesen elmaradtak a humán szakértők által készített irodalmi áttekintésektől: több esetben egyetlen hivatkozás sem fedte le az eredeti szakirodalmat, és mindössze a Semantic Scholar mutatott 50 százalékos egyezést egyetlen esetben. A vizsgálatok azt is jelezték, hogy a rendszerek eredményei következetlenek, ugyanazon parancs többszöri lefuttatásakor is eltérő "tudományos konszenzust" mutattak.
Schellmann hangsúlyozta: a hiányos vagy félrevezető irodalomjegyzék nem pusztán pontatlan, hanem veszélyes is. Az újságíró így hamis képet kaphat egy új kutatás jelentőségéről, figyelmen kívül hagyhatja a meglévő kritikákat vagy korábbi eredményeket, ami súlyosan torzíthatja a nyilvánosság számára közvetített tudományos diskurzust.
Az újságírói munkát tehermentesíteni hivatott rendszerek így sok esetben épp ellenkező hatást váltanak ki. Az AI által előállított tartalmakat végső soron az újságíróknak kell ellenőrizniük, ami nem csökkenti, hanem növeli a munkaterhelést. A paradoxon lényege tehát az, hogy egy olyan eszköz, amelynek célja a gyorsítás és egyszerűsítés lenne, végül további ellenőrzési köröket kényszerít ki.
A probléma tágabb iparági következményekkel is jár. Az AI-tartalom előretörése egyre inkább elárasztja az internetet ellenőrizetlen, gyenge minőségű szövegekkel, amelyek fokozatosan aláássák a hiteles sajtó szerepét. Közben a médiacégek az ígéretek és a befektetői nyomás hatására több millió dolláros megállapodásokat kötnek az AI-fejlesztőkkel, miközben szerkesztőségek sorra épülnek le világszerte.
Mindez a közönség oldaláról is visszaüt. Egy kutatás szerint amikor az olvasók tudomást szereznek arról, hogy egy cikk megírásában AI is közreműködött, a szerző és a médium hitelességébe vetett bizalmuk jelentősen csökken. A jelenlegi tapasztalatok alapján a mesterséges intelligencia ahelyett, hogy erősítené az újságírás minőségét, egyelőre inkább hozzájárul a bizalomvesztéshez és a szakma egzisztenciális válságához. Feltüntethető-e egyáltalán az AI mint társszerző?