Komoly presztízsveszteséget szenvedett el a Deloitte Ausztráliában, miután kiderült, hogy a kormány számára készített, közel 290 ezer amerikai dollár értékű tanulmányban több olyan ténybeli hiba szerepelt, amelyeket mesterséges intelligencia generált. Az ügy azután robbant ki, hogy egy akadémikus rámutatott a jelentésben található nyilvánvaló pontatlanságokra, amelyek között nem létező bírósági ítéletek, kitalált tudományos hivatkozások és egy hamis, ráadásul elírt nevű bírói idézet is szerepelt.
A botrányos jelentést az ausztrál Munkaügyi és Foglalkoztatási Minisztérium (DEWR) rendelte meg a szociális ellátórendszerben alkalmazott automatizált büntetési mechanizmusok vizsgálatára. Az eredeti, júliusban közzétett dokumentumot a minisztérium szeptember végén csendben lecserélte egy 237 oldalas, javított változatra, alig néhány nappal a hosszú hétvége előtt. A hivatalos indoklás szerint a módosítások "néhány lábjegyzetet és hivatkozást" pontosítottak - valójában azonban a jelentés több súlyos hibát is tartalmazott, amelyek a mesterséges intelligencia "hallucinációs" jelenségéhez köthetők.
A tévedésekre Chris Rudge, a Sydney Egyetem jogászprofesszora hívta fel a figyelmet, aki már korábban gyanította, hogy a szöveg bizonyos részei nem humán szerzőtől származnak. Miután a Deloitte belső vizsgálatot indított, kiderült, hogy a jelentés elkészítésében valóban a Microsoft Azure OpenAI GPT-4o modelljét használták. Bár az új verzióban a cég elismerte az MI használatát, a beismerés csak a módszertani részben, szinte rejtve jelent meg.
A Deloitte ezután beleegyezett, hogy visszafizeti a szerződés utolsó részletét a minisztériumnak - az összeget a felek nem hozták nyilvánosságra, de az egész projekt 440 ezer ausztrál dollárba került. A DEWR szóvivője megerősítette, hogy a jelentés javított változata már elérhető, és a hibák "szakmai felülvizsgálat után" kerültek javításra.
A jelentésben szereplő hibák között volt például egy nem létező bírósági döntésre való hivatkozás, valamint egy kitalált idézet, amelyet tévesen "Jennifer Davis" néven említettek, holott az ausztrál versenyhatóság alelnöke Jennifer Davies. A szakértők szerint ezek tipikus jelei annak, amikor egy nyelvi modell önállóan próbál "kitölteni" információhiányokat, de valójában hamis adatokat generál.
A botrány újabb kérdéseket vetett fel a mesterséges intelligencia alkalmazásának felelősségéről a kormányzati és vállalati szektorban. Bár az MI-eszközök használata egyre elterjedtebb a kutatások és tanulmányok készítésében, az eset rávilágít arra, hogy a technológia még messze nem tévedhetetlen, és a humán szakmai ellenőrzés továbbra is elengedhetetlen.
Chris Rudge szerint az ügy tanulsága egyértelmű: "A mesterséges intelligencia nagyszerű eszköz lehet, de ha a cégek gondolkodás nélkül bíznak benne, az súlyos következményekkel járhat." Mint hozzátette, akkor kezdett gyanakodni, amikor a jelentés egy olyan könyvre hivatkozott, amely állítólag a kolléganője, Lisa Burton Crawford nevéhez fűződik - csakhogy ilyen mű soha nem jelent meg, és a téma sem illeszkedett a szerző szakmai profiljához.
Az eset komoly figyelmeztetésként szolgálhat nemcsak a kormányzati megbízásokon dolgozó tanácsadó cégek, hanem a nemzetközi üzleti világ számára is. A Deloitte esete azt bizonyítja, hogy a mesterséges intelligencia felelőtlen vagy ellenőrizetlen használata nemcsak szakmai hitelességet, hanem anyagi veszteséget is okozhat - különösen akkor, ha a technológia "kreativitása" a valóság rovására megy.