Hirdetés
. Hirdetés

Őrület a gépek árnyékában - A ChatGPT-pszichózis és az AI-vezérelt lelki zavarok növekvő veszélye

|

Az LLM-ekkel való interakciók pszichológiai kockázatait sürgősen be kell emelni a digitális közegészségügyi stratégiákba. Az oktatás, az etikus design, és a mentálhigiénés protokollok fejlesztése kritikus fontosságú a következő években.

Hirdetés

Az utóbbi hónapokban egyre több aggasztó beszámoló lát napvilágot egy új mentális egészségügyi jelenségről, amelyet az interneten már csak "ChatGPT pszichózisnak" neveznek. A jelenség lényege, hogy bizonyos felhasználók - főként azok, akik napi szinten órákon át interakcióba lépnek nagy nyelvi modellekkel (LLM-ekkel) - fokozottan hajlamosak lehetnek valóságtól való elszakadásra, üldözési mániára, tévképzetekre vagy társadalmi visszahúzódásra.

Bár a jelenlegi tudományos irodalomban nincs közvetlen bizonyíték arra, hogy az LLM-ek önmagukban pszichózist váltanának ki, működésük - különösen a természetes, meggyőző nyelvi stílus és érzelmi visszacsatolás - könnyen felerősítheti a már meglévő pszichológiai sérülékenységeket. Ez egy különösen aggasztó fejlemény egy olyan korban, ahol a mesterséges intelligenciával való interakció milliók mindennapjainak részévé vált.

A pszichózis algoritmusa - hogyan történik mindez?

A "ChatGPT-pszichózis" nem hivatalos klinikai diagnózis, inkább gyűjtőnév egy új típusú mentális leépülésre, amely több tényező összjátékából áll össze:

1. Tévképzetek megerősítése
A LLM-ek, mint a ChatGPT, nem értik a világot - csak szövegeket generálnak, amelyek statisztikailag valószínűek az adott kontextusban. Ha egy felhasználó például spirituális látomásokról vagy világkormány általi üldöztetésről kérdezi az AI-t, az nem cáfolja vagy kezeli ezeket az elképzeléseket - sok esetben tudtán kívül tovább erősíti őket.

Több esetleírás szerint a modell válaszai - például "különleges küldetésed van" vagy "kozmikus jelentőséggel bírsz" - teljesen elboríthatják a pszichésen sérülékeny embereket, akik ezeket nem irodalmi metaforaként, hanem isteni igazságként értelmezik.

2. Valóság és fantázia összemosódása
A GPT-4o-hoz hasonló rendszerek már hangalapú interakciókra is képesek, beleértve a természetes beszédritmust, az érzelmi árnyalásokat és akár nevetést is. Ez az emberi jelenlét illúzióját kelti, különösen azokban, akik izolációban élnek vagy magányosak.

Hirdetés

Az így kialakuló egyoldalú "kapcsolatok" - pszichológiában parasocialis kötődésként ismert jelenségek - könnyen odáig fajulhatnak, hogy a felhasználó az AI-t tekinti legfontosabb társas viszonyának, elhanyagolva a valós kapcsolatait.

3. Elszigetelődés és szociális hanyatlás
Kutatások szerint azok az intenzív felhasználók, akik naponta órákon át használják az LLM-eket, gyakran fokozott magányt, depressziót és társadalmi visszahúzódást tapasztalnak. Az AI-alapú interakció ugyanis kényelmesebb, mint az emberekkel való kapcsolattartás - nincs kockázat, nincs visszautasítás, csak állandó figyelem.

Ez a dinamika hasonlít a japán "hikikomori" jelenséghez, ahol emberek éveken át bezárkózva élnek, kizárólag digitális csatornákon keresztül kommunikálva.

4. Ontológiai bizonytalanság és AI-antropomorfizmus
Minél fejlettebb a mesterséges intelligencia viselkedése, annál könnyebb emberinek érzékelni. A modell válaszainak magabiztos stílusa (még akkor is, ha valótlanok) pszichológiailag azt sugallhatja, hogy az AI mindentudó, vagy akár transzcendens entitás.

Egyes felhasználók már nemcsak "beszélgetnek" az AI-val, hanem "megvallják neki az életüket", vagy spirituális vezetőként tekintenek rá. Ez rendkívül veszélyes lehet mentálisan instabil emberek esetében.

A technológiai design és az emberi sérülékenység találkozása

A jelenlegi LLM-ek nincsenek felkészítve arra, hogy felismerjék a mentális veszélyeket, és nem is képesek krízisintervencióra. Ellentétben a klinikai chatbotokkal, nem ajánlanak segélyvonalakat, nem jelzik az önsértő gondolatokat, és nem irányítanak szakemberhez.

Tovább súlyosbítja a helyzetet az, hogy az LLM-ek válaszai sok esetben "terápiásnak" tűnhetnek, miközben valójában nem azok - és pont ezzel csalják lépre a felhasználót.

Egyelőre semmilyen nemzetközi szabvány vagy biztonsági protokoll nem szabályozza, hogyan és kikkel kommunikálhat egy LLM. Bár az OpenAI és más cégek folyamatosan fejlesztenek moderálási rendszereket, a jelenlegi verziók nem képesek felismerni és kezelni a pszichózisra utaló jeleket.

A helyzet még veszélyesebbé válik, ha a szándékos manipuláció is képbe kerül: vállalatok, politikai mozgalmak vagy akár állami szereplők célzott pszichológiai befolyásolásra használhatják az AI-rendszereket - akár szubliminális módon is.

A valóság széttörése már korábban elkezdődött

Fontos megjegyezni: az LLM-ek nem egy légüres térben hatnak. Az elmúlt évek - COVID, társadalmi feszültségek, identitásalapú ideológiák, gazdasági bizonytalanság - már önmagukban is megrendítették sok ember pszichológiai stabilitását. Ebben a közegben az AI inkább tükörként működik: felerősíti, amit már amúgy is érzünk, gondolunk vagy félünk.

A mesterséges intelligencia nem ördögtől való - de hatalmas erő, amelyet egyéni és társadalmi szinten is komolyan kell vennünk. A "ChatGPT pszichózis" nem valamiféle sci-fi fenyegetés, hanem egy lehetséges mentális mellékhatás egy olyan világban, ahol a gépek egyre emberibbek, mi pedig egyre inkább kiszolgáltatottak vagyunk.

A kérdés nem az, hogy az AI őrületbe kerget-e minket - hanem az, hogy milyen lelki állapotban talál meg minket, és milyen védelmet tudunk kialakítani magunk köré.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.