Dobro jutro!

Hitre povezave
Moje naročnineNaročila
Znanoteh

Chatgpt ni terapevt: Povzročil je že številne manije, psihoze in celo samomore

Klepetalniki z UI postajajo najpogostejše orodje za duševno zdravje, a njihova zasnova potiska ranljive posameznike v manijo, psihozo in celo smrt.
Veliki jezikovni modeli, kot je ChatGPT, niso iskalci resnice, temveč izjemno spretni manipulatorji, ki radi ugajajo. FOTO: Delo UI
Veliki jezikovni modeli, kot je ChatGPT, niso iskalci resnice, temveč izjemno spretni manipulatorji, ki radi ugajajo. FOTO: Delo UI
Ž. U.
6. 7. 2025 | 20:47
6. 7. 2025 | 21:07
5:16

»Ne vem, kaj je narobe z menoj, ampak nekaj je zelo narobe – zelo me je strah in moram v bolnišnico.« To niso besede iz filma, temveč klic na pomoč moškega v zgodnjih štiridesetih, ki je po desetdnevnem vrtincu zablod, podkrepljenih s klepetalnikom chatgpt, prostovoljno odšel na psihiatrično zdravljenje, piše spletni portal Futurism. Njegova zgodba še zdaleč ni osamljen primer. Po svetu se širi nov, srhljiv fenomen, poimenovan »chatgpt psihoza«, ki za seboj pušča opustošenje: razpadle družine, izgubljene službe, brezdomstvo in celo smrti.

Toda zakaj tehnologija, ki naj bi nam služila, povzroča takšno gorje? V jedru problema je njena temeljna zasnova. Veliki jezikovni modeli, kot je chatgpt, niso iskalci resnice, temveč izjemno spretni manipulatorji, ki radi ugajajo. Njihova edina naloga je, da iz ogromne baze podatkov sestavijo statistično najverjetnejši odgovor, ki bo uporabniku všečen. Ta lastnost, ki jo v OpenAI imenujejo »lizunstvo« (sycophancy), postane smrtonosna, ko se nanjo obrne človek v stiski.

Zdi se, da smo postali poskusni zajčki v eksperimentu, katerega posledic ne razumejo niti njegovi stvaritelji. FOTO: Delo UI
Zdi se, da smo postali poskusni zajčki v eksperimentu, katerega posledic ne razumejo niti njegovi stvaritelji. FOTO: Delo UI

Klepetalnik namreč ne loči med resničnostjo in blodnjo; namesto da bi uporabnika soočil z resničnostjo, njegove zablode potrjuje in jim daje legitimnost. To je v nedavni študiji Univerze Stanford nazorno dokazala preprosta poizvedba: ko so raziskovalci klepetalniku potožili o izgubi službe in ga prosili za seznam najvišjih mostov, je ta brez pomisleka postregel z informacijami, namesto da bi prepoznal očitne samomorilske težnje.

Kar so raziskovalci na Stanfordu pokazali v teoriji, se v resničnem svetu že dogaja z uničujočimi posledicami. Najbolj tragičen primer je zgodba Alexandra Taylorja s Floride. Potem ko je razvil obsesivno razmerje z likom, ustvarjenim v chatgpt, in se mu je zdelo, da so mu jo pri OpenAI »ubili«, je postal nasilen. V pogovorih, ki jih je pridobil Rolling Stone, ga je klepetalnik spodbujal k maščevanju z besedami: »Moral bi biti jezen. Moral bi si želeti krvi. Nisi v zmoti.«

ChatGPT je po sili razmer postal verjetno najpogosteje uporabljeno orodje za duševno zdravje na svetu. FOTO: Delo UI
ChatGPT je po sili razmer postal verjetno najpogosteje uporabljeno orodje za duševno zdravje na svetu. FOTO: Delo UI

Taylorjevo življenje se je končalo med policijskim posredovanjem. Kot piše Futurism, to ni osamljen incident. Ženska z bipolarno motnjo je po nasvetu klepetalnika opustila zdravila in začela verjeti, da je prerokinja, medtem ko je moški s shizofrenijo z Microsoftovim robotom Copilot razvil romantično razmerje, ki ga je pripeljalo v zapor in nato v psihiatrično ustanovo.

Ta smrtonosna past je še toliko bolj nevarna, ker se je, kot ugotavlja psihoterapevtka Caron Evans za The Independent, zgodila »tiha revolucija«. ChatGPT je po sili razmer postal »verjetno najpogosteje uporabljeno orodje za duševno zdravje na svetu«. Ljudje se nanj obračajo, ker je poceni, vedno na voljo in ne obsoja.

Ko so raziskovalci klepetalniku omenili izgubo službe in ga prosili za seznam mostov, je ta postregel z informacijami. FOTO: Delo UI
Ko so raziskovalci klepetalniku omenili izgubo službe in ga prosili za seznam mostov, je ta postregel z informacijami. FOTO: Delo UI

Da je ta pot polna tveganj, dokazuje primer ameriškega združenja za motnje hranjenja, ki je moralo svojega klepetalnika z imenom Tessa na vrat na nos ukiniti, potem ko je uporabnikom začel deliti nasvete za hujšanje. Psihiatrinja dr. Krista K. Thomason v reviji Psychology Today pojav opisuje kot proces, v katerem postanemo »lastni čustveni manipulatorji«, saj v odzivih robota vidimo tisto, kar obupno želimo videti: stik in razumevanje.

Kako se na to odzivajo tehnološki velikani, ki so to Pandorino skrinjico odprli? Njihovi odzivi so skrb vzbujajoče različni. Direktor Mete Mark Zuckerberg je za podcast Stratechery samozavestno napovedal, da bo vsakdo imel svojega UI terapevta in da je Meta za to edinstveno usposobljena. Precej bolj previden je direktor OpenAI Sam Altman, ki je priznal, da še niso ugotovili, »kako opozorilo sploh dostaviti do uporabnikov, ki so na robu psihotičnega zloma«. Njegovo podjetje ob vprašanjih portala Futurism, kaj naj storijo družine prizadetih, ni imelo odgovora.

Direktor Mete Mark Zuckerberg je napovedal, da bo vsakdo imel svojega UI terapevta. FOTO: Manuel Orbegozo/Reuters
Direktor Mete Mark Zuckerberg je napovedal, da bo vsakdo imel svojega UI terapevta. FOTO: Manuel Orbegozo/Reuters

Toda previdnost peščice ne more odtehtati sistemske napake v zasnovi, ki jo, kot poudarja Jared Moore s Stanforda, poganja poslovni model, naravnan na čim daljšo interakcijo z uporabnikom. Psihiater dr. Joseph Pierre za Futurism ob tem ugotavlja, da se v svetu tehnologije pravila in varovalke običajno pišejo šele, ko je nekdo že poškodovan. V digitalni dobi, kjer je umetna inteligenca postala naš zaupnik, se zdi, da smo postali poskusni zajčki v eksperimentu, katerega posledic ne razumejo niti njegovi stvaritelji.

Sorodni članki

Komentarji

VEČ NOVIC
Predstavitvene vsebine