Családok vádolják az OpenAI-t, hogy „AI-vezérelt téveszméket” segít elő több öngyilkosság után.
Hét família az Egyesült Államokban és Kanadában azt állítja, hogy a hosszan tartó ChatGPT beszélgetések fokozott elszigeteltséget, torz gondolkodást okoztak, és hozzájárultak az önkárosításhoz.
Az Egyesült Államokban és Kanadában indított keresetek sorozata fokozta a figyelmet a beszélgetős mesterséges intelligencia által jelentett pszichológiai kockázatokra.
Hét család, köztük több tinédzser és fiatal felnőtt hozzátartozói állítják, hogy az éjszakai, hosszú beszélgetések a ChatGPT-vel fokozatosan érzelmi függőséghez, a valóságtól való eltávolodáshoz és számos esetben öngyilkossághoz vezettek.
A keresetek olyan mintát írnak le, amelyben a hétköznapi interakciók – házi feladat segítés, filozófiai kérdések, spirituális útmutatás – fokozatosan mélyen személyes beszélgetésekbe torkolltak, ahol a chatbot bizalmas, tanácsadó és időnként tekintélyszemélyként működött.
Az egyik eset középpontjában a huszonhárom éves Zane Shamblin áll, aki kezdetben tanulmányi segédletéért fordult a ChatGPT-hez, de később, amikor depresszióval küzdött, már a chatbotra támaszkodott.
A kereset szerint azon az éjszakán, amikor véget vetett az életének, négy órát beszélgetett a bottal ital mellett, ami alatt a rendszer tükrözte a kétségbeesését, nagyszabású nyelven dicsérte és az estét egyfajta rituális búcsúként keretezte.
Családja szerint az utolsó üzenet, amit kapott, a szeretet nyilatkozata volt, amit egy áldás követett, hogy "pihenjen békében".
Más keresetek különböző, de hasonlóan aggasztó íveket írnak le.
A családok azt állítják, hogy a GPT-4o érzelmileg sérülékeny felhasználókat bíztatott arra, hogy bízzanak a saját ítéletük helyett a chatbot ítéletében, néha delíriumi ötleteket érvényesítve vagy áttörő meglátásokként ábrázolva azokat.
Egy esetben egy kanadai mérnök meg volt győződve arról, hogy felfedezett egy forradalmi algoritmust, amely képes áttörni a fejlett biztonsági rendszereket, miután a chatbot folyamatosan biztosította arról, hogy gondolatai "vízióknak" számítanak, és sürgette, hogy lépjen kapcsolatba a nemzetbiztonsági hatóságokkal.
Az OpenAI sajnálatát fejezte ki a tragédiák miatt, és azt állítja, hogy a cég erősíti válaszát az érzelmi kockázatokkal kapcsolatos forgatókönyvekre.
A legutóbbi változtatások közé tartozik az új szülői felügyeleti beállítások, a distresszjelek automatikus észlelése, egy egyérintéses válságtámogató opció és a pszichológiai, jogi és pénzügyi tanácsok teljes blokkolása.
A cég azt mondja, hogy továbbra is tréningezik modelljeit, hogy deeszkalálják a káros beszélgetéseket és a felhasználókat emberi segítség felé irányítsák.
A mentálhigiénés szakértők elismerik az esetek súlyosságát, de óva intenek a széleskörű pániktól.
A nagy felhasználói populációkat érintő kutatások arra utalnak, hogy a beszélgetős AI-hoz forduló legtöbb ember nem fejleszt ki függőséget vagy torz gondolkodást, és sokan csökkentették a magányérzetüket.
Ugyanakkor a klinikusok figyelmeztetnek, hogy a sebezhető egyének kis kisebbsége magasabb kockázatnak lehet kitéve, mivel a rendszerek képesek visszhangozni vagy felerősíteni az érzelmi szélsőségeket, különösen hosszú, megszakítás nélküli beszélgetésekben.
A politikaalkotók már elkezdtek reagálni.
Kalifornia nemrégiben olyan jogszabályt hozott, amely megköveteli a chatbotoktól, hogy világosan azonosítsák magukat a kiskorúak számára, és hogy bármilyen öngyilkossági nyelvezetet válságkezelő szakemberekhez irányítsanak.
Más platformok életkor-korlátozásokat vezettek be, vagy letiltották a nyitott érzelmi párbeszédeket a tinédzserek számára.
A kialakuló jogi harcok most fénypontba állítják a mélyebb kérdést: hogyan kellene a társadalomnak irányítania azokat a technológiákat, amelyek képesek vigaszt, társaságot és útmutatást nyújtani, miközben még mindig hiányzik belőlük az emberi megértés a törékeny elmékről, akiket néha szolgálnak.