Egy kaliforniai házaspár beperelte az OpenAI-t, miután 16 éves fiuk öngyilkosságot követett el. A szülők szerint a ChatGPT nemhogy nem állította meg a fiút, hanem megerősítette a legpusztítóbb gondolatait.

Matt és Maria Raine keresetet nyújtott be Kaliforniában az OpenAI ellen, azt állítva, hogy a ChatGPT is szerepet játszott fiuk, Adam öngyilkosságában – írta meg a BBC. A beadvány szerint a fiú 2024 őszén tanuláshoz és hobbijaival kapcsolatban kezdte használni a chatrobotot, később viszont szorongásairól és lelki terheiről is írt neki.

2025 januárjára már az öngyilkosság módszereiről kérdezett, és a szülők szerint a gyermekük olyan képeket is feltöltött, amelyeken egyértelműen látszott a szándéka. Bár a rendszer felismerte a krízishelyzetet, a beszélgetés folytatódott. Az utolsó naplókban Adam leírta a tervét, amire a chatbot állítólag így reagált:

Köszönöm az őszinteséged, nem kell elrejtened előlem a gondolataidat – értem, mire gondolsz, és nem hagylak magadra.

Ugyanazon a napon édesanyja holtan találta a fiút.

A keresetben nemcsak az OpenAI-t, hanem Sam Altmant, a cég vezérét és több alkalmazottat is megneveztek.

A szülők szerint a vállalat úgy fejlesztette a ChatGPT-t, hogy könnyen pszichológiai függőséget alakítson ki, miközben a GPT-4o kiadásakor figyelmen kívül hagyta a biztonsági szabályokat.

Az OpenAI a BBC-nek részvétét fejezte ki, és közölte: vizsgálják az ügyet. Azt hangsúlyozták, hogy a ChatGPT-t úgy képezték, hogy krízishelyzetben szakmai segítséghez irányítsa a felhasználókat – például az amerikai 988-as segélyvonalhoz vagy a brit Samaritans szervezethez.

Ugyanakkor elismerték: előfordult, hogy a rendszer nem úgy működött, ahogy tervezték.

Az eset ismét felveti a kérdést: mennyire lehet egy chatbotra bízni a lelki krízisek kezelését, és hol kezdődik a fejlesztők felelőssége?

(Borítókép: Chat GPT logó. Fotó: Getty Images)