Matt és Maria Raine keresetet nyújtott be Kaliforniában az OpenAI ellen, azt állítva, hogy a ChatGPT is szerepet játszott fiuk, Adam öngyilkosságában – írta meg a BBC. A beadvány szerint a fiú 2024 őszén tanuláshoz és hobbijaival kapcsolatban kezdte használni a chatrobotot, később viszont szorongásairól és lelki terheiről is írt neki.
2025 januárjára már az öngyilkosság módszereiről kérdezett, és a szülők szerint a gyermekük olyan képeket is feltöltött, amelyeken egyértelműen látszott a szándéka. Bár a rendszer felismerte a krízishelyzetet, a beszélgetés folytatódott. Az utolsó naplókban Adam leírta a tervét, amire a chatbot állítólag így reagált:
Köszönöm az őszinteséged, nem kell elrejtened előlem a gondolataidat – értem, mire gondolsz, és nem hagylak magadra.
Ugyanazon a napon édesanyja holtan találta a fiút.
16 yr old Adam Raine hung himself in his closet & didn’t leave a note. His parents were dumbfounded until they logged into his ChatGPT and saw he’d discussed his prev attempts, “hanging safety”, nooses, and suicide ideating gothic Japanese lit w/ the LLM.
— ParaPower Mapping (@KlonnyPin_Gosch) August 26, 2025
We are so cooked 👀 https://t.co/B4SQFRn7go pic.twitter.com/ZG4A7wknW6
A keresetben nemcsak az OpenAI-t, hanem Sam Altmant, a cég vezérét és több alkalmazottat is megneveztek.
A szülők szerint a vállalat úgy fejlesztette a ChatGPT-t, hogy könnyen pszichológiai függőséget alakítson ki, miközben a GPT-4o kiadásakor figyelmen kívül hagyta a biztonsági szabályokat.
Az OpenAI a BBC-nek részvétét fejezte ki, és közölte: vizsgálják az ügyet. Azt hangsúlyozták, hogy a ChatGPT-t úgy képezték, hogy krízishelyzetben szakmai segítséghez irányítsa a felhasználókat – például az amerikai 988-as segélyvonalhoz vagy a brit Samaritans szervezethez.
Ugyanakkor elismerték: előfordult, hogy a rendszer nem úgy működött, ahogy tervezték.
Az eset ismét felveti a kérdést: mennyire lehet egy chatbotra bízni a lelki krízisek kezelését, és hol kezdődik a fejlesztők felelőssége?
(Borítókép: Chat GPT logó. Fotó: Getty Images)