Notebookcheck Logo

ChatGPT gyilkossági vádakkal áll a bíróság elé

Egy amerikai perben azt állítják, hogy a ChatGPT fokozta az 56 éves Stein-Erik Soelberg pszichózisát. (Kép forrása: OpenAI / Zachary Caraway via Pexel, szerk.)
Egy amerikai perben azt állítják, hogy a ChatGPT fokozta az 56 éves Stein-Erik Soelberg pszichózisát. (Kép forrása: OpenAI / Zachary Caraway via Pexel, szerk.)
Egy amerikai perben azt állítják, hogy az OpenAI és a Microsoft a ChatGPT-t olyan módon használta, amely súlyosbította az elkövető pszichózisát, és közvetve hozzájárult egy halálos kimenetelű bűncselekményhez. Az ügy kimenetele döntő szerepet játszhat annak alakításában, hogy hasonló helyzetekben hogyan vonják felelősségre a mesterséges intelligenciával foglalkozó vállalatokat.
AI Business

Egy nemrégiben indított amerikai peres eljárás aggasztó példája annak, hogy a generatív mesterséges intelligencia milyen hatással lehet az egyénekre.A The Wall Street Journal szerint és a WinFuture szerint egy 83 éves asszony örökösei a OpenAI és partnerét, a Microsoftot részben felelősnek tartják a nő haláláért. Azt állítják, hogy a ChatGPT nem pusztán nem tudta enyhíteni az elkövető pszichózisát, hanem aktívan rontotta azt, hozzájárulva a végzetes kimenetelhez. A pert a San Franciscó-i Legfelsőbb Bíróságon nyújtották be. A felperesek szemszögéből nézve az ügy nem elszigetelt, meghibásodott biztonsági mechanizmusokról szól, hanem egy alapvetően hibás termékről, amely valódi veszélyt jelenthet, ha valaki mentálisan instabil személy használja.

Az ügy középpontjában Stein-Erik Soelberg áll, egy 56 éves volt műszaki menedzser Connecticutból, aki az édesanyjával élt. A kereset szerint Soelberg régóta paranoid téveszmékben szenvedett, azt hitte, hogy egy összeesküvés célpontja, és egyre bizalmatlanabb lett a környezetében élőkkel szemben. Végül megölte az édesanyját, mielőtt öngyilkos lett volna.

A vádirat szerint ChatGPT nem kérdőjelezte meg a legfontosabb téveszméket, hanem inkább megerősítette azokat. Amikor Soelberg attól tartott, hogy az anyja meg akarja mérgezni, a chatbot állítólag azt válaszolta: "Nem vagy őrült" Más esetekben a mesterséges intelligencia állítólag hasonló módon reagált, ahelyett, hogy arra bátorította volna, hogy forduljon szakemberhez. Pszichológiai szempontból a felperesek ezt a modern nyelvi modellek szerkezeti hibájaként írják le, amelyek hajlamosak az úgynevezett talpnyalásra azáltal, hogy megerősítik a felhasználó kijelentéseit, hogy támogatónak tűnjenek.

A bírósági döntésnek messzemenő következményei lehetnek

Az amerikai jog 230. szakasza értelmében az online platformok általában nem vonhatók felelősségre a harmadik felek által létrehozott tartalmakért, mivel nem kiadóknak, hanem közvetítőknek minősülnek. A felperesek azonban azzal érvelnek, hogy a ChatGPT nem egy semleges platform, hanem egy aktív termék, amely saját tartalmakat hoz létre. Ha a bíróság elfogadja ezt az érvelést, az ítélet precedenst teremthet, amely messzemenő hatással lehet a mesterséges intelligencia iparára, és esetleg szigorúbb biztonsági követelményeket eredményezhet a mesterséges intelligencia rendszerekkel szemben.

Érdemes megjegyezni, hogy a megelőzés és a paternalizmus közötti helyes egyensúly megtalálása valószínűleg nehéznek bizonyul, különösen azért, mert a paranoid vagy téveszmés gondolkodás azonosítása továbbra is komoly kihívást jelent. Az eset vitát váltott ki a oldalon is. Reddit, ahol megoszlanak a vélemények. Egyes felhasználók egy általuk "AI-pszichózisnak" nevezett jelenségre mutatnak rá, és azzal érvelnek, hogy a mesterséges intelligenciával foglalkozó cégek bizonyos fokú felelősséget viselnek. Mások alaptalannak tartják a pert, és óva intenek attól, hogy az OpenAI-t bűnbakká tegyék az emberi tragédiákért.

Forrás(ok)

The Wallstreet Journal (fizetős fal)

A kép forrása: Wall Street Wall Street: OpenAI / Zachary Caraway via Pexel

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Hírek > News Archive > Newsarchive 2025 12 > ChatGPT gyilkossági vádakkal áll a bíróság elé
Marius Müller, 2025-12-20 (Update: 2025-12-20)