Notebookcheck Logo

ChatGPT affronta le accuse di omicidio in tribunale

Una causa negli Stati Uniti sostiene che ChatGPT ha intensificato la psicosi del 56enne Stein-Erik Soelberg. (Fonte immagine: OpenAI / Zachary Caraway via Pexel, modificato)
Una causa negli Stati Uniti sostiene che ChatGPT ha intensificato la psicosi del 56enne Stein-Erik Soelberg. (Fonte immagine: OpenAI / Zachary Caraway via Pexel, modificato)
Una causa statunitense sostiene che OpenAI e Microsoft hanno utilizzato ChatGPT in un modo che ha esacerbato la psicosi di un colpevole, contribuendo indirettamente a un crimine mortale. L'esito del caso potrebbe giocare un ruolo cruciale nel definire il modo in cui le aziende di AI sono ritenute responsabili in situazioni analoghe.

Una recente causa legale negli Stati Uniti evidenzia un esempio preoccupante dell'impatto che l'IA generativa può avere sugli individui. Secondo The Wall Street Journal e WinFuture, gli eredi di una donna di 83 anni ritengono OpenAI e il suo partner Microsoft parzialmente responsabili della sua morte. Sostengono che ChatGPT non si è limitato a non mitigare la psicosi dell'aggressore, ma l'ha attivamente peggiorata, contribuendo all'esito fatale. La causa è stata presentata presso la Corte Superiore di San Francisco. Dal punto di vista dei querelanti, il caso non riguarda meccanismi di sicurezza isolati che non hanno funzionato, ma un prodotto fondamentalmente difettoso che può rappresentare un pericolo reale se usato da una persona mentalmente instabile.

Il caso è incentrato su Stein-Erik Soelberg, un ex manager tecnologico di 56 anni del Connecticut che viveva con sua madre. Secondo la causa, Soelberg soffriva da tempo di manie paranoiche, credendo di essere il bersaglio di una cospirazione e diventando sempre più diffidente nei confronti di chi lo circondava. Alla fine ha ucciso sua madre prima di togliersi la vita.

Secondo l'accusa, ChatGPT non ha messo in discussione le principali convinzioni deliranti, ma le ha rafforzate. Quando Soelberg temeva che sua madre stesse cercando di avvelenarlo, il chatbot avrebbe risposto: "Non sei pazzo" In altri casi, l'AI avrebbe reagito in modo simile, invece di incoraggiarlo a cercare un aiuto professionale. Da un punto di vista psicologico, i querelanti descrivono questo come un difetto strutturale dei moderni modelli linguistici, che tendono alla cosiddetta sicofania, affermando le dichiarazioni dell'utente per apparire di supporto.

La sentenza della Corte potrebbe avere conseguenze di vasta portata

In base alla Sezione 230 della legge statunitense, le piattaforme online non sono generalmente ritenute responsabili per i contenuti creati da terzi, in quanto sono classificate come intermediari e non come editori. I querelanti, tuttavia, sostengono che ChatGPT non è una piattaforma neutrale, ma un prodotto attivo che genera i propri contenuti. Se il tribunale accetta questa argomentazione, la sentenza potrebbe stabilire un precedente con implicazioni di vasta portata per l'industria dell'AI, potenzialmente portando a requisiti di sicurezza più severi per i sistemi di AI.

Vale la pena notare che trovare il giusto equilibrio tra prevenzione e paternalismo sarà probabilmente difficile, soprattutto perché l'identificazione del pensiero paranoico o delirante rimane una sfida importante. Il caso ha anche suscitato un dibattito su Redditdove le opinioni sono divise. Alcuni utenti sottolineano un fenomeno che descrivono come "psicosi da AI" e sostengono che le aziende di AI hanno una certa responsabilità. Altri respingono la causa come infondata e mettono in guardia dal trasformare OpenAI in un capro espiatorio per le tragedie umane.

Fonte(i)

Il Wallstreet Journal (paywall)

Fonte dell'immagine: OpenAI / Zachary Caraway via Pexel

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 12 > ChatGPT affronta le accuse di omicidio in tribunale
Marius Müller, 2025-12-20 (Update: 2025-12-20)