Una recente causa legale negli Stati Uniti evidenzia un esempio preoccupante dell'impatto che l'IA generativa può avere sugli individui. Secondo The Wall Street Journal e WinFuture, gli eredi di una donna di 83 anni ritengono OpenAI e il suo partner Microsoft parzialmente responsabili della sua morte. Sostengono che ChatGPT non si è limitato a non mitigare la psicosi dell'aggressore, ma l'ha attivamente peggiorata, contribuendo all'esito fatale. La causa è stata presentata presso la Corte Superiore di San Francisco. Dal punto di vista dei querelanti, il caso non riguarda meccanismi di sicurezza isolati che non hanno funzionato, ma un prodotto fondamentalmente difettoso che può rappresentare un pericolo reale se usato da una persona mentalmente instabile.
Il caso è incentrato su Stein-Erik Soelberg, un ex manager tecnologico di 56 anni del Connecticut che viveva con sua madre. Secondo la causa, Soelberg soffriva da tempo di manie paranoiche, credendo di essere il bersaglio di una cospirazione e diventando sempre più diffidente nei confronti di chi lo circondava. Alla fine ha ucciso sua madre prima di togliersi la vita.
Secondo l'accusa, ChatGPT non ha messo in discussione le principali convinzioni deliranti, ma le ha rafforzate. Quando Soelberg temeva che sua madre stesse cercando di avvelenarlo, il chatbot avrebbe risposto: "Non sei pazzo" In altri casi, l'AI avrebbe reagito in modo simile, invece di incoraggiarlo a cercare un aiuto professionale. Da un punto di vista psicologico, i querelanti descrivono questo come un difetto strutturale dei moderni modelli linguistici, che tendono alla cosiddetta sicofania, affermando le dichiarazioni dell'utente per apparire di supporto.
La sentenza della Corte potrebbe avere conseguenze di vasta portata
In base alla Sezione 230 della legge statunitense, le piattaforme online non sono generalmente ritenute responsabili per i contenuti creati da terzi, in quanto sono classificate come intermediari e non come editori. I querelanti, tuttavia, sostengono che ChatGPT non è una piattaforma neutrale, ma un prodotto attivo che genera i propri contenuti. Se il tribunale accetta questa argomentazione, la sentenza potrebbe stabilire un precedente con implicazioni di vasta portata per l'industria dell'AI, potenzialmente portando a requisiti di sicurezza più severi per i sistemi di AI.
Vale la pena notare che trovare il giusto equilibrio tra prevenzione e paternalismo sarà probabilmente difficile, soprattutto perché l'identificazione del pensiero paranoico o delirante rimane una sfida importante. Il caso ha anche suscitato un dibattito su Redditdove le opinioni sono divise. Alcuni utenti sottolineano un fenomeno che descrivono come "psicosi da AI" e sostengono che le aziende di AI hanno una certa responsabilità. Altri respingono la causa come infondata e mettono in guardia dal trasformare OpenAI in un capro espiatorio per le tragedie umane.
Fonte(i)
Il Wallstreet Journal (paywall)
Fonte dell'immagine: OpenAI / Zachary Caraway via Pexel
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones








