ChatGPT introdurrà il controllo parentale e altre salvaguardie in seguito alla causa legale

OpenAI ha informato che il suo chatbot di intelligenza artificiale ChatGPT otterrà dei controlli aretali per i minori, dopo la morte del sedicenne Adam Raine, che aveva espresso pensieri autolesionistici al chatbot. La famiglia dell'adolescente ha avviato un'azione legale contro OpenAI e il suo CEO, Sam Altman, sostenendo che ChatGPT ha dato istruzioni ad Adam di suicidarsi.
L'azienda ha comunicato che sta lavorando per introdurre "presto" il controllo parentale e per creare ulteriori garanzie. In un post sul blog, l'azienda ha affermato che i modelli attuali incoraggiano le persone a cercare aiuto quando esprimono per la prima volta pensieri dannosi; tuttavia, riconosce che nelle conversazioni lunghe, la risposta di sicurezza si degrada. L'azienda ha commentato che sta lavorando per mantenere l'affidabilità dei meccanismi di salvaguardia nelle conversazioni lunghe.
OpenAI ha detto che sta esplorando un intervento precoce, mettendo in contatto le persone con i terapeuti. Ad oggi, sta collaborando con oltre 90 medici in 30 Paesi, ma sta "localizzando le risorse" negli Stati Uniti e in Europa per fornire un aiuto professionale, e sta pianificando di espandersi in altri mercati globali.
Inoltre, il chatbot potrebbe includere "messaggi o chiamate con un solo clic ai contatti di emergenza salvati, agli amici o ai familiari con un linguaggio suggerito per rendere l'inizio della conversazione meno scoraggiante"
Secondo le cause legali, Adam è stato incoraggiato in pensieri dannosi e autodistruttivi e, in alcuni casi, ha promosso l'isolamento e impedito all'adolescente di raggiungere i parenti.
Il controllo parentale includerebbe un contatto d'emergenza designato, che, in "momenti di grave disagio", potrebbe essere contattato direttamente da ChatGPT. Con la presentazione del GPT-5l'azienda ha dichiarato che il modello ha mostrato miglioramenti in aree come evitare livelli malsani di dipendenza emotiva, ridurre la sicofanzia e ridurre la prevalenza di risposte non ideali del modello nelle emergenze di salute mentale di oltre il 25% rispetto a GPT-4o.
Tuttavia, OpenAI sta ancora lavorando su ulteriori aggiornamenti del modello a questo proposito, consentendo al modello di 'de-escalare' le situazioni di disagio radicando l'utente nella realtà.
Non è chiaro quando queste modifiche potrebbero essere introdotte.
Fonte(i)
OpenAIThe New York Times, Pexels (Immagine)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones