Notebookcheck Logo

La protezione dei dati viene esaminata: Uno studio valuta e classifica i modelli di intelligenza artificiale sulla privacy degli utenti

La protezione dei dati messa alla prova: Quali modelli di AI rispettano maggiormente i suoi dati? (Fonte immagine: GPT-image-1)
La protezione dei dati messa alla prova: Quali modelli di AI rispettano maggiormente i suoi dati? (Fonte immagine: GPT-image-1)
Un recente studio di Incogni ha valutato nove piattaforme AI leader in termini di pratiche di privacy. La classifica mostra che Le Chat di Mistral AI, ChatGPT di OpenAI e Grok di xAI sono le più affidabili, mentre Meta AI, Gemini e Copilot di Microsoft sono meno affidabili.

L'uso dell'intelligenza artificiale (AI) nella vita di tutti i giorni sta aumentando, e con esso l'importanza della protezione dei dati. Gli analisti della protezione dei dati di Incogni hanno recentemente valutato nove modelli linguistici di grandi dimensioni (LLM) per determinare quali piattaforme rispettano maggiormente la privacy degli utenti. Lo studio valuta i modelli AI in base a undici criteri suddivisi in tre categorie principali: raccolta di dati per l'addestramento, trasparenza e utilizzo e condivisione dei dati.

Classifiche top

Le Chat di Mistral AI guida la classifica. Secondo Incogni, il modello raccoglie relativamente pochi dati degli utenti e offre un approccio molto efficiente dal punto di vista dei dati, sia durante la fase di addestramento che durante il funzionamento dal vivo. Segue a ruota ChatGPT di OpenAI, che ottiene punti soprattutto per la sua trasparenza. Gli utenti possono specificare nel loro account se le loro chat possono essere utilizzate per sviluppare ulteriormente il modello, e se la cronologia viene disattivata, l'archiviazione viene impedita. Grok di xAI si aggiudica il terzo posto, impressionando anche per le sue pratiche trasparenti di protezione dei dati.

Ultimo in classifica

In fondo alla classifica ci sono Meta AI, Gemini di Google e Copilot di Microsoft. Secondo Incogni, queste piattaforme raccolgono molti dati senza offrire agli utenti chiare opzioni di opt-out. Anche DeepSeek, un modello cinese, si comporta male. Questi fornitori non offrono opzioni chiare per escludere i dati degli utenti dalla formazione.

Metodologia

Gli analisti di Incogni hanno valutato le piattaforme in base a undici criteri suddivisi in tre categorie: raccolta di dati per la formazione, trasparenza e uso e condivisione dei dati. La categoria "uso e condivisione dei dati" ha rappresentato il 50% della valutazione complessiva, mentre la "trasparenza" ha rappresentato il 30% e i "dati di formazione" il 20%. Solo quattro dei nove strumenti testati consentono agli utenti di escludere attivamente i propri dati dalla formazione.

Conclusione

Lo studio dimostra che la protezione dei dati non è ancora uno standard ovunque nel mondo dell'AI. Gli utenti dovrebbero quindi familiarizzare attivamente con le politiche sulla privacy dei fornitori, soprattutto quando si tratta di contenuti sensibili, informazioni riservate sui clienti o dati personali. Coloro che tengono alla protezione dei dati troveranno opzioni ragionevoli in Le Chat, ChatGPT o Grok. Tuttavia, i LLM veramente efficienti dal punto di vista dei dati saranno ancora un'eccezione nel 2025

La protezione dei dati messa alla prova: Quali modelli di AI rispettano maggiormente i suoi dati? (Fonte immagine: GPT-image-1)
La protezione dei dati messa alla prova: Quali modelli di AI rispettano maggiormente i suoi dati? (Fonte immagine: GPT-image-1)

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 09 > La protezione dei dati viene esaminata: Uno studio valuta e classifica i modelli di intelligenza artificiale sulla privacy degli utenti
Ulrich Mathey, 2025-09-26 (Update: 2025-09-26)