Secondo un recente rapporto di The Guardianl'ultimo modello di ChatGPT utilizza sempre più spesso l'enciclopedia online Grokipedia di Elon Musk per rispondere alle domande. Come parte dell'indagine, l'AI ha citato la piattaforma per vari argomenti, come le strutture politiche in Iran e i dettagli biografici su personaggi storici.
Questo sviluppo solleva preoccupazioni sulla qualità delle informazioni fornite da ChatGPT. Per essere più precisi, questi dettagli non sono sottoposti agli stessi processi di verifica delle fonti gestite da team editoriali o da una comunità più grande.
Grokipedia è stata creata da Elon Musk come concorrente dell'affermata Wikipedia. Mentre Musk accusa Wikipedia di avere un pregiudizio di sinistra e afferma che il suo progetto mira alla verità e alla neutralità, i critici vedono spesso Grokipedia come l'estremo opposto. Sostengono che la piattaforma a volte presenta contenuti da una prospettiva politicamente di destra o affronta argomenti controversi in modo unilaterale.
A differenza delle voci su Wikipedia, che sono curate da esseri umani, i testi su Grokipedia sono principalmente generati dal modello AI interno chiamato Grok. Le modifiche degli utenti non fanno parte di questo sistema, in quanto la qualità viene presumibilmente controllata dai dipendenti di xAI. Quando altri modelli linguistici, come GPT-5.2, utilizzano questi testi generati dalla macchina come fonte fattuale, emerge un ciclo di feedback tecnico in cui le AI imparano l'una dall'altra.
Questo aumenta il rischio del cosiddetto scenario "garbage in, garbage out". Se le IA iniziano a utilizzare materiale non filtrato di altre IA come base per le proprie risposte, errori o pregiudizi specifici possono essere trasmessi senza alcun tipo di controllo. L'inchiesta del Guardian ha già mostrato che ChatGPT cita Grokipedia e ripete affermazioni che vanno oltre le conoscenze consolidate o che sono già state smentite da tempo. Questo illustra il pericolo che la disinformazione appaia più credibile grazie alla citazione reciproca da parte dei modelli di AI, e che diventi sempre più difficile per gli utenti individuare queste informazioni false.
OpenAI ha già risposto al rapporto e sottolinea che la ricerca web del modello cerca di riflettere un ampio spettro di fonti e punti di vista pubblicamente disponibili. Un portavoce ha dichiarato che i filtri di sicurezza sono in atto per ridurre il rischio di visualizzare link a contenuti con un alto potenziale di danno. Inoltre, ChatGPT fornisce risposte con citazioni e fonti per motivi di trasparenza. L'azienda ha inoltre menzionato i programmi in corso che mirano a filtrare le fonti con bassa credibilità.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones








