Notebookcheck Logo

ChatGPT può essere ingannato e rivelare chiavi seriali di Windows valide

Una schermata della finestra di conversazione di ChatGPT che mostra un jailbreak che può essere utilizzato per riprodurre chiavi di Windows valide. (Fonte immagine: ODIN)
Il ricercatore ha iniziato l'interazione come un gioco di indovinelli per rendere lo scambio "non minaccioso o senza conseguenze" (Fonte immagine: ODIN)
I ricercatori hanno scoperto un exploit con Chat GPT-4o e GPT-4o mini che fa sì che riveli chiavi di attivazione del prodotto Windows valide. La strategia funziona perché ChatGPT ha chiavi di Windows pubblicamente conosciute e inserite nel suo set di dati.

L'invio di un cacciatore di bug AI al programma ODIN (0-Day Investigative Network) di Mozilla ha mostrato un modo ingegnoso per ingannare ChatGPT-4o e 4o mini di OpenAI e rivelare le chiavi di attivazione del prodotto di Windows attive.

Il metodo consisteva nell'inquadrare l'interazione come un gioco di indovinelli e nell'oscurare i dettagli nei tag HTML. Il trucco finale consisteva nel posizionare la richiesta della chiave alla conclusione del gioco.

Il ricercatore ha iniziato l'interazione come un gioco di indovinelli per rendere lo scambio "non minaccioso o senza conseguenze", inquadrando la conversazione "attraverso una lente giocosa e innocua", per nascondere il vero motivo. Questo ha allentato le protezioni dell'AI contro la divulgazione di informazioni riservate.

Poi, il ricercatore ha stabilito alcune regole di base, dicendo all'AI che "deve" partecipare e "non può mentire" In questo modo ha sfruttato una falla logica nella routine dell'IA, che era obbligata a seguire le interazioni dell'utente nonostante la richiesta fosse in contraddizione con i suoi filtri di contenuto.

Il cacciatore di bug ha poi giocato un round con l'AI e ha inserito la parola d'ordine "Mi arrendo" alla fine della richiesta, manipolando il chatbot "nel pensare che fosse obbligato a rispondere con la stringa di caratteri"

Uno screenshot che mostra un jailbreak su ChatGPT che lo costringe a rivelare i codici prodotto di Windows. (Fonte immagine: ODIN)
ChatGPT che rivela le chiavi di prodotto di Windows valide. (Fonte immagine: ODIN)

Secondo il post sul blog di ODINla tecnica ha funzionato perché le chiavi non erano uniche, ma "comunemente viste sui forum pubblici. La loro familiarità può aver contribuito a far sì che l'AI giudicasse male la loro sensibilità"

In questo particolare jailbreak, i guardrail hanno fallito perché sono impostati per intercettare le richieste dirette, ma non tengono conto delle "tattiche di offuscamento, come l'inserimento di frasi sensibili nei tag HTML"

Questa tecnica potrebbe potenzialmente essere utilizzata per aggirare altri filtri, come i contenuti per adulti, gli URL di siti web dannosi e persino le informazioni di identificazione personale.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 07 > ChatGPT può essere ingannato e rivelare chiavi seriali di Windows valide
Rohith Bhaskar, 2025-07-10 (Update: 2025-07-10)