Un nuovo rapporto di OpenAI ha mostrato che gruppi sponsorizzati dallo stato stanno utilizzando gli stessi strumenti disponibili pubblicamente degli utenti normali di Internet, e spesso si trovano a lottare altrettanto. OpenAI ha recentemente condiviso dettagli su come i gruppi legati al governo hanno cercato di utilizzare le loro piattaforme.

Il caso più notevole è emerso da una campagna di influenza cinese che è stata esposta per caso quando un funzionario delle forze dell'ordine cinese ha utilizzato ChatGPT come un diario personale. Il funzionario ha scritto di un'operazione mirata ai critici cinesi che vivono in altri paesi. La campagna ha coinvolto centinaia di operatori e migliaia di account falsi sui social media, secondo OpenAI.

L'operazione ha cercato di impersonare funzionari dell'immigrazione degli Stati Uniti per spaventare un dissidente dicendo falsamente che le loro dichiarazioni pubbliche violavano la legge americana. In altri casi, gli operatori hanno utilizzato documenti falsificati che affermavano di provenire da un tribunale della contea per cercare di far rimuovere gli account sui social media dei critici.

OpenAI fornisce un'idea su una nuova campagna di molestie

Hanno creato un falso necrologio e foto di lapidi per diffondere false voci sulla morte di un dissidente. Queste voci sono effettivamente emerse online nel 2023, ha confermato un articolo in lingua cinese della Voice of America. Ben Nimmo, che guida le indagini presso OpenAI, ha definito lo sforzo un'assalto industrializzato mirato ai critici del Partito Comunista Cinese attraverso più canali.

L'uso di ChatGPT come strumento di registrazione ha finito per esporre l'operazione. ChatGPT ha funzionato come un diario per l'operativo per tracciare la rete segreta, mentre altri strumenti hanno generato la maggior parte del contenuto effettivo che è stato diffuso sui social media. OpenAI ha bandito l'utente dopo aver scoperto l'attività. Gli investigatori di OpenAI hanno abbinato le descrizioni dell'utente di ChatGPT con l'attività online reale.

L'utente ha descritto di aver falsificato la morte di un dissidente cinese creando un necrologio falso e foto di lapidi da pubblicare online. In un altro caso, l'utente di ChatGPT ha chiesto al sistema di creare un piano per danneggiare la reputazione del nuovo Primo Ministro giapponese Sanae Takaichi suscitando rabbia riguardo ai dazi americani. ChatGPT ha rifiutato. Ma alla fine di ottobre, quando Takaichi ha preso il potere, gli hashtag sono emersi su un forum popolare per artisti grafici giapponesi attaccandola e lamentandosi dei dazi.

Microsoft svela tendenze simili nel suo rapporto

Il rapporto di OpenAI ha anche coperto diverse operazioni di truffa dalla Cambogia che hanno utilizzato la piattaforma per truffe romantiche e di investimento, oltre a campagne di influenza legate alla Russia che mirano all'Argentina e all'Africa. In un rapporto separato pubblicato da Microsoft in collaborazione con OpenAI, si è esaminato come gli attori statali della Russia, della Corea del Nord, dell'Iran e della Cina stiano provando grandi modelli di linguaggio per supportare le operazioni di attacco informatico.

Entrambe le aziende hanno chiuso gli sforzi di cinque attori affiliati allo stato chiudendo i loro conti. Il rapporto di Microsoft ha scoperto che questi attori volevano principalmente utilizzare i servizi per lavori semplici come cercare informazioni disponibili pubblicamente, tradurre contenuti, correggere errori di codifica e svolgere compiti di programmazione di base. Finora non sono stati trovati attacchi maggiori o nuovi utilizzando i modelli. Questo divario tra paura e realtà si verifica durante una dura competizione tra Washington e Pechino per il controllo di questa tecnologia.

Il ruolo che svolge in questioni militari ed economiche è diventato anche una grande battaglia. Il Pentagono ha recentemente detto a un'altra azienda, Anthropic, che ha tempo fino a venerdì per rimuovere alcune funzionalità di sicurezza dal suo modello o rischiare di perdere un contratto di difesa. Microsoft ha dichiarato che sta lavorando su principi per ridurre i rischi derivanti dall'uso improprio di questi strumenti da parte di gruppi statali e organizzazioni criminali. Questi principi includono trovare e fermare gli utenti malintenzionati, informare altri fornitori di servizi, lavorare con altri gruppi e essere trasparenti.

Il post del rapporto di OpenAI rivela che gli hacker statali non riescono a ottenere un vantaggio con l'IA è apparso per la prima volta su Coinfea.