Un team di ricercatori ha lanciato un’allerta, creando dei virus per dimostrare i rischi delle applicazioni abilitate all’IA.
A dimostrazione dei rischi degli ecosistemi IA connessi e autonomi, un gruppo di ricercatori ha creato uno di quelli che sostengono siano i primi worm IA generativi, che possono diffondersi da un sistema all’altro, potenzialmente rubando dati o distribuendo malware nel processo.
Nel loro rapporto, i ricercatori Stav Cohen dell’Israel Institute of Technology, Ben Nassi della Cornell Tech e Ron Bitton dell’Intuit, hanno inventato il nome “Morris II” ispirandosi al worm originale che ha devastato Internet in 1988. Di seguito, scopriamo quanto hanno rivelato gli scienziati.
Il documento di ricerca suggerisce che il worm generativo può diffondersi tra i sistemi di IA. Morris II può influenzare gli assistenti di posta elettronica generativi con intelligenza artificiale, estrarre dati da assistenti di posta elettronica abilitati all’intelligenza artificiale e persino eliminare le misure di sicurezza dei popolari chatbot come ChatGPT e Gemini. Utilizzando istruzioni autoreplicanti, il worm AI può facilmente navigare attraverso i sistemi AI senza essere rilevato.
Il virus è stato sviluppato con tre obiettivi chiave in mente. Il primo è garantire che possa ricrearsi. Utilizzando prompt autoreplicanti che attivano le applicazioni AI per inviare il prompt originale stesso, l’IA replicherà automaticamente il worm ogni volta che utilizza il prompt. Il secondo obiettivo era fornire un payload o eseguire un’attività dannosa.
In questo caso era programmato per eseguire una serie di azioni: dal furto di informazioni sensibili alla creazione di e-mail offensive e volgari allo scopo di seminare tossicità e distribuire propaganda. Infine, doveva essere in grado di passare da un host all’altro e da un’applicazione all’altra per potersi diffondere nell’ecosistema dell’intelligenza artificiale.
Nei test effettuati dai ricercatori, il virus è riuscito a rubare numeri di previdenza sociale e dettagli di carte di credito. Virus come questi evidenziano la necessità di maggiore ricerca, test e regolamentazione quando si tratta di implementare applicazioni di intelligenza artificiale generativa.
I ricercatori hanno rapidamente avvisato dei loro risultati sia OpenAI che Google. Google si è rifiutata di fornire una risposta, ma un portavoce per conto di OpenAI ha affermato che stanno lavorando per rendere i loro sistemi più sicuri e che gli sviluppatori dovrebbero utilizzare metodi per verificare che non stiano lavorando con input dannosi.
Quando giunge il momento di acquistare un nuovo telefono il dubbio che sorge è sempre…
Nell'era digitale, la gestione delle date rappresenta una sfida complessa per i sistemi informatici, specialmente…
Se c'è una cosa che accomuna tutti i lavoratori d'ufficio è l'utilizzo del programma Microsoft…
L'era digitale ha trasformato il modo in cui comunichiamo, specialmente con l'avvento della pandemia da…
Gestire lo spazio sul disco del PC può sembrare un'impresa ardua, specialmente in un'era dove…
I Chrome Flags rappresentano una caratteristica poco conosciuta ma estremamente potente del popolare browser Google…