L’evoluzione dell’intelligenza artificiale ha raggiunto un altro traguardo, uno che potrebbe preoccupare molti utenti.
Negli ultimi mesi l’evoluzione dell’Intelligenza Artificiale ha destato molte preoccupazioni per il futuro dell’umanità. Tra le principali, c’è la paura che sostituirà interi settori del mondo del lavoro e che guiderà processi decisionali che finora erano invece esclusivo appannaggio degli esseri umani. Purtroppo, ci sono delle minacce ben più immediate di queste: l’IA viene infatti già utilizzata in molti settori dell’informatica, anche dagli hacker.
Uno studio recente condotto da ricercatori britannici ha rivelato ad esempio che esistono dei software dotati di Intelligenza Artificiale che riescono a decifrare ciò che stiamo digitando semplicemente ascoltando il suono dei nostri tasti. Si tratta di qualcosa di potenzialmente molto pericoloso, ma prima di cedere al panico, è importante comprendere il funzionamento di questo modello e valutare realisticamente quali sono i rischi.
Potremmo doverci preoccupare anche di quello che ascolta l’IA
Utilizzando un modello di deep learning, un team di ricercatori britannici della Cornell University è riuscito a insegnare a un software a riconoscere il rumore dei tasti premuti su una tastiera. Premendo i tasti di un moderno MacBook Pro 25 volte ciascuno e registrando i suoni prodotti, i ricercatori hanno ottenuto un set di dati che hanno poi usato per addestrare l’IA, insegnandole a riconoscere le differenze di suono tra un tasto e l’altro.
“Se ottieni abbastanza dati, un modello può essere costruito piuttosto facilmente“, ha detto Oli Buckley, professore di sicurezza informatica all’Università dell’East Anglia, alla BBC Science Focus. Il potenziale rischio è abbastanza chiaro: se si utilizzasse un simile strumento vicino a qualcuno intento a digitare sul proprio PC, si potrebbero decifrare tutte le cose che quella persona scrive, comprese le password.
Anche se tutto ciò sembra uscito direttamente da un film distopico, potrebbero esserci delle ragioni per cui non è così preoccupante come sembra. Il motivo principale, come già spiegato, è che un’IA ha bisogno sempre e comunque di dati di addestramento. E per conoscere le modalità di digitazione di una persona, dovrebbe avere accesso a un set di dati sulle abitudini di digitazione di quella specifica persona.
L’unico modo sarebbe quello di hackerare il computer o lo smartphone e accedere al microfono dell’utente per catturare dati con cui addestrare il modello. Ma è sufficiente che ci sia un po’ di rumore in sottofondo, come musica o chiacchiere, e tutto ciò diventa molto più difficile.
Un altro problema riguarda ad esempio il caso del tasto “Shift”, che viene utilizzato principalmente per capitalizzare lettere o usare simboli. In questi casi, sarebbe molto difficile per il software capire quando l’utente utilizza la combinazione di tasti.
Insomma, questo nuovo risvolto dell’IA è significativo perché dimostra ancora una volta il potenziale di questi strumenti, ma come afferma anche il professor Buckley per il momento tutto questo non dovrebbe diventare un problema su larga scala.