Allucinazioni IA, abbiamo sempre definito così gli errori dell’intelligenza artificiale. Tuttavia, un recente studio dimostra che sbagliamo.
Le Intelligenze Artificiali, oggi, sono diventate un elemento molto diffuso nella nostra vita quotidiana. Le tecniche di machine learning con cui compaiono delle pubblicità adatte a noi quando scrolliamo sui social, furono un primo approccio a questo mondo.
Oggi ci affidiamo all’AI per creare delle immagini, per migliorare l’audio dei nostri podcast, per scrivere dei testi o dei piani editoriali. In alcuni casi gli chiediamo anche di realizzare per noi dei programmi di allenamento per migliorare la forma fisica. Eppure sappiamo benissimo che anche le intelligenze artificiali sbagliano e danno vita a quelle che vengono chiamate comunemente “allucinazioni”. Un recente studio però ha sottolineato come l’utilizzo di questo termine sia completamente fuorviante per ciò che viene utilizzato e che, soprattutto, potrebbe indurre noi in errore.
Intelligenza Artificiale e allucinazioni? Non dobbiamo parlarne più in questi termini
Alcuni docenti dell’università UC Berkeley e dell’Università di Washington hanno parlato di come anche i termini che utilizziamo per descrivere le intelligenze artificiali possano influenzare il modo in cui le percepiamo e ci viviamo.
L’esempio che fanno subito riguarda il falso senso di sicurezza che si è provato in prima battuta quando sono state commercializzate le auto con la guida assistita. Tutti pensavano che quella tipologia di automobile potesse guidare completamente da sola. E invece non era affatto così!
Per questo, parlare di allucinazioni delle IA rischia di dare un aspetto troppo umano a qualcosa che non lo è, distorcendone la nostra percezione. Potrebbe, secondo i ricercatori, dare un potere a programmi come ChatGPT troppo elevato facendo credere alle persone di possedere delle caratteristiche esagerate.
Ma non solo. Altro problema legato all’utilizzo del concetto di allucinazioni per le IA riguarda il fatto che descrivendole così si vada a minimizzare la gravità del problema, facendo credere che le risposte errate siano un fenomeno casuale e inevitabile. Proprio come succede a noi esseri umani con le allucinazioni quando non siamo in salute.
Instillare questa credenza leva l’attenzione da un punto fondamentale, ossia quello di responsabilizzare chi produce programmi di IA nei confronti dei loro difetti. Secondo i ricercatori quindi d’ora in poi non dobbiamo usare il termine “allucinazioni”, ma “errori” per aumentare la responsabilità dei produttori e per dare al pubblico la giusta prospettiva con cui guardare all’IA.