Google ci ha dato una grande novità con cui giocare ma qualcosa ancora non funziona e la situazione anzi sembra peggiorare.
Google è al centro di moltissimi esami in questo momento. Soprattutto perché ha iniziato la diffusione del suo nuovo e rivoluzionario servizio destinato agli utenti. Ma, dopo la figuraccia fatta nel momento del rilascio, che aveva portato ad alcune dichiarazioni piuttosto particolari nei toni da parte dei rappresentanti della società, c’era stata anche la promessa che il servizio stesse migliorando.
Nel momento in cui le AI Overviews sono esplose come novità per gli utenti che si trovano negli Stati Uniti, tutti ovviamente hanno cominciato a sperimentarle nei modi più strani. Soprattutto per vedere di che cosa erano capaci.
È diventato per questo virale uno scambio tra essere umano e cervello digitale per rispondere a una domanda che, per quanto buffa, può essere plausibile: come si fa a non far cadere il formaggio dalla pizza con il pomodoro? La solerte intelligenza artificiale aveva raccomandato tra le cose da provare quella di aggiungere colla atossica alla salsa di pomodoro.
L’intelligenza artificiale di Google continua a non capire
E la risposta era diventata argomento di analisi in tutto il mondo. Oltre alla colla ci sono state raccomandazioni di ingerire piccole pietre e altri comportamenti tutt’altro che salutari. In quella occasione Google aveva ammesso che forse qualcosa non andava ma semplicemente perché l’intelligenza artificiale non aveva materiale a sufficienza per elaborare una risposta completa.
Oltre a prendersela con le domande folli fatte dagli utenti, la società aveva però deciso di diminuire il numero delle ricerche che innescano una AI Overview. E nonostante questo raffinamento e questa riduzione un ex impiegato di Google, Colin McMillen, è riuscito nell’intento di far sbagliare un’altra volta l’intelligenza artificiale. Lo screenshot è stato pubblicato su Bluesky e si leggono perfettamente la query e la AI Overview.
Una AI Overview che continua a raccomandare un po’ di colla nelle pizza. Ma se il primo errore era stato dato dal fatto che l’intelligenza artificiale non era stata capace di discernere l’ironia, stavolta il problema viene dal fatto che a parlare di colla sul cibo era stata Katy Notopoulos di Business Insider in un articolo in cui raccontava esattamente quello che era successo.
C’è quindi ancora un problema di impossibilità per la IA di riconoscere il contesto in cui si trovano le informazioni che, per mera probabilità, ricalcano quelle richieste dall’utente. La riduzione del numero delle volte in cui una AI Overview viene richiamata non sembra essere l’approccio corretto. L’intelligenza artificiale continua a non capirci nulla.