Google allerta gli utenti del rischio privacy: “Non fornitele agli utenti”

Google con Gemini vuole dare a tutti una IA con cui chiacchierare ma già avverte dei potenziali rischi per la privacy: cosa non fare mai.

Le intelligenze artificiali stanno entrando nella vita quotidiana attraverso i servizi online e le funzioni specifiche degli smartphone. Ma ovviamente portano con sé una serie di dubbi, nuovi rischi e la necessità di alcune regole e di alcuni paletti.

il problema della privacy con gemini
Gemini non ha privacy e neanche i tuoi dati – computer-idea.it

Regole e paletti che da una parte devono essere quelli di chi le intelligenze artificiali le sviluppa ma dall’altra parte c’è bisogno di altrettante regole e di altri paletti nel momento in cui una IA viene utilizzata.

A tal proposito Google, invitando tutti gli utenti a provare Gemini (il servizio in cui è stato fatto confluire anche il chatbot Bard) ha da subito chiarito alcune cose che sarebbe meglio evitare di inserire nelle conversazioni con la sua intelligenza artificiale. Il motivo è però non tecnologico ma tutto umano. Vediamo allora che cosa non fare mai quando si parla con Gemini.

C’è una frase in grassetto scritta da Google per Gemini che dovresti leggere

Se nel corso degli ultimi due mesi ti è capitato di provare il servizio di Bard, il chatbot con intelligenza artificiale di Google, e sei molto di recente tornato a chiacchierare con lui ti sarai accorto che ora Bard non risponde più a questo nome ma è diventato Gemini.

perchè non devi dire tutto a geminiGemini di Google ti ascolta. Fin troppo – computer-idea.it
Il progetto Gemini di Google è estremamente più ambizioso di un semplice chatbot con intelligenza artificiale ma è chiaro che il servizio di conversazione è il punto di ingresso per la maggior parte degli utenti. A Gemini è possibile chiedere qualunque cosa dato che, per esempio a differenza di ChatGPT, anche nella versione base può esplorare la rete in tempo reale e fornire risposte circostanziate.

Non sempre si tratta di risposte corrette, e se gli viene fatto notare Gemini si scusa anche se poi difficilmente cambia rotta, possono risultare utili per esempio come spunti di partenza per altro lavoro. Eppure, secondo Google, ci sono proprio alcune cose di cui è meglio non parlare con la sua intelligenza artificiale.

E per sottolineare quanto sia importante sapere questa cosa, nella pagina che sul blog ufficiale accompagna le istruzioni per utilizzare Gemini, c’è scritto in grassetto che è bene non condividere con l’intelligenza artificiale informazioni delicate, private e dati sensibili. Perché? Non si tratta di proteggere gli utenti da un eventuale rischio di hackeraggio dell’intelligenza artificiale.

La questione è molto più umana. Per poter migliorare le risposte che Gemini fornisce sono infatti stati coinvolti dei revisori delle conversazioni. Esseri umani che come mestiere devono leggere le domande fatte a Gemini e le risposte che l’intelligenza artificiale ha dato. Per cercare di capire come può essere ancora più efficiente.

Questo significa che, in caso di conversazione personale, qualunque cosa può finire letta da questi revisori con i conseguenti i rischi che si possono facilmente immaginare. Con il senno di poi forse non ci sarebbe stato neanche bisogno che Google ci dicesse che con Gemini certi argomenti è meglio non trattarli ma evidentemente c’è già chi ha iniziato col piede sbagliato.

Gestione cookie