Back

Chat GPT vs Garante della Privacy: cosa sta succedendo?

Brutte notizie per Chat GPT, il famoso chatbot basato su intelligenza artificiale e apprendimento automatico specializzato nella conversazione con utenti umani. 

Il Garante della Privacy italiano ha pubblicato un comunicato ufficiale in cui rende noto l’avvio di un’istruttoria nei confronti di OpenAI, organizzazione statunitense che ha sviluppato e gestisce il software.

I motivi del blocco di Chat GPT

L’Autorità italiana per la protezione dei dati personali ha reso noto l’avvio di un’istruttoria nei confronti di OpenAI. Il provvedimento è dovuto a una presunta raccolta dati illecita degli utenti italiani. 

Secondo quanto riportato sul sito del Garante della Privacy, lunedì 20 marzo Chat GPT avrebbe subito un data breach, ovvero una perdita di dati degli utenti. La fuga di informazioni ha mostrato la cronologia delle conversazioni avute dagli utenti con il noto chatbot, oltre ad aver reso pubblici i metodi di pagamento di Chat GPT Plus, servizio a pagamento che offre una serie di funzionalità aggiuntive. 

A seguito del Data breach subito da Chat GPT, il Garante della Privacy ha avviato un’istruttoria nei confronti di OpenAI riguardante l’assenza di una nota informativa che informi gli utenti della raccolta dati durante l’utilizzo del chatbot. 

L’Autorità, inoltre, ha comunicato che nonostante il servizio sia rivolto ai maggiori di 13 anni non presenti alcun filtro per la verifica dell’età rischiando di esporre minori a risposte e contenuti non idonei al loro grado di consapevolezza. 

E adesso?

Il Garante della Privacy Italiano ha dichiarato che OpenAI dovrà comunicare entro 20 giorni le misure intraprese per rispondere in maniera tempestiva a quanto richiesto. Se questo non dovesse accadere l’organizzazione statunitense dovrà pagare una sanzione pari a 20 milioni di euro o fino al 4% del fatturato globale annuo. 

in attesa di una decisione di OpenAI il Garante ha disposto la limitazione provvisoria del trattamento dei dati degli utenti italiani da parte dell’organizzazione. 

I limiti dell’intelligenza artificiale

In passato abbiamo già avuto occasione di parlare dei limiti dell’intelligenza artificiale e più in generale di strumenti come Chat GPT.

Ad esempio Chat GPT non essendo collegato a internet ma attingendo le informazioni da un ampio database fisso espone gli utenti a un elevato rischio di disinformazione e fake news, o di non essere in grado di rispondere in maniera esaustiva a determinate query. 

L’istruttoria avviata dal Garante della Privacy evidenzia un ulteriore limite, cioè che strumenti come Chat GPT non agiscono in un terreno privo di leggi e istituzioni, ma come aziende e persone devono attenersi a determinati criteri volti a tutelare utenti e consumatori. 

I limiti di questi strumenti, ovviamente, non ne intaccano il potenziale che resta indubbiamente interessante. Confermano, invece, quanto si tratti di tool interessanti che possono velocizzare determinate mansioni ma non sostituirle del tutto. 

Affidare determinate mansioni esclusivamente a software di intelligenza artificiale espone un’azienda a rischi non indifferenti. Tool come Chat GPT richiedono un utilizzo consapevole da parte di professionisti che siano, tra le altre cose, in grado di filtrare, editare e selezionare le informazioni fornite. 

Siamo curiosi di scoprire quali saranno le evoluzioni di questa storia e di come le intelligenze artificiali riusciranno a integrarsi sempre di più nella nostra società.