Brusco stop per le intelligenze artificiali in Italia. O almeno per quanto riguarda la più famosa: ChatGpt. L’Autorità Garante per la protezione dei dati personali, infatti, ha disposto lo stop con effetto immediato al trattamento dei dati da parte di OpenAI, la società che gestisce la piattaforma.
Secondo il Garante da parte dell’intelligenza artificiale c’è stata una raccolta illecita di dati personali un’assenza di sistemi per la verifica dell’età dei minori. Per questo motivo, come riportato nel comunicato che spiega le motivazioni dello stop, la stessa Autorità ha aperto un’istruttoria.
ChatGpt, di cosa si tratta e lo stop del Garante
Quando parliamo di ChatGpt ci riferiamo a uno dei software di intelligenza artificiale relazionale sviluppato dalla società Usa, OpenAI. La particolarità del suo prodotto di punta è quella di riuscire a sviluppare ed elaborare conversazioni quasi alla pari, se non allo stesso livello, di un essere umano.
Tuttavia, negli ultimi tempi si sono verificati degli avvenimenti che hanno portato a uno stop, quantomeno temporale, da parte del Garante. La stessa Autorità, ricorda in un comunicato come la piattaforma «lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento».
Un’altra problematica riscontrata dal Garante e riportata nelle motivazioni dello stop riguarda «la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma».
La tutela dei minori
Inoltre, prosegue il Garante, in base alle verifiche effettuate «le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto». Un esempio riguarda la tutela dei minori in quanto «nonostante il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza».
In ultimo, il Garante ha ricordato che «OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4 per cento del fatturato globale annuo».
LEGGI ANCHE: IA, dai film alla realtà: gli ambiti applicativi e il futuro
Il messaggio degli sviluppatori
Intanto, in attesa che la società che gestisce la piattaforma si adoperi per rispondere alle richieste dell’Autorità garante, gli utenti italiani dovranno fare a meno di utilizzare ChatGpt per qualche tempo. Infatti, chi si recasse sul sito di OpenAi troverebbe questo avviso: «Gentile cliente di ChatGpt, siamo spiacenti di informarti che abbiamo disabilitato ChatGPT per gli utenti in Italia su richiesta del Garante italiano. Stiamo emettendo rimborsi a tutti gli utenti in Italia che hanno acquistato un abbonamento ChatGPT Plus a marzo. Stiamo anche sospendendo temporaneamente i rinnovi degli abbonamenti in Italia in modo che non vengano addebitati agli utenti mentre ChatGpt è sospeso».
Gli sviluppatori hanno anche inviato una prima risposta in merito alle accuse mosse all’IA. «Ci impegniamo a proteggere la privacy delle persone – si legge nel comunicato – e crediamo di offrire ChatGpt in conformità con il GDPR e le altre leggi sulla privacy. Ci metteremo in contatto con il Garante con l’obiettivo di ripristinare il tuo accesso il prima possibile». Inoltre, è presente una sezione dedicata alle domande più frequenti relative alla piattaforma e alle procedure di rimborso.

Necessario un dibattito ampio sulle intelligenze artificiali
In attesa di conoscere gli sviluppi del caso, c’è chi ricorda come questa questione sollevi un problema di cui si parlerà ancora molto in futuro, ossia la regolamentazione delle nuove tecnologie a cominciare dalle intelligenze artificiali. Come spiega Francesco Di Costanzo, presidente Fondazione Italia digitale, «in merito alla misura presa in Italia, pensiamo sia giusto verificare e fare tutti i controlli a garanzia della sicurezza dei dati delle persone, garantire la tranquillità dei cittadini è fondamentale, ma lo è anche affrontare la rivoluzione con la giusta conoscenza e uno sforzo importante dal punto di vista culturale».
Infine, il presidente della Fondazione Italia digitale conclude ricordando che insieme alla tutela dei cittadini è necessario un dibattito ampio «in grado di aiutare le autorità preposte a maturare decisioni adeguate ai tempi, magari anticipandoli».
Articolo aggiornato in data 3 Aprile 2023
© Riproduzione riservata