Intelligenza artificialePrimi chiarimenti forniti da Open AI al Garante privacy dopo il blocco di Chat GPT

6 Aprile 2023
https://studioiadecola.it/wp-content/uploads/2023/04/1.jpg
ASCOLTA ARTICOLO

Articolo pubblicato su altalex.

Dopo la limitazione provvisoria del trattamento imposta dal Garante privacy dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce ChatGPT ha incontrato l’Autorità italiana ed ha fornito i primi chiarimenti.

Premessa

Dopo il provvedimento del 30 marzo us del quale ci siamo occupati in questo articolo, l’Autorità indipendente italiana, aveva intimato, in via d’urgenza, alla società statunitense che sviluppa e gestisce ChatGPT, in qualità di titolare del trattamento dei dati personali, la misura della limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano.

Le motivazioni erano sinteticamente ravvisabili: nella mancanza di una informativa sul trattamento dei dati ai sensi dell’art. 13 del Regolamento europeo 679/2016 (gdpr), evidenziando anche l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT; nell’inesattezza del trattamento di dati personali degli interessati in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale; nell’assenza di qualsivoglia verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni. Sul punto, in particolare, ha rilevato che l’assenza di filtri per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi.

Il contenuto dell’incontro.

A seguito dell’incontro tra i vertici di OpenAI e il Collegio del Garante, svoltosi in videoconferenza, all’indomani della notifica del provvedimento di cui sopra, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, l’Azienda statunitense ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGpt. L’Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante quanto prima un documento che indichi le misure che rispondano alle richieste dell’Autorità. Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.

L’approccio alla sicurezza di OpenAI

Con un articolo del 5 aprile apparso sul sito web della società americana, da parte sua, ha ribadito l’impegno a  mantenere l’intelligenza artificiale sicura e vantaggiosa.

“I nostri utenti in tutto il mondo ci hanno detto che ChatGPT aiuta ad aumentare la loro produttività, migliorare la loro creatività e offrire esperienze di apprendimento su misura. L’Azienda riconosce anche che, come qualsiasi tecnologia, questi strumenti comportano rischi reali, quindi lavora per garantire che la sicurezza sia integrata nel sistema a tutti i livelli. Ad esempio, dopo che il nostro ultimo modello, GPT-4, ha terminato la formazione, abbiamo trascorso più di 6 mesi a lavorare in tutta l’organizzazione per renderlo più sicuro e più allineato prima di rilasciarlo pubblicamente.

“Ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere. Lavoriamo duramente per prevenire i rischi prevedibili prima della distribuzione, tuttavia, c’è un limite a ciò che possiamo imparare in un laboratorio. Nonostante ricerche e test approfonditi, non possiamo prevedere tutti i modi vantaggiosi in cui le persone utilizzeranno la nostra tecnologia, né tutti i modi in cui ne abuseranno. Ecco perché crediamo che l’apprendimento dall’uso nel mondo reale sia una componente fondamentale per la creazione e il rilascio di sistemi di intelligenza artificiale sempre più sicuri nel tempo”.

“Uno degli obiettivi fondamentali dei nostri sforzi per la sicurezza è la protezione dei bambini. Richiediamo che le persone abbiano almeno 18 anni o almeno 13 anni con l’approvazione dei genitori per utilizzare i nostri strumenti di intelligenza artificiale e stanno esaminando le opzioni di verifica. Non permettiamo che la nostra tecnologia venga utilizzata per generare contenuti che incitano all’odio, molestie, violenti o per adulti, tra le altre categorie. Il nostro ultimo modello, GPT-4, ha l’82% in meno di probabilità di rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e abbiamo istituito un solido sistema per monitorare gli abusi. Abbiamo compiuto sforzi significativi per ridurre al minimo il potenziale per i nostri modelli di generare contenuti che danneggiano i bambini. Ad esempio, quando gli utenti tentano di caricare materiale pedopornografico nei nostri strumenti di immagini, lo blocchiamo e lo segnaliamo al National Center for Missing and Exploited Children”.

Per quanto concerne il rispetto della privacy, in particolare, Openai rende noto che non utilizzano i dati per vendere servizi, pubblicità o creare profili di utenti, ma per rendere il sistema più utile per le persone. Sono stati presi accorgimenti tecnici per rimuovere le informazioni personali dal set di dati di addestramento, per perfezionare i modelli allo scopo di rifiutare le richieste di informazioni personali dei privati e rispondere efficacemente alle richieste degli individui di eliminare le loro informazioni personali dai nostri sistemi. Questi passaggi riducono al minimo la possibilità che i modelli in uso possano generare risposte che includono informazioni personali di privati.

Conclude l’Azienda riconoscendo che c’è ancora molto lavoro da fare per ridurre ulteriormente la probabilità di errore e per educare il pubblico sugli attuali limiti di questi strumenti di intelligenza artificiale.

Conclusioni

Da questo primo incontro preliminare e dall’articolo apparso sul sito appare evidente l’interesse di OpenAI di fugare quanto più possibile i dubbi su come il più noto tra i software di intelligenza artificiale tratti i dati personali degli utenti. Del resto le condivisibili perplessità avanzate dal Garante privacy italiano, presto potrebbero essere fatte proprie anche dalle altre autorità europee e non. OpenAI gioca una partita molto importante la cui posta in palio è la credibilità di ChatGPT 4. Si attende ora il documento che la società si è impegnata a trasmettere al Garante privacy che indichi nel dettaglio quali misure intende mettere in campo per rispondere alle richieste dell’Autorità.

https://studioiadecola.it/wp-content/uploads/2021/01/studio-legale-avvocato-iadecola-web-chiaro.png
Viale Bovio n. 161 - 64100 Teramo
348.54.44.842
PI. 01819860675
Follow on LinkedIn

Copyright © Studio Iadecola

Geminit Web Marketing