Maggio 29, 2023

NbaRevolution

Covid crisi politica in Italia

ChatGPT riprende il servizio in Italia dopo aver aggiunto informative e controlli sulla privacy

Pochi giorni dopo OpenAI Annunciata una serie di controlli sulla privacy Per quanto riguarda il suo chatbot AI generativo, ChatGPT, il servizio è stato reso nuovamente disponibile agli utenti in Italia, risolvendo (per ora) un blocco normativo anticipato in uno dei 27 Stati membri dell’UE, anche come indagine locale sulla sua conformità con i dati continua a imperversare la normativa sulla tutela Regione.

Al momento della stesura di questo documento, gli utenti Web che navigano su ChatGPT da un indirizzo IP italiano non vengono più accolti con una notifica che informa che il servizio è “Disabilitato per gli utenti in Italia”. Invece, sono stati accolti con una nota in cui si diceva che OpenAI era “felice di riprendere a offrire ChatGPT in Italia”.

Il pop-up continua a dichiarare che gli utenti devono confermare la loro età superiore a 18 o 13+ con il consenso dei genitori o del tutore per utilizzare il servizio, facendo clic su un pulsante che indica “Soddisfo i requisiti di età di OpenAI”.

Il testo dell’avviso richiama inoltre l’attenzione sulla politica sulla privacy di OpenAI e si collega a un articolo del Centro assistenza in cui la società afferma di fornire informazioni su “come sviluppare e addestrare ChatGPT”.

Le modifiche al modo in cui OpenAI offre ChatGPT agli utenti in Italia hanno lo scopo di soddisfare una serie iniziale di condizioni stabilite dall’autorità locale per la protezione dei dati (DPA) affinché il servizio riprenda durante la gestione dei rischi normativi.

Un breve riassunto dei retroscena qui: alla fine del mese scorsoIl Garante, Italia, ha ordinato una sospensione temporanea dell’elaborazione su ChatGPT, affermando di essere preoccupato che i servizi violassero le leggi sulla protezione dei dati dell’UE. Ha inoltre avviato un’indagine su sospette violazioni del regolamento generale sulla protezione dei dati (GDPR).

OpenAI ha risposto rapidamente all’intervento bloccando geograficamente gli utenti con indirizzi IP italiani all’inizio Questo mese.

Questa mossa è stata seguita, due settimane dopo, da Garantire l’emissione di un elenco di azioni Ha affermato che OpenAI deve implementare affinché l’ordine di sospensione venga revocato entro la fine di aprile, inclusa l’aggiunta di un limite di età per impedire ai minori di accedere al servizio e la modifica della base legale dichiarata per l’elaborazione dei dati degli utenti domestici.

Il regolatore ha affrontato alcune critiche politiche in Italia e altrove in Europa per l’intervento. Benché Non è l’unica autorità per la protezione dei dati a sollevare preoccupazioni E all’inizio di questo mese, gli organizzatori del cluster hanno concordato di lanciare una task force incentrata su ChatGPT con l’obiettivo di supportare le indagini e collaborare a qualsiasi azione di contrasto.

READ  Gaumont si avventura in Italia con il veterano del settore Marco Rossi e un elenco di spettacoli basati sui talenti (esclusivo)

In comunicato stampa Rilasciato oggi per annunciare la ripresa del servizio in Italia, il Garante ha dichiarato che OpenAI gli ha inviato una lettera in cui descrive in dettaglio le misure implementate in risposta alla precedente richiesta – e ha scritto: “OpenAI ha indicato di aver esteso le informazioni agli utenti europei e non, e che ha modificato e chiarito diversi meccanismi e pubblicato soluzioni scalabili”. Per consentire a utenti e non utenti di esercitare i propri diritti. Sulla base di questi miglioramenti, OpenAI ha ripristinato l’accesso a ChatGPT per gli utenti italiani.”

Espandendo i passi che OpenAI ha intrapreso in modo più dettagliato, il DPA afferma che OpenAI ha ampliato la sua politica sulla privacy e ha fornito a utenti e non utenti maggiori informazioni sui dati personali che vengono elaborati per addestrare i suoi algoritmi, inclusa la stipula che tutti hanno il diritto di rinunciare a tale trattamento – Il che suggerisce che la società ora fa affidamento su una rivendicazione di interessi legittimi come base giuridica per il trattamento dei dati per addestrare i suoi algoritmi (poiché tale base richiede che fornisca un rifiuto esplicito).

Inoltre, il Garante rivela che OpenAI ha provveduto a fornire agli europei un modo per chiedere che i loro dati non vengano utilizzati per addestrare l’IA (le richieste possono essere fatte tramite un modulo online) — e per fornire loro “meccanismi ” per cancellare i propri dati.

Il regolatore ha anche informato che non è in grado di correggere il difetto dei chatbot creando false informazioni sulle persone menzionate a questo punto. Da qui l’introduzione di “meccanismi che consentano agli interessati di cancellare informazioni ritenute inesatte”.

Gli utenti europei che desiderano rinunciare al trattamento dei propri dati personali per addestrare la propria IA possono farlo anche attraverso un modulo messo a disposizione da OpenAI che, secondo il DPA, “filtrerà così le loro conversazioni e la cronologia delle chat dai dati utilizzati per addestrare gli algoritmi”.

Quindi l’intervento del DPA italiano ha portato ad alcuni notevoli cambiamenti nel livello di controllo che ChatGPT offre agli europei.

READ  Alan Carr e Amanda Holden parlano di ristrutturare una casa italiana alla BBC

Tuttavia, non è ancora chiaro se le modifiche che OpenAI si è affrettata ad implementare (o possano) andare abbastanza lontano per risolvere tutte le preoccupazioni sollevate dal GDPR.

Ad esempio, non è chiaro se storicamente i dati personali degli italiani che sono stati utilizzati per addestrare il suo modello GPT, cioè quando ha rimosso i dati pubblici da Internet, siano stati elaborati su una base giuridica valida – o se i dati utilizzati per la formazione verranno eliminati i moduli in precedenza o possono essere eliminati se gli utenti richiedono la cancellazione dei propri dati ora.

La grande domanda rimane quale base giuridica avesse OpenAI per elaborare le informazioni delle persone in primo luogo, quando la società non era molto aperta su quali dati stesse utilizzando.

La società statunitense sembra sperare di limitare le obiezioni sollevate su ciò che fa con le informazioni degli europei fornendo alcuni controlli ora limitati, applicati ai nuovi dati personali in arrivo, nella speranza che ciò possa confondere la questione più ampia di tutti i dati personali regionali. L’elaborazione viene eseguita storicamente.

Alla domanda sui cambiamenti che sono stati implementati, un portavoce di OpenAI ha inviato a TechCrunch questa breve dichiarazione:

ChatGPT è di nuovo disponibile per i nostri utenti in Italia. Siamo entusiasti di accoglierli di nuovo e rimaniamo impegnati a proteggere la loro privacy. Abbiamo affrontato o chiarito i problemi sollevati dalla garanzia, tra cui:

Apprezziamo il Garante per la sua collaborazione e non vediamo l’ora di proseguire le discussioni costruttive.

Nell’articolo dell’Help Center, OpenAI ammette di aver elaborato i dati personali per la formazione su ChatGPT, mentre cercava di affermare che non aveva realmente intenzione di farlo, ma le cose erano là fuori su Internet – o come dice: “Una grande quantità di dati su Internet si riferisce alle persone, quindi le nostre informazioni sul coaching includono incidentalmente informazioni personali. Non cerchiamo attivamente informazioni personali per addestrare i nostri modelli”.

È un bel tentativo di eludere il requisito GDPR secondo cui ha una base legale valida per l’elaborazione di tali dati personali che capita di trovare.

OpenAI espande ulteriormente la sua difesa in una sezione (positivamente) intitolata “In che modo lo sviluppo di ChatGPT è conforme alle leggi sulla privacy?” – in cui si suggerisce che abbia utilizzato legalmente i dati delle persone perché a) intendeva che il chatbot fosse utile; b) non aveva scelta perché erano necessari così tanti dati per costruire la tecnologia AI; c) Afferma che non intende influenzare negativamente gli individui.

READ  I Long Doggers celebrano il loro anniversario al Beachside Bash in Indialantic

“Per questi motivi, basiamo la nostra raccolta e utilizzo delle informazioni personali incluse nelle informazioni di formazione su interessi legittimi in conformità con le leggi sulla privacy come il GDPR”, scrive anche, aggiungendo: “Per soddisfare i nostri obblighi di conformità, abbiamo anche completato un data valutazione dell’impatto sulla protezione per garantire che raccogliamo e utilizziamo queste informazioni in modo legale e responsabile.

Quindi, ancora una volta, la difesa di OpenAI nei confronti dell’accusa di violazione della legge sulla protezione dei dati si riduce sostanzialmente a: “Ma non intendevamo niente di male, agente!”

La sua didascalia fornisce anche del testo in grassetto per sottolineare l’affermazione che non utilizza questi dati per creare profili su individui; chiamarli o fare pubblicità a loro; o cercando di vendergli qualcosa. Nessuno di loro ha nulla a che fare con la questione se le loro attività di trattamento dei dati violassero o meno il regolamento generale sulla protezione dei dati.

Il Dipartimento per gli affari politici italiano ci ha assicurato che la sua indagine su questo caso di alto profilo è ancora in corso.

Nel suo aggiornamento, il Garante rileva inoltre che si aspetta che OpenAI soddisfi le richieste aggiuntive stabilite nell’ordinanza dell’11 aprile, rilevando il suo obbligo di implementare un sistema di verifica dell’età (per impedire in modo più efficace ai minori di accedere al servizio); e condurre una campagna informativa locale per informare gli italiani su come i loro dati vengono trattati e il loro diritto di rinunciare al trattamento dei propri dati personali per addestrare i suoi algoritmi.

La società italiana SA [supervisory authority] Riconosce i passi avanti che OpenAI ha compiuto per conciliare gli sviluppi tecnologici rispetto al rispetto dei diritti delle persone e spera che l’azienda continui i suoi sforzi per conformarsi alla legislazione europea sulla protezione dei dati”, aggiunge, prima di sottolineare che questo è solo il primo passaggio in questa danza regolamentare.

Ergo, tutte le varie affermazioni di OpenAI sulla buona fede al 100% devono ancora essere messe alla prova.