Maggio 29, 2023

NbaRevolution

Covid crisi politica in Italia

L’Italia blocca temporaneamente ChatGPT per motivi di privacy

L’autorità italiana per la protezione dei dati ha affermato che sta intraprendendo un’azione temporanea “fino a quando ChatGPT non rispetterà la privacy”, inclusa la limitazione temporanea dell’azienda dal trattamento dei dati degli utenti italiani.

OpenAI, con sede negli Stati Uniti, che ha sviluppato il chatbot, ha dichiarato venerdì sera tardi di aver disabilitato ChatGPT per gli utenti italiani su richiesta del governo. La società ha affermato di ritenere che le sue pratiche siano conformi alle leggi europee sulla privacy e spera di rendere presto disponibile ChatGPT.

La restrizione riguarda la versione web di ChatGPT, che viene comunemente utilizzata come assistente alla scrittura, ma è improbabile che influisca sulle applicazioni software di aziende che dispongono già di licenze con OpenAI per utilizzare la stessa tecnologia che guida il chatbot, come il motore di ricerca Bing di Microsoft.

I sistemi di intelligenza artificiale che gestiscono questi chatbot, noti come modelli di linguaggio di grandi dimensioni, sono in grado di simulare stili di scrittura umani basati sull’enorme quantità di libri digitali e scritti online che hanno ingerito.

READ  Intesa Sanpaolo: il Piano Industriale 2022-2025 vede l'utile salire a 6,5 ​​miliardi di euro

Il watchdog italiano ha affermato che OpenAI deve riferire entro 20 giorni sulle misure adottate per garantire la privacy dei dati degli utenti o affrontare una multa fino a 20 milioni di euro (quasi 22 milioni di dollari) o il 4% delle entrate globali annuali.

La dichiarazione dell’agenzia cita il regolamento generale sulla protezione dei dati dell’UE e indica una recente violazione dei dati che coinvolge le “conversazioni degli utenti” di ChatGPT e le informazioni sui pagamenti degli abbonati.

OpenAI aveva precedentemente annunciato di dover disattivare ChatGPT il 20 marzo per correggere un bug che consentiva ad alcune persone di vedere i titoli o le righe dell’oggetto della cronologia chat di altri utenti.

“La nostra indagine ha anche rilevato che l’1,2% degli utenti di ChatGPT Plus potrebbe aver avuto dati personali divulgati a un altro utente”, ha affermato la società. “Riteniamo che il numero di utenti i cui dati sono già stati divulgati a qualcun altro sia molto basso e abbiamo contattato coloro che potrebbero essere interessati”.

Il garante della privacy italiano, noto come Garante, ha anche messo in dubbio che OpenAI avesse una giustificazione legale per la sua “massiccia raccolta ed elaborazione di dati personali” utilizzata per addestrare gli algoritmi della piattaforma. Ha detto che ChatGPT a volte può generare – e archiviare – false informazioni sugli individui.

Infine, sottolinea la mancanza di un sistema di verifica dell’età degli utenti, che espone i bambini a risposte “del tutto inadeguate alla loro età e alla loro coscienza”.

OpenAI ha affermato in risposta che sta lavorando per “ridurre al minimo i dati personali nell’addestrare i nostri sistemi di intelligenza artificiale come ChatGPT perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non gli individui”.

READ  Il rapporto ha rilevato che Lidl aveva investito 1 miliardo di euro nell'industria agroalimentare irlandese

“Riteniamo inoltre che la regolamentazione dell’IA sia essenziale, quindi non vediamo l’ora di lavorare a stretto contatto con Garante e istruirli su come i nostri sistemi sono costruiti e utilizzati”, ha affermato la società.

La mossa del cane da guardia italiano arriva mentre cresce la preoccupazione per un boom dell’intelligenza artificiale. Un gruppo di scienziati e leader del settore tecnologico ha pubblicato mercoledì una lettera invitando aziende come OpenAI a sospendere lo sviluppo di modelli di intelligenza artificiale più potenti fino all’autunno per dare alla società il tempo di valutare i rischi.

Venerdì sera il capo dell’Osservatorio sulla privacy italiano ha dichiarato alla televisione di stato italiana di essere uno di quelli che hanno firmato l’appello. Pasquale Stanzione ha affermato di averlo fatto perché “non è chiaro quali obiettivi vengano perseguiti” in definitiva da coloro che sviluppano l’IA.

Stanzioni ha affermato che se un’intelligenza artificiale dovesse “invadere” l'”autodeterminazione” di una persona, allora “è molto pericoloso”. Ha anche descritto l’assenza di filtri per gli utenti sotto i 13 anni come “alquanto pericolosa”.

Sam Altman, CEO di OpenAI con sede a San Francisco, ha annunciato questa settimana che a maggio intraprenderà un viaggio in sei continenti per parlare della tecnologia con utenti e sviluppatori. Ciò include una tappa programmata a Bruxelles, dove i legislatori dell’UE hanno negoziato nuove regole radicali per limitare gli strumenti di intelligenza artificiale ad alto rischio, nonché visite a Madrid, Monaco, Londra e Parigi.

Giovedì il gruppo europeo dei consumatori BEUC ha invitato le autorità dell’UE e i 27 stati membri del blocco a indagare su ChatGPT e simili chatbot basati sull’intelligenza artificiale. BEUC ha affermato che potrebbero volerci anni per legalizzare l’intelligenza artificiale nell’UE, quindi le autorità devono agire più rapidamente per proteggere i consumatori da potenziali rischi.

READ  Azioni, guadagni, dati e notizie

“In pochi mesi, abbiamo visto ChatGPT esplodere in popolarità, e questo è solo l’inizio”, ha affermato il vicedirettore generale Ursula Paschl.

Aspettare la legge dell’UE sull’intelligenza artificiale “non è abbastanza buono perché ci sono serie preoccupazioni crescenti su come ChatGPT e chatbot simili possano ingannare e manipolare le persone”.

___

O’Brien ha riferito da Providence, Rhode Island. Kelvin Chan, scrittore di affari di AP Business da Londra, ha contribuito.