Giugno 8, 2023

NbaRevolution

Covid crisi politica in Italia

L’Italia blocca temporaneamente ChatGPT per problemi di privacy

Frances Demelio e Matt O’Brien, The Associated Press – | Storia: 418.937

L’Italia vieta temporaneamente il Software di intelligenza artificiale ChatGPT L’autorità di vigilanza sulla privacy del governo ha dichiarato venerdì sulla scia della violazione dei dati mentre indaga su una possibile violazione delle rigide norme sulla protezione dei dati dell’Unione europea.

L’autorità italiana per la protezione dei dati ha affermato che sta intraprendendo un’azione temporanea “fino a quando ChatGPT non rispetterà la privacy”, inclusa la limitazione temporanea dell’azienda dal trattamento dei dati degli utenti italiani.

OpenAI, con sede negli Stati Uniti, che ha sviluppato ChatGPT, non ha restituito una richiesta di commento venerdì.

Mentre alcune scuole pubbliche e università in tutto il mondo lo hanno fatto Ban ChatGPT dalle loro reti locali A causa delle preoccupazioni degli studenti sul plagio, non era immediatamente chiaro quando o come l’Italia lo avrebbe vietato a livello nazionale.

È improbabile che la mossa influisca anche sulle applicazioni di aziende che dispongono già di licenze con OpenAI per utilizzare la stessa tecnologia che guida i chatbot, come Motore di ricerca Microsoft Bing.

I sistemi di intelligenza artificiale che alimentano questi chatbot, noti come modelli di linguaggio di grandi dimensioni, sono in grado di farlo Imitando stili di scrittura umani Sulla base dell’enorme quantità di libri digitali e scritti online che hanno assorbito.

READ  I dati economici mettono sotto i riflettori l'euro, con un focus anche sulla Bank of England e sulla sterlina britannica

Il watchdog italiano ha affermato che OpenAI deve segnalare entro 20 giorni le azioni intraprese Garantire la privacy dei dati degli utenti o affrontare una multa fino a 20 milioni di euro (quasi 22 milioni di dollari) o il 4% delle entrate globali annuali.

La dichiarazione dell’agenzia cita il regolamento generale sulla protezione dei dati dell’UE e rileva che ChatGPT ha subito una violazione dei dati il ​​20 marzo che coinvolge “conversazioni degli utenti” e informazioni sui pagamenti degli abbonati.

OpenAI aveva precedentemente annunciato di dover disattivare ChatGPT il 20 marzo per correggere un bug che consentiva ad alcune persone di vedere i titoli o le righe dell’oggetto della cronologia chat di altri utenti.

“La nostra indagine ha anche rilevato che l’1,2% degli utenti di ChatGPT Plus potrebbe aver avuto dati personali divulgati a un altro utente”, ha affermato la società. “Riteniamo che il numero di utenti i cui dati sono già stati divulgati a qualcun altro sia molto basso e abbiamo contattato coloro che potrebbero essere interessati”.

Il garante della privacy italiano si è lamentato del fatto che non esiste una base legale per giustificare la “vasta raccolta e trattamento di dati personali” di OpenAI per l’addestramento degli algoritmi della piattaforma e che la società non notifica agli utenti i cui dati raccoglie.

L’agenzia ha anche affermato che ChatGPT a volte può generare – e archiviare – false informazioni sugli individui.

Infine, sottolinea la mancanza di un sistema di verifica dell’età degli utenti, che espone i bambini a risposte “del tutto inadeguate alla loro età e alla loro coscienza”.

La mossa del cane da guardia arriva mentre crescono le preoccupazioni per un boom dell’intelligenza artificiale. Un gruppo di scienziati e leader del settore tecnologico ha pubblicato mercoledì una lettera invitando aziende come OpenAI a farlo Metti in pausa lo sviluppo di modelli di intelligenza artificiale più robusti Fino all’autunno per dare alla comunità il tempo di valutare i rischi.

READ  Le forniture di gas da Gazprom a Germania e Italia superano i totali del 2020

Venerdì sera il capo dell’Osservatorio sulla privacy italiano ha dichiarato alla televisione di stato italiana di essere uno di quelli che hanno firmato l’appello. Pasquale Stanzione ha affermato di averlo fatto perché “non è chiaro quali obiettivi vengano perseguiti” in definitiva da coloro che sviluppano l’IA.

Stanzioni ha affermato che se un’intelligenza artificiale dovesse “invadere” l'”autodeterminazione” di una persona, allora “è molto pericoloso”. Ha anche descritto l’assenza di filtri per gli utenti sotto i 13 anni come “alquanto pericolosa”.

Anche altri hanno citato preoccupazioni.

Sebbene non sia chiaro fino a che punto queste decisioni saranno esecutive, il fatto che sembri esserci una discrepanza tra la realtà tecnologica sul campo e i quadri giuridici in Europa “mostra che potrebbe esserci qualcosa nell’invito della lettera a fare una pausa, ha detto Nello Cristianini, professore di Intelligenza Artificiale all’Università di Bath, “per permettere ai nostri strumenti culturali di mettersi al passo”.

Sam Altman, CEO di OpenAI con sede a San Francisco, ha annunciato questa settimana che a maggio intraprenderà un viaggio in sei continenti per parlare della tecnologia con utenti e sviluppatori. Ciò include una tappa programmata a Bruxelles, dove i legislatori dell’UE hanno negoziato nuove regole radicali per limitare gli strumenti di intelligenza artificiale ad alto rischio, nonché visite a Madrid, Monaco, Londra e Parigi.

Giovedì il gruppo europeo dei consumatori BEUC ha invitato le autorità dell’UE e i 27 stati membri del blocco a indagare su ChatGPT e simili chatbot basati sull’intelligenza artificiale. BEUC ha affermato che potrebbero volerci anni per legalizzare l’intelligenza artificiale nell’UE, quindi le autorità devono agire più rapidamente per proteggere i consumatori da potenziali rischi.

READ  La prossima settimana: la conversazione con la banca centrale, l'Evergrande e l'intensa agenda economica al microscopio

“In pochi mesi abbiamo visto esplodere ChatGPT, e questo è solo l’inizio”, ha affermato il vicedirettore generale Ursula Paschl.

Aspettare la legge dell’UE sull’intelligenza artificiale “non è abbastanza buono perché ci sono serie preoccupazioni crescenti su come ChatGPT e chatbot simili possano ingannare e manipolare le persone”.