Diversi dipendenti della società coreana di semiconduttori Samsung hanno inserito linee di codice segreto in ChatGPT, facendo trapelare segreti aziendali che potrebbero essere inclusi nelle future risposte di chatbot ad altre persone in tutto il mondo.
Un dipendente ha copiato un codice sorgente difettoso da un database di semiconduttori in un chatbot e gli ha chiesto di specificare una correzione, secondo A L’economista Corea. Un altro dipendente ha fatto la stessa cosa per un’altra apparecchiatura, chiedendo un “miglioramento del codice” a ChatGPT. Dopo che un terzo dipendente ha chiesto al modello AI di riassumere le note della riunione, sono intervenuti i dirigenti Samsung. La società ha limitato il requisito ChatGPT di ciascun dipendente a 1024 byte.
Solo tre settimane fa, Samsung ha revocato il divieto ai dipendenti di utilizzare ChatGPT a causa delle preoccupazioni sul problema. Dopo i recenti avvenimenti si sta valutando la possibilità di reintrodurre il divieto, nonché misure disciplinari per i dipendenti, L’economista Corea Lui dice.
“In caso di un incidente simile, anche dopo che sono state adottate misure di protezione delle informazioni di emergenza, l’accesso a ChatGPT potrebbe essere bloccato sulla rete aziendale”, si legge in una nota interna. Una volta inserito il contenuto in ChatGPT, i dati vengono trasmessi e archiviati nel server, rendendo impossibile il recupero da parte dell’azienda.
IA aperta Guida dell’utente Avvisa gli utenti di questo comportamento: “Non possiamo eliminare determinate affermazioni dalla tua cronologia. Non condividere alcuna informazione sensibile nelle tue conversazioni”. Dice che il sistema utilizza tutte le domande e i testi che gli vengono inviati come dati di allenamento.
L’uso dei chatbot per trovare e correggere il codice difettoso è diventato un luogo comune nell’ingegneria del software. Se gli utenti fanno una domanda di codifica, tenta di identificare la soluzione e fornisce uno snippet di codice con una semplice pressione del pulsante copia-incolla. La conoscenza della codifica di ChatGPT sembra essere sufficiente per farla assumere a Google come ingegnere junior.
Questo può sostituire il tempo (a volte ore) che gli ingegneri dedicano alla navigazione in siti come Stack Overflow, una risorsa popolare a cui gli ingegneri si rivolgono per la risoluzione dei problemi. A riprova degli alti tassi di utilizzo di ChatGPT da parte degli ingegneri del software, Stack Overflow vietato ChatGPT pochi giorni dopo il suo rilascio il 30 novembre 2022 a causa di preoccupazioni per risposte imprecise che sembrano credibili.
Il problema principale è che mentre le risposte che ChatGPT produce hanno un alto tasso di errore, di solito lo fanno Sembra che Essi Forse Fai il bravo e rispondi molto È facile da produrre”, afferma Stack Overflow in un post aggiornato quattro giorni fa. La portata di queste risposte (in migliaia)… ha effettivamente sommerso l’infrastruttura di regolamentazione della qualità basata sui volontari. “
Si dice che Samsung stia prendendo in considerazione la creazione di una propria intelligenza artificiale per prevenire incidenti futuri, anche se è possibile che gli ingegneri possano aggirare qualsiasi misura utilizzando ChatGPT sui dispositivi personali. Microsoft Bing e Google Bard possono anche rilevare errori nelle righe di codice, quindi il blocco di ChatGPT non è una soluzione a prova di proiettile.
“Avido alcolizzato. Fanatico della musica malvagia. Appassionato di viaggi per tutta la vita. Drogato di caffè incurabile. Appassionato di cibo freelance. Comunicatore.”
More Stories
Utilizzo dei sensori nella fotografia in condizioni di scarsa illuminazione
I fondatori di Aje, Edwina Forest e Adrian Norris, condividono le loro ispirazioni per la settimana della moda
Come utilizzare Blue Signal Accedi a Honkai Star Rail