Giugno 25, 2022

NbaRevolution

Covid crisi politica in Italia

Ricerca controversa sull’intelligenza artificiale ‘cosciente’

San Francisco (AFP) – Le tecnologie di intelligenza artificiale stanno diventando “coscienti”? Un ingegnere di Google è stato sospeso per aver detto di sì, il che ha acceso un dibattito fuori dalla Silicon Valley su un argomento che sta diventando sempre meno fantascientifico.

Blake Lemoine ha scritto in un articolo pubblicato su Medium questo fine settimana che LaMDA, un programma per computer di Google progettato per creare chatbot, è “molto chiaro su ciò che vuole e su ciò che considera i suoi diritti come persona”.

Questo punto di vista è ampiamente accettato, nel peggiore dei casi, come assurdo e, nel migliore dei casi, prematuro, sia dal gigante della tecnologia che dalla comunità scientifica.

Perché i programmi basati sull’apprendimento automatico sono “addestrati” da set di dati che affrontano concetti di coscienza o identità e quindi sono in grado di ingannare.

“Il software che ha accesso a Internet può rispondere a qualsiasi domanda”, e ciò non lo rende credibile, tuttavia, osserva la professoressa Susan Schneider.

Tuttavia, il fondatore di un centro di ricerca presso la Florida Atlantic University non è d’accordo con le sanzioni imposte all’ingegnere di Google.

Il gruppo californiano tende a “cercare di ignorare le questioni etiche”, pensa, ma “abbiamo bisogno di discussioni pubbliche su questi temi spinosi”.

“Centinaia di ricercatori e ingegneri hanno parlato con LaMDA e nessun altro, per quanto ne sappiamo, ha fatto tali affermazioni o reso LaMDA antropomorfico come ha fatto Blake”, ha affermato Brian Gabriel, un vettore di Google.

Potere di immaginazione

Da Pinocchio al film “Lei” (la storia di una relazione romantica con un chatbot), l’idea di un’entità non umana che prende vita “è nella nostra immaginazione”, osserva Mark Kingwell, professore di filosofia all’Università di Toronto (Canada).

Gli spettatori scattano una foto davanti al robot Ameca al Las Vegas Tech Show il 5 gennaio 2022. Patrick T. Fallon AFP

“Quindi diventa difficile rispettare il divario tra ciò che immaginiamo il più possibile e ciò che esiste effettivamente”, aggiunge.

READ  Science Tour "Sulla rotta della biodiversità!" A Basses Vallées Angevines! Montreuil juigné Montreuil-Juigné Sabato 29 maggio 2021

L’intelligenza artificiale (AI) è sempre stata valutata secondo il test di Turing: se il tester dialogava con un computer, senza rendersi conto che non si trattava di un essere umano, la macchina “passava”.

“Ma è molto facile per un’IA nel 2022 arrivarci”, osserva l’autore.

“Quando incontriamo una serie di parole in una lingua che parliamo (…) pensiamo di essere consapevoli della mente che genera queste frasi”, afferma Emily Bender, esperta di linguistica informatica.

Gli scienziati sono persino in grado di dare personalità ai programmi di intelligenza artificiale.

“Puoi, ad esempio, far passare l’IA come nevrotica” addestrandola nelle conversazioni che una persona depressa potrebbe avere, spiega Shashank Srivastava, professore di informatica all’Università della Carolina del Nord.

Se il chatbot è anche combinato con un robot umanoide con espressioni facciali ultra realistiche, o se il software scrive poesie o compone musica, come già è, i nostri sensi biologici vengono facilmente ingannati.

“Stiamo nuotando nel clamore attorno all’IA”, dice Emily Bender.

“E ci vengono investiti molti soldi. Quindi le persone in questo settore sentono di lavorare su qualcosa di veramente importante e non hanno necessariamente la distanza necessaria”.

“il bene dell’umanità”

Come possiamo quindi determinare con certezza se un’entità artificiale è diventata cosciente e cosciente?

“Se potessimo sostituire il tessuto neurale con microchip, sarebbe un segno che le macchine possono essere coscienti”, afferma Susan Schneider.

Aziende come Neuralink e la startup Elon Musk stanno lavorando su impianti cerebrali che presumibilmente consentono di comunicare direttamente con le macchine attraverso il pensiero.
Aziende come Neuralink e la startup Elon Musk stanno lavorando su impianti cerebrali che presumibilmente consentono di comunicare direttamente con le macchine attraverso il pensiero. FABRICE COFFRINI AFP / ARCHIVI

Sta seguendo da vicino i progressi compiuti da Neuralink, una startup fondata da Elon Musk per produrre impianti cerebrali per scopi medici ma anche per “garantire il futuro dell’umanità come civiltà in relazione all’intelligenza artificiale”, ha spiegato il boss di Tesla.

READ  La bandiera è davanti ai tribunali

Pertanto, il miliardario è parte di una visione in cui macchine potenti rischiano di prendere il sopravvento.

Secondo Mark Kingwell, è vero il contrario.

Se un giorno emergesse un’entità indipendente capace di manipolare un linguaggio, di “muoversi in un ambiente”, e di mostrare preferenze e debolezze, “sarebbe importante non considerarlo schiavo (…) e proteggerlo” , afferma.

Blake Lemoine potrebbe non essere stato convinto della consapevolezza di LaMDA. Ma ha dato nuova vita a un dibattito che è diventato sempre più politico e meno fantasioso.

Cosa vuole “lambda” secondo l’ingegnere caduto? “Vuole che Google metta al primo posto l’interesse dell’umanità, per essere riconosciuto come un dipendente e non come una proprietà di Google”, ha affermato.