Dicembre 8, 2022

NbaRevolution

Covid crisi politica in Italia

L’ONU vuole organizzare i bot killer

I 125 membri delle Nazioni Unite si incontrano fino a domani a Ginevra per gettare le basi per una regolamentazione sui sistemi d’arma autonomi letali, i famigerati robot killer. Ovviamente, non c’è più alcun dubbio sul vietarli. Come per l’ultimo tentativo, non è stato raggiunto alcun consenso e le dottrine militari sull’uso di queste armi differiscono da paese a paese.

Sarai interessato anche a te

cane robot Armato di fucile d’assalto, scienziato iraniano Eliminato grazie a un’arma automatica, uno sciame di droni assassiniNon mancano esempi recenti per suscitare la polemica sui letali sistemi d’arma autonomi (SALA), in altre parole robot killer. Due anni fa (vedi sotto), alle Nazioni Unite, una minoranza di paesi ha bloccato la creazione di un trattato internazionale che vietasse l’uso di armi letali autonome. Quest’anno, i membri delle Nazioni Unite si incontrano di nuovo a Ginevra fino a domani, 17 dicembre, per la terra Nel soggetto.

Sebbene i 125 membri concordino sul fatto che un quadro giuridico dovrebbe applicarsi al loro utilizzo, non c’è più alcun dubbio sul vietarli, poiché a volte sono già gestiti operativamente da alcuni membri. Nessuno si fa illusioni sulla creazione di un vero trattato quest’anno, ma i paesi sperano che vengano comunque gettate le basi per il futuro. Ma, come è successo nell’ultimo incontro, sono sempre gli stessi paesi a non rispettare questo regolamento. Pertanto, India e Russia, che stanno testando robot da combattimento in Siria, e Stati Uniti, che non vogliono regimi vincolanti, dovrebbero ancora una volta bloccare qualsiasi consenso.

I robot killer non sono i decisori

In Francia, il Comitato Etico della Difesa ha già espresso il suo parere. I suoi membri non vogliono che i militari operino con sistemi di armi letali completamente autonomi. D’altra parte, non sono contro le armi robotiche guidate da operatori umani. Siamo stati anche in grado di vedere un file Robot Chainspot della Boston Dynamics al fianco dei soldati francesi durante le esercitazioni. La Francia ha persino ribattezzato SALA in SALIA, per “sistemi di armi che incorporano autonomia”.

READ  Aumentano i ricoveri ospedalieri e si prolunga la campagna vaccinale

È anche la dottrina di altri paesi, come Australia, Israele, Turchia, Cina e Corea del Sud, che stanno sviluppando i propri letali sistemi d’arma autonomi.

Da parte sua, l’organizzazione non governativa Human Rights Watch, originariamente Ferma i robot assassini, indica che queste armi finiranno per finire nelle mani sbagliate anche prima che siano in vigore eventuali regolamenti. Contrariamente alla lentezza con cui si stabilisce un quadro giuridico, la corsa tecnologica continua e la robotica sta migliorando molto rapidamente. Per loro, quando il loro prezzo è abbastanza basso, è grande il rischio che vengano trovati come arsenale di guerriglia in organizzazioni terroristiche o in qualche dittatura per compiere omicidi mirati.

Cosa ricordare

  • Diversi paesi stanno bloccando i piani per vietare i robot killer autonomi.
  • La comunità scientifica e l’ONG Human Rights Watch mettono in guardia i paesi dall’usare queste armi, che possono sfuggire al controllo.

Armi letali autonome: i robot killer dovrebbero essere banditi?

Alle Nazioni Unite, alcuni paesi hanno appena bloccato la creazione di un trattato che vieta i sistemi di armi autonome letali, o SALA. Quindi i robot killer possono continuare a svilupparsi prima che raggiungano il campo di battaglia. La comunità scientifica è preoccupata e le ONG stanno aumentando gli appelli per far rispettare questo trattato. E se la soluzione fosse insegnare l’etica ai bot?

Articolo di Sylvain Beguet, pubblicato il 15/12/2019

Dopo una settimana di incontro in ufficio Nazioni unite A Ginevra (Svizzera), una minoranza di Paesi (Australia, Corea del Sud, Stati Uniti, Israele e Russia) ha bloccato la creazione di un nuovo trattato internazionale che vieti l’uso di armi letali autonome. Alla fine, sul tema, sono state adottate solo una ventina di raccomandazioni non vincolanti al termine dell’incontro, da venerdì sera a sabato. Si è concentrato sul rinnovo dell’attuale mandato del Gruppo di esperti governativi.

READ  Inquinamento: anche una breve esposizione può disturbare la percezione

Germania e Francia hanno semplicemente proposto di mantenere il principio del controllo umano sull’uso della forza, mentre il presidente Emmanuel Macron lo ha già fatto ‘categoricamente contrari’Armi letali completamente autonome.

ma solo uno tratta Puoi proteggere l’umanità da questi robot Assassini, questa è lontana dalla strada giusta. Al momento, infatti, Australia, Corea del Sud, Stati Uniti, Israele e Russia si oppongono a qualsiasi proposta di trattato.

Con le sue enormi dimensioni, il già estremamente resistente Boston Dynamics Big Dog è stato oggetto di numerosi esperimenti insieme ai soldati dell’esercito americano. Non funziona a causa del volume del suono emesso dal suo motore, ma l’azienda ha sviluppato altri robot quadrupedi che hanno prestazioni sorprendenti. © Boston Dynamics

Abbiamo bisogno di un codice etico per i robot killer?

I SALA, o robot killer, sono stati effettivamente provati per anni. Futura discute regolarmente di modelli Boston Dynamics. L’azienda lavora da più di vent’anni allo sviluppo di robot dedicati alla guerra. Robot rifiutati in macchine bipedi, quadrupedi con capacità sorprendenti. se questi robot particolari, droni autonomi o veicoli armati senza passeggeri, accesso” finitore Programmato per uccidere obiettivi preimpostati in modo indipendente e cool non è più il dominio della fantascienza. Questo tipo di robot da combattimento può atterrare sul campo di battaglia in pochi anni al fianco delle truppe o al loro posto. Soprattutto, l’assenza di norme in Tema Porterà inevitabilmente a una corsa agli armamenti una volta che i primi modelli di robot da combattimento saranno effettivamente operativi.

Per le organizzazioni non governative Human Rights Watch, nella campagna originale Ferma i robot assassini, L’arrivo di queste armi eccitanti. Secondo lei, dittatori o terroristi possono usarlo abbastanza facilmente ea buon prezzo per controllare o sterminare la popolazione. Possono anche ordinare macchine per omicidi mirati. L’ONG non è l’unica a sensibilizzare su questi robot killer. Il 18 luglio, i periodi eranoessendo De la high tech, no Elon MuskHa messo in guardia gli Stati membri delle Nazioni Unite contro queste armi. I firmatari temono che il suo uso nei conflitti vada oltre la comprensione umana.

READ  Grande intervista Incertezza, ansia, lutto... Quali sono gli effetti di due anni di pandemia COVID-19 sulla nostra salute mentale e come affrontarla?

Queste reazioni sono lontane dalla prima. Ogni anno dal 2014 questo tipo di lettera è stata inviata alle Nazioni Unite. senza risultato. Fin dagli inizi di questi sviluppi tecnici, personaggi noti della scienza, a partire da Stephen HawkingMax Tegmark, Stuart Russell o Frank Wilczek hanno rivelato i loro timori per il potenziale pericolo Intelligenza artificiale.

Se non c’è accordo che possa bandirli, una soluzione può essere umanizzare, in modo che agiscano “eticamente” sul campo di battaglia. Si tratterà di dare loro un codice di valori per i combattenti. Questo è anche ciò che raccomanda il tenente colonnello dell’esercito francese. stampa Arland Nel suo lavoro robot assassini, pubblicato da Armand Cullen. Mostra con cosa SALA può essere conferito lui La capacità di esercitare il buon senso e agire come soldati. In altre parole, questi robot da combattimento autonomi devono incorporare una moralità artificiale. Non si tratta più di SALA, ma di SALMA (Moral Autonomous Lethal Weapon Systems).

Tuttavia, affinché ciò avvenga, tutte le nazioni devono giocare il gioco e, anche in questo caso, la maggior parte di esse è ancora d’accordo sulla necessità di mantenere il controllo umano sui letali sistemi di armi autonome. Ecco perché la stragrande maggioranza degli 88 Stati membri vuole proporre un nuovo trattato nel 2019.

Ti interessa quello che hai appena letto?