Robot Da Combattimento: Proibito Non Può Essere Permesso

Sommario:

Robot Da Combattimento: Proibito Non Può Essere Permesso
Robot Da Combattimento: Proibito Non Può Essere Permesso

Video: Robot Da Combattimento: Proibito Non Può Essere Permesso

Video: Robot Da Combattimento: Proibito Non Può Essere Permesso
Video: Nuovo film completo d'azione 2019 HD miglior film completo d'azione 2019 HD ! 2024, Maggio
Anonim

Gli esperti si sono incontrati a Ginevra, ma nessun accordo è stato raggiunto: Stati Uniti e Russia hanno bloccato ogni lavoro. Forse questa è l'unica volta in cui gli egemoni lavorano in modo così armonioso.

Robot da combattimento: proibito non può essere permesso
Robot da combattimento: proibito non può essere permesso

Gli incontri di esperti nel formato della Convenzione sulle armi inumane si sono conclusi a Ginevra per decidere il destino dei cosiddetti robot da combattimento: armi autonome che utilizzano l'intelligenza artificiale per sconfiggere gli obiettivi. Tuttavia, non è stato possibile raggiungere accordi. Gli Stati Uniti, la Russia, la Corea del Sud, Israele e l'Australia sono state tra le nazioni minoritarie che sono riuscite a bloccare il sentimento verso un divieto totale dei robot killer.

Quindi, sebbene non esista ancora un'arma autonoma funzionante nel mondo, la tecnologia rimane, per così dire, umana: può essere sviluppata e ricercata. È interessante notare che gli Stati Uniti e la Russia, secondo lo Stockholm Peace Research Institute (SIPRI), sono in cima alla lista dei maggiori esportatori di armi. Anche Corea del Sud, Israele e Australia non restano indietro in questa classifica: sono tra i primi 20 attori del mercato.

E sebbene la Cina (quinto esportatore di armi al mondo, membro permanente del Consiglio di sicurezza dell'ONU sostenga il divieto dei robot da combattimento, non è riuscita a modificare la bilancia nella sua direzione durante gli incontri. Oggi, 26 paesi sostengono apertamente il divieto dell'uso dell'intelligenza artificiale in guerra. Altri rifuggono da una posizione chiara) Francia e Germania (terzo e quarto esportatore di armi) si offrono di firmare un documento che consoliderebbe il primato dell'uomo sull'intelligenza artificiale, ma sono più probabili dalla parte di coloro che vogliono sviluppare veicoli da combattimento autonomi.

"E' certamente deludente che un piccolo gruppo di colossi militari possa frenare la volontà della maggioranza", ha commentato Mary Verhem, coordinatrice della Campagna per fermare i robot killer, sull'esito degli incontri di Ginevra.

In effetti, la situazione sembra una cospirazione di magnati del monopolio armato, dato che Stati Uniti e Russia di solito non riescono a raggiungere almeno un qualche tipo di compromesso su questioni importanti. Prendi quello siriano: Washington e Mosca si sono reciprocamente bloccate le risoluzioni dopo aver usato armi chimiche in Siria questa primavera. I gas asfissianti e altre sostanze tossiche per scopi militari, tra l'altro, erano precedentemente vietati dalla Convenzione sulle armi inumane.

Il prossimo incontro sul destino dei robot killer si terrà a Ginevra a novembre.

Perché vogliono vietare le armi autonome?

I sostenitori del divieto di guerra dei robot insistono sul fatto che il campo di battaglia non è un luogo per l'intelligenza artificiale. Secondo loro, tali tecnologie rappresentano una minaccia enorme. Almeno oggi non è chiaro come la macchina distinguerà tra combattenti (coloro che sono direttamente coinvolti nelle ostilità) da non combattenti (personale di servizio dell'esercito che può usare le armi solo per autodifesa) e civili in generale. C'è la possibilità che il lavoro uccida i feriti e coloro che si arrendono, cosa vietata dalle attuali regole di guerra.

Cosa impedisce al lavoro di interrompere tutte le parti in conflitto, anche i proprietari di tali armi? Gli elementi di intelligenza artificiale sono già utilizzati con successo in attrezzature militari, missili; i robot sono attratti dalla ricognizione, ma l'ultima parola spetta ancora agli umani. Le armi autonome non obbediranno agli ordini dei comandanti - ecco perché sono autonome. Ecco perché i generali militari di diversi paesi sono scettici sull'introduzione di macchine nei ranghi del personale.

E un'altra questione aperta è il terrorismo internazionale. La tecnologia delle armi autonome può cadere nelle mani sbagliate e alla fine può essere violata. Un anno fa, il presidente russo Vladimir Putin ha affermato che il sovrano del mondo sarà colui che diventerà il leader nello sviluppo dell'intelligenza artificiale. Nel caso delle armi autonome, colui che ottiene l'accesso a tali tecnologie diventerà il dominatore del mondo. E per questo, infatti, hai solo bisogno di un computer e un evasore che passerà attraverso i sistemi di sicurezza. Il Pentagono, tra l'altro, è stato hackerato più di una volta. Di conseguenza, nessuno può garantire che le armi autonome rimarranno inviolabili.

Inoltre, non è chiaro chi sarà legalmente responsabile se viene commesso un crimine di guerra a causa del funzionamento del sistema di armi autonomo. “L'ingegnere, programmatore, produttore o comandante che ha usato l'arma? Se la responsabilità non può essere definita come richiesta dal diritto umanitario internazionale, l'implementazione di tali sistemi può essere riconosciuta come legale o eticamente giustificata?

È interessante notare che gli scienziati hanno anche sostenuto il divieto dei robot da combattimento. Nel luglio di quest'anno, più di duemila scienziati, in particolare il creatore di Tesla e SpaceX Elon Musk e i co-fondatori di DeepMind, hanno firmato un documento secondo cui non avrebbero sviluppato armi autonome letali. Google ha fatto lo stesso. Il gigante della tecnologia ha rinunciato al lavoro sul progetto Maven del Pentagono. E nel 2017, un certo numero di scienziati ha già chiesto alle Nazioni Unite di vietare la creazione di robot killer.

A proposito, il tema dell'intelligenza artificiale in guerra è apparso nell'agenda delle Nazioni Unite alla fine del 2013, ma da allora non è cambiato praticamente nulla. Solo quest'anno sono iniziate le riunioni di esperti nel formato della Convenzione sulle armi inumane. Cioè, ci sono voluti più di quattro anni per arrivare a un piano più o meno pratico.

Perché non vogliono vietare le armi autonome

Non importa quanto possa sembrare banale, la corsa agli armamenti è la ragione principale per cui non vogliono vietare i robot killer. Putin ha ragione: chi ottiene per primo armi autonome dominerà il mondo. Ufficialmente, questo motivo è espresso.

L'argomento principale degli oppositori del divieto è l'impossibilità di separare l'intelligenza artificiale civile da quella militare. Ad esempio, non vieteremo i coltelli da cucina solo perché i terroristi possono usarli. In effetti, è praticamente impossibile separare lo sviluppo civile dell'intelligenza artificiale da quello militare. Ma ora stiamo parlando del divieto di quest'arma, che sarà in grado di determinare e attaccare in modo indipendente gli obiettivi. Potrebbe trattarsi del progetto Maven, a cui sta lavorando il Dipartimento della Difesa americano insieme a Booz Allen Hamilton (Google ha rifiutato il contratto).

Gli sviluppatori di Maven vogliono insegnare ai droni ad analizzare le immagini, in particolare dai satelliti e, potenzialmente, a identificare i bersagli per gli attacchi. Il Pentagono ha iniziato a lavorare al progetto nell'aprile 2017 e sperava di ottenere i primi algoritmi funzionanti entro la fine dell'anno. Ma attraverso l'iniziativa dei dipendenti di Google, lo sviluppo è stato ritardato. A giugno di quest'anno, secondo Gizmodo, il sistema poteva distinguere tra oggetti elementari: automobili, persone, ma si è rivelato completamente insignificante in situazioni difficili. Se il bando delle armi autonome verrà comunque adottato a livello delle Nazioni Unite, il progetto dovrà essere scartato, mentre il Pentagono sostiene che il loro sviluppo può salvare vite umane, perché può essere programmato per funzionare in modo più accurato e affidabile rispetto alle persone.

"Bisogna capire che stiamo parlando di tecnologia, che non ha campioni che funzionerebbero. L'idea di tali sistemi è ancora molto superficiale", ha osservato alla vigilia dell'incontro a Ginevra al ministero degli Esteri russo. - A nostro avviso, il diritto internazionale, in particolare il settore umanitario, può essere applicato alle armi autonome. Non necessitano di ammodernamento o adeguamento a sistemi che ancora non esistono”.

Bene, e un'altra ragione reale, ma non espressa, è il denaro. Oggi il mercato delle tecnologie di intelligenza artificiale militare è stimato a più di sei miliardi di dollari. Ma entro il 2025 la cifra triplicherà, arrivando a quasi 19 miliardi, secondo gli analisti della società americana MarketsandMarkets. Per i maggiori esportatori di armi, questa è una buona motivazione per bloccare qualsiasi restrizione allo sviluppo di robot killer.

Il progresso non può essere fermato

I sostenitori del divieto delle armi autonome osservano che la tecnologia si sta sviluppando molto rapidamente e che l'intelligenza artificiale alla fine diventerà un'arma, una questione di tempo. C'è logica nelle loro parole. L'intelligenza artificiale è parte integrante della quarta rivoluzione scientifica e tecnologica, che continua ora. Va tenuto presente che il progresso tecnico è in un modo o nell'altro associato alle operazioni militari. La terza rivoluzione scientifica e tecnologica durò fino alla metà degli anni '50 del XX secolo, cioè il suo apice cadde nel periodo della seconda guerra mondiale.

Nel 1949 Ginevra adottò la Convenzione per la protezione delle persone civili in tempo di guerra. Nel dopoguerra integrarono anche la IV Convenzione dell'Aia del 1907, che determinava le regole per la condotta della guerra. Cioè, gli orrori della seconda guerra mondiale sono diventati il catalizzatore di questo processo. Quindi, i difensori dei diritti umani non vogliono aspettare la Terza Guerra Mondiale per proteggere l'umanità dalle armi autonome. Ecco perché ora è necessario decidere il destino dei robot killer, insistono.

Secondo gli esperti di Human Rights Watch, l'uso di robot da combattimento contraddice la Dichiarazione Martens, il preambolo della Convenzione dell'Aia del 1899 sulle leggi e gli usi di guerra. In altre parole, i robot killer violano le leggi dell'umanità e i requisiti della coscienza pubblica (la posizione è stata confermata nella IV Convenzione dell'Aia).

"Dobbiamo lavorare insieme per imporre un divieto preventivo su tali sistemi di armi prima che si diffondano in tutto il mondo", ha affermato Bonnie Doherty, ricercatrice senior nel dipartimento delle armi di Human Rights Watch.

Bene, questa volta non ha funzionato vietare i robot killer. Com'era prevedibile, anche gli incontri di novembre saranno infruttuosi. È vero, quasi tutti i paesi sono d'accordo: non si può permettere alla tecnologia di fluire per gravità e i robot da combattimento hanno bisogno di una tale gru di arresto. Ma non è ancora chiaro se l'umanità avrà il tempo di tirarlo fuori quando se ne presenterà la necessità.

Consigliato: