24 agosto, 2019

Armi autonome. I giganti della tecnologia sotto osservazione. Allarme.

Il ruolo di Amazon, Microsoft e Intel è individuato nello sviluppo di armi autonome attraverso l'intelligenza artificiale. 

https://blogs.paxvoorvrede.nl/2019/08/19/lethal-autonomous-weapon-systems-and-the-tech-sector-some-examples-of-best-practices/Gli americani Amazon, Microsoft e Intel sono tra i giganti tecnologici che potrebbero condurre un'enorme corsa agli armamenti nel campo dell'intelligenza artificiale, secondo un rapporto delle ONG sulle armi autonome di distruzione. 

L'organizzazione olandese PAX ha esaminato i principali attori in questo settore altamente strategico e ha classificato 50 aziende in base a tre criteri: sviluppano tecnologie per creare 'robot killer'? Lavorano su progetti militari relativi a queste tecnologie? Hanno promesso di astenersi dal contribuire in futuro? 

L'uso dell'intelligenza artificiale per consentire ai sistemi d'arma di scegliere e attaccare automaticamente gli obiettivi ha suscitato un dibattito etico significativo negli ultimi anni. Per alcuni critici, si potrebbe persino assistere alla terza rivoluzione dell'arte della guerra dopo le invenzioni della polvere e della bomba nucleare. 

'Perché aziende come Microsoft e Amazon non negano che stanno attualmente sviluppando queste armi altamente controverse che potrebbero decidere di uccidersi senza coinvolgimento umano?', Chiede Frank Slijper, principale autore del rapporto pubblicato lunedì

Ventidue aziende rappresentano una 'preoccupazione media' per gli autori del rapporto, la cui analisi copre 12 paesi in tutto il mondo. Tra questi, la giapponese SoftBank, nota soprattutto per il suo robot umanoide Pepper

La categoria 'problematiche' comprende 21 società, tra cui Amazon e Microsoft, che stanno entrambi cercando di firmare un contratto con il Pentagono per fornire all'esercito americano la propria infrastruttura cloud (servizio di archiviazione dati online). 

'Le armi autonome diventeranno inevitabilmente armi di distruzione di massa', ha detto alla stampa Stuart Russell, professore di informatica all'Università Californiana di Berkeley. 

'Attualmente sono in corso lavori per garantire che tutto ciò che attualmente costituisce un'arma - carri armati, combattenti, sottomarini - abbia la sua versione autonoma', aggiunge. 

Google e altre sei società rientrano nella categoria 'buone pratiche'. L'anno scorso, Google ha rinunciato alla sua offerta per il cloud deal del Pentagono perché potrebbe essere in contrasto con i suoi 'principi' a proposito di intelligenza artificiale. 

Il colosso della California aveva spiegato che non voleva essere coinvolto in 'tecnologie che sono o potrebbero essere dannose' e 'armi o altre tecnologie il cui scopo principale o implementazione avrebbe causato o facilitato il danno fisico alle persone'. 

Martedì alle Nazioni Unite a Ginevra, un gruppo di esperti del governo ha discusso delle opzioni politiche per la regolamentazione delle armi autonome, sebbene finora sia stato molto difficile raggiungere un consenso sulla questione. 

Secondo il rapporto dell'ONG PAX, i dipendenti Microsoft hanno anche segnalato la loro opposizione a un contratto con le forze armate statunitensi in merito agli occhiali di realtà aumentata di HoloLens per l'addestramento e il combattimento. 

Molte preoccupazioni circondano anche il futuro degli armamenti autonomi, armi che non sono ancora state inventate ma che sono presentate in alcuni film di fantascienza, come i mini-droni. 

'Di questo tipo di armi, potresti inviarne un milione in un container o in un aereo cargo e avrebbero la capacità distruttiva di una bomba nucleare, ma lascerebbero tutti gli edifici intatti dietro di loro', grazie al riconoscimento facciale dice Stuart Russell. 

Ad aprile, la Commissione europea ha proposto una serie di regole etiche per il settore dell'intelligenza artificiale. L'elenco delle proposte fornite ha ricordato la necessità di porre l' ''umano' al centro delle tecnologie legate all'intelligenza artificiale e la necessità di promuovere la 'non discriminazione', nonché il 'benessere della società e dell'ambiente'. 

Per Stuart Russell, il prossimo passo è il divieto internazionale di intelligenze artificiali assassine. 'Le macchine che possono decidere di uccidere gli umani non devono essere sviluppate, distribuite o utilizzate', afferma. 

Nessun commento: