09 marzo, 2020

INTELLIGENZA ARTIFICIALE IA: informata a principi etici PER IL PENTAGONO

Mentre i giganti della tecnologia, a volte, sono riluttanti a collaborare con i militari, il Pentagono sta adottando, motu proprio, regole etiche nel campo dell'intelligenza artificiale. 

https://breakingdefense.com/2019/10/ethical-ai-for-war-defense-innovation-board-says-it-can-be-done/ll Pentagono ha annunciato lunedì (24 feb) l'adozione di 'principi etici' nell'uso da parte delle forze armate dell'intelligenza artificiale. 

Questa misura intende in particolare convincere i dipendenti dei giganti della tecnologia americana a collaborare con i militari. 

'L'intelligenza artificiale cambierà molte cose sul campo di battaglia del futuro, ma nulla cambierà il costante impegno americano a comportarsi in modo responsabile e lecito', ha dichiarato il ministro della Difesa Mark Esper

Il Pentagono, che critica regolarmente l'uso che della polizia del riconoscimento facciale da parte della Cina, si impegna in particolare ad attribuire all'intelligenza artificiale usi 'espliciti e ben definiti', secondo un comunicato stampa

Queste apparecchiature 'intelligenti', che a loro volta acquisiscono, attraverso l'esperienza, le capacità necessarie per svolgere i compiti loro assegnati, saranno anche 'affidabili' e le loro specifiche saranno trasparenti, assicura l'esercito americano. 

Saranno infine 'governabili', vale a dire che potranno essere disattivate ​​in caso di funzionamento aberrante. 

La questione delle armi autonome rimane oggetto di dibattito all'interno del Pentagono, in cui il principio di base è che gli esseri umani devono 'rimanere in contatto'. La formula implica che la macchina stessa non possa prendere la decisione di sparare contro un bersaglio. 

Questi principi sono stati definiti dopo 15 mesi di consultazioni con i rappresentanti dei giganti della tecnologia americana, le principali università e l'amministrazione sotto la presidenza di Eric Schmidt, ex presidente del consiglio di amministrazione di Google. 

Sotto la pressione dei suoi dipendenti, nel 2018 Google aveva rinunciato a un contratto con il Pentagono inteso ad aiutare i droni a distinguere meglio gli oggetti dagli umani grazie all'intelligenza artificiale, un progetto chiamato 'Maven'. 

'Se avessimo già avuto i principi etici sull'intelligenza artificiale tre anni fa (quando è stato lanciato il progetto Maven) e se fossimo stati trasparenti su ciò che stavamo cercando di fare, forse il risultato sarebbe stato diverso', ha commentato il generale Jack Shanahan, capo dell'intelligenza artificiale al Pentagono, presentando questi nuovi principi alla stampa. 

Nessun commento: