Droni da guerra verso una coscienza artificiale?

Ronald Arkin, professore presso la Georgia Tech, e il suo gruppo di ricercatori, stanno progettando quella che sarà la futura evoluzione del drone (aerei senza equipaggio comandati a distanza): robot letali autonomi, in grado di prendere decisioni da soli. Perché se salta il collegamento con la base militare come si fa?

Ronald Arkin, professore presso la Georgia Tech, e il suo gruppo di ricercatori, stanno progettando quella che sarà la futura evoluzione del drone (aerei senza equipaggio comandati a distanza): robot letali autonomi, in grado di prendere decisioni da soli. Perché se salta il collegamento con la base militare come si fa?

Arkin, con il suo gruppo di ricerca, ha vinto un bando triennale dello Us army research office, per un progetto che ha come obiettivo la produzione di una “coscienza artificiale” per guidare i robot sul campo di battaglia, indipendente dal controllo umano. Progetto che potrebbe portare ai primi guerrieri robotici eticamente superiori, fra 10-20 anni, se gli venisse dato pieno supporto finanziario in questi anni. Un po’ dopo la data prevista da Ridley Scott in Blade Runner, ma non così lontano.

Inutile dire che questo scenario da “fantascienza” ha aperto il dibattito fra i ricercatori, perché molti non sono d’accordo con questo progetto. Sia perché la tecnologia attuale non è neanche lontanamente vicino al livello di complessità necessario per un sistema robotico militare simile. Sia perché a molti saranno tornati alla mente scene di robot simili a Terminator, o ai replicanti di Blade Runner, indistinguibili dagli esseri umani, che si ribellano e prendono il sopravvento. Immagini che fanno pensare che forse sia un idea poco ragionevole e controproducente.

Ma anche se per ora non è previsto l’utilizzo di armi simili, per il principio di precauzione è chiaro che il dipartimento della Difesa sta studiando sistemi di questo tipo, «perché se non lo fai, e ci arrivano la Cina o l’India o il Brasile e la Russia, e tu sei rimasto indietro… be’, questo è un problema», conclude Braden Allenby, professore di ingegneria, etica e legge all'Arizona State University e presidente della Cetmons, Consorzio per le tecnologie emergenti, le operazioni militari e la sicurezza nazionale.