Attualità

Sigonella e la guerra dei droni guidati dall’AI

Nel conflitto con l’Iran gli Stati Uniti hanno usato sistemi di AI di una compagna che lo stesso governo americano ha messo al bando come minaccia per la sicurezza nazionale. La tecnologia usata anche a Sigonella

di Piero Messina -

Lo scontro tra Iran, Israele e Stati Uniti non è soltanto una guerra di missili e droni. La guerra passa sempre più anche dagli algoritmi e dai sistemi di intelligenza artificiale, utilizzati per analizzare le enormi quantità di dati raccolte sul campo e accelerare le decisioni militari. Con queste tecnologie si opera anche da Sigonella, la base Nato nel cuore del Mediterraneo.

E’ stata l’agenzia di stampa Reuters a spiegare cosa succede. Nelle operazioni militari contro l’Iran, il Pentagono avrebbe utilizzato sistemi di intelligenza artificiale della società Anthropic – inclusi strumenti della famiglia Claude.

Una strategia che riguarda anche la base NATO e statunitense di Sigonella, nella piana di Catania, considerata uno dei principali hub mediterranei per l’integrazione tra droni, intelligence e sistemi di intelligenza artificiale.

Da qui decollano velivoli senza pilota come i RQ-4D Phoenix della NATO, i MQ-4C Triton della US Navy e i Predator utilizzati anche dall’Aeronautica italiana.

Droni capaci di restare in volo per oltre trenta ore e controllare un’area che va dall’Europa al Nord Africa fino al Medio Oriente, raccogliendo enormi quantità di dati operativi.

Ed è proprio nella gestione di questi dati che entra in gioco l’intelligenza artificiale: analisi delle immagini, riconoscimento automatico dei bersagli, supporto alle decisioni militari. Senza AI sarebbe  impossibile analizzare in tempo reale la quantità di informazioni raccolte.

Ma il caso Anthropic diventa anche politico.

L’amministrazione statunitense ha appena classificato l’azienda come possibile rischio per la sicurezza nazionale e per la catena di approvvigionamento tecnologica.

Il presidente Donald Trump e il segretario alla Difesa Pete Hegseth hanno accusato il chatbot Claude di poter favorire sistemi di sorveglianza di massa o addirittura la nascita di piattaforme militari sempre più autonome.

Eppure, secondo il Pentagono, proprio queste tecnologie sarebbero state impiegate nelle operazioni più recenti.

In Italia l’uso dell’intelligenza artificiale nei sistemi militari è consentito e rientra nella strategia della Difesa che considera l’IA un “moltiplicatore di forza”, con applicazioni nella sorveglianza, nel riconoscimento automatico dei bersagli e nella gestione di sistemi d’arma avanzati.  A una condizione: pur mantenendo formalmente il controllo umano sulle decisioni operative.