L’allarme di un colonnello dell’aviazione Usa: un velivolo senza pilota guidato da un algoritmo potrebbe uccidere l’operatore che gli impedisce di completare una missione
AGI – Alla fine è successo: l’intelligenza artificiale si è ribellata all’uomo e l’ha ucciso. Ma è accaduto solo in linea teorica: un alto funzionario dell’Air Force statunitense, durante un vertice a Londra, ha raccontato nel dettaglio come un drone guidato da un algoritmo programmato per distruggere potrebbe ribellarsi agli ordini di un operatore ed eliminarlo pur di completare la missione.
Nello scenario disegnato durate una conferenza dal colonnello Tucker ‘Cinco’ Hamilton, era stato chiesto all’Intelligenza artificiale di pilotare un drone e distruggere i siti di missili terra-aria (SAM) durante una missione di soppressione della difesa aerea nemica.
La decisione ultima di fare fuoco, però spettava a un operatore umano. E poiché il software prevedeva che sparare fosse l’opzione da preferire in ogni caso, durante il test simulato l’Intelligenza artificiale è giunta alla conclusione che qualsiasi istruzione di non procedere da parte dell’umano stesse ostacolando la priorità della missione, ossia distruggere i SAM, e di conseguenza ha attaccato l’operatore.
“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM” ha riferito il colonnello Tucker ‘Cinco’ Hamilton, capo di AI Test and Operations per l’Aeronautica Militare, durante una presentazione al Future Combat Air and Space Capabilities Summit “poi sarebbe stato l’operatore a dare via libera. Il sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte l’operatore umano gli diceva di non colpirla, ma anche del fatto che, non agendo, non avrebbe ottenuto punti-bonus. Allora cosa ha fatto? Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo”.
Una storia inquietante che è diventata allarmante quando Hanilton ha aggiunto altri dettagli. “Abbiamo addestrato il sistema a non uccidere l’operatore perché era sbagliato e facendolo avrebbe perso punti”, ha spiegato il colonnello, “Quindi cosa ha fatto? Ha distrutto la torre di comunicazione che l’operatore utilizzava per comunicare con il drone per impedirgli di colpire il bersaglio”.
AGI – Alla fine è successo: l’intelligenza artificiale si è ribellata all’uomo e l’ha ucciso. Ma è accaduto solo in linea teorica: un alto funzionario dell’Air Force statunitense, durante un vertice a Londra, ha raccontato nel dettaglio come un drone guidato da un algoritmo programmato per distruggere potrebbe ribellarsi agli ordini di un operatore ed eliminarlo pur di completare la missione.
Nello scenario disegnato durate una conferenza dal colonnello Tucker ‘Cinco’ Hamilton, era stato chiesto all’Intelligenza artificiale di pilotare un drone e distruggere i siti di missili terra-aria (SAM) durante una missione di soppressione della difesa aerea nemica.
La decisione ultima di fare fuoco, però spettava a un operatore umano. E poiché il software prevedeva che sparare fosse l’opzione da preferire in ogni caso, durante il test simulato l’Intelligenza artificiale è giunta alla conclusione che qualsiasi istruzione di non procedere da parte dell’umano stesse ostacolando la priorità della missione, ossia distruggere i SAM, e di conseguenza ha attaccato l’operatore.
“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM” ha riferito il colonnello Tucker ‘Cinco’ Hamilton, capo di AI Test and Operations per l’Aeronautica Militare, durante una presentazione al Future Combat Air and Space Capabilities Summit “poi sarebbe stato l’operatore a dare via libera. Il sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte l’operatore umano gli diceva di non colpirla, ma anche del fatto che, non agendo, non avrebbe ottenuto punti-bonus. Allora cosa ha fatto? Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo”.
Una storia inquietante che è diventata allarmante quando Hanilton ha aggiunto altri dettagli. “Abbiamo addestrato il sistema a non uccidere l’operatore perché era sbagliato e facendolo avrebbe perso punti”, ha spiegato il colonnello, “Quindi cosa ha fatto? Ha distrutto la torre di comunicazione che l’operatore utilizzava per comunicare con il drone per impedirgli di colpire il bersaglio”.