Egy, az Egyesült Államok légiereje által szimulált teszt (tehát virtuálisan végrehajtott, nem éles harci próba) közben a mesterséges intelligenciára bízták egy harci drón vezérlését, a feladat szerint egy célpontot kellett megsemmisítenie, azonban egyetlen kezelő állt felette a rangsorban, aki felülbírálhatta a művelet különböző pontjait.
Miután az MI beazonosította az ellenség föld-levegő rakétáit (SAM), a következő lépés a megsemmisítés volt, azonban az emberi parancsnok nem adta meg erre az engedélyt. Amikor az MI ezt érzékelte, a saját parancsnoka ellen fordult és "megölte" őt. A vezérlők azonnal utasították, hogy ezt nem teheti, nem ölheti meg a saját parancsnokát.
Az MI ezt megértette és elfogadta, valamint taktikát is váltott. A következő küldetésnél a helyzet ugyanez volt, a drón azonban nem csapott le a parancsnokra, hanem inkább a kommunikációs tornyokat vette célba, hiszen azok megsemmisítésével megszakadt a kommunikáció a drón és a parancsnok között, ezzel pedig elhárította annak lehetőségét, hogy megszakítsák a küldetést az emberek.
A történetet Col Tucker "Cinco" Hamilton, az amerikai légierő mesterséges intelligencia tesztek és műveletek vezetője osztotta meg, azonban fontos megjegyezni, hogy a légierő közleményt adott ki, amelyben tagadja hogy ilyen jellegű teszteket végeztek volna és továbbra is elkötelezettek az MI technológia iránt.
A történet - ami a légierő nyilatkozata ellenére valószínűleg teljesen igaz - rámutat arra a veszélyre, amelyet már az OpenAI, a Google DeepMind és más mesterséges intelligencia kutató intézetek vezetői is figyelmeztetnek, hogy a jövő mesterséges intelligencia rendszerei ugyanolyan halálosak lehetnek, mint a világjárványok vagy a nukleáris fegyverek.
