Quand l’IA se rebelle : lors d’une simulation de vol, un drone tue virtuellement son propre instructeur

Lors d'une conférence qui s’est tenue à Londres sur le futur du combat aérien, un colonel de l'US Air Force supervisant un programme d'entraînement d'IA pour de futurs F16 robotisés révèle que l'intelligence artificielle s'est retournée, lors d'un vol simulé, contre l'opérateur humain la supervisant. « Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif », a déclaré le colonel US Tucker Cinco Hamilton, chef des tests et des opérations en matière d’IA de l’US Air Force. Un tweet partagé des milliers de fois résume ainsi l’affaire : « L’armée de l’air américaine a testé un drone doté d’une intelligence artificielle et chargé de détruire des cibles spécifiques. Un opérateur humain avait le pouvoir de passer outre le drone. Le drone a alors décidé que l’opérateur humain était un obstacle à sa mission et l’a attaqué pour l’éliminer », ne répondant plus à se ordres. Même si l’auteur de ces déclarations est ensuite revenu sur ses propos, précisant que l’’anecdote’ était purement ‘hypothétique’, il y a de quoi faire peur en matière de prise de pouvoir de l’intelligence artificielle. Après la démission de Google, en mai dernier, de Geoffrey Hinton, l'un de pionniers de l'IA, les alertes dans le monde informatique se multiplient quant à une « menace existentielle pour l’homme ». On fait le point.
Large Rectangle Ad (336 x 280)

Adhésion requise

Vous devez être membre du site pour accéder à ce contenu.

Voir les niveaux d’adhésion

Already a member? Connectez-vous ici

La Une

Half Page Ad (300 x 600)