danger intelligence artificielle
Traduction : "Jusqu'où devons nous aller ?"

Mise en garde de Stephen Hawking face au développement de l'intelligence artificielle

Lors d’un entretien avec BBC News (chaîne d’information britannique) en 2014, l’astrophysicien nous fait part de sa peur vis à vis de l’Intelligence Artificielle. Il craint que les humains ne se laissent dépasser par les robots, et ce, notamment, car les êtres humains rencontrent une croissance biologique plus lente.  Hawking nous met donc en garde contre le développement rapide de cette discipline que l’on peut comparer à un scénario de Terminator.

Bien qu’il soit principalement connu pour ses travaux sur les trous noirs et l’univers plus largement, il était malgré tout un personnage clé dans le combat contre l’intelligence artificielle (IA). Il pense que « le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité » mettant d’ailleurs en lumière, que l’Homme lui-même, conçoit  des robots capables de le surpasser.  Il invite donc tout le monde à se rendre compte des dangers de l’intelligence artificielle.

Hawking, signataire de la "lettre ouverte" contre les robots-tueurs

Le 28 Juillet 2015, lors de l’ouverture de la conférence IJCAI (International Joint Conferences on Artificial Intelligence), le cosmologiste devient alors signataire d’une lettre ouverte contre les armes autonomes qui s’attaquent à des cibles sans intervention humaine au préalable. Par exemple, le drone quadrirotor armé.

Bien que ces armes autonomes permettraient de réduire la perte humaine sur le terrain, de tels engins, peu coûteux en matière première, ne mettraient donc pas beaucoup de temps pour arriver dans les mains des terroristes et dictateurs.  On peut donc prévoir une omniprésence de ces armes dans les années à venir. Par ailleurs, ces armes semblent idéales pour réaliser des assassinats, meurtres en masse ou encore, afin de procéder à des nettoyages ethniques.

Cette lettre ouverte évoque également le fait que de nombreux chercheurs en intelligence artificielle ne souhaitent pas le développement de ces armes autonomes tueuses. Ce sujet est donc bel et bien, à polémique, puisqu’aucune intervention humaine n’est nécessaire.

En complément de Stephen Hawking, on notera également d’autres signataires importants :

  • Eric Horvitz, directeur de la recherche chez Microsoft
  • Yann LeCun, directeur IA chez Facebook
  • Laurent Orseau, ingénieur français chez Google
  • Elon Musk, fondateur de Tesla et SpaceX

Vidéo de l'interview de Stephen Hawking avec BBC News

Découvrez l’entretien de Stephen Hawking sur BBC News. Si besoin vous pouvez prendre connaissance de quelques traductions françaises de l’interview, située sous la vidéo. Hawking commence à parler de l’Intelligence Artificielle vers 4′.

Traduction française de l'échange entre Hawking et le journaliste

  • « Internet a apporté beaucoup de bénéfices mais aussi des dangers tels que la pornographie »
  •  « Internet a facilité la criminalité et le terrorisme »
  • « L’intelligence artificielle que nous connaissons a été très utile. Mais je pense que le développement d’une intelligence artificielle complète pourrait provoquer la fin de la race humaine. Elle prendrait le dessus sur lui et le surpasserait »
  •  « Les humains sont limités par leur évolution biologique lente,  ne pourrons pas concurrencer l’intelligence artificielle »