D’après Stephen Hawking, « l’intelligence artificielle pourrait sonner le glas de la race humaine »

12 octobre 2015
Mis à jour: 12 octobre 2015

Sur Reddit, le scientifique Stephen Hawking a poursuivi sa croisade en faveur d’un encadrement sécuritaire de l’intelligence artificielle (IA). Pour ce physicien théoricien et cosmologiste, il est urgent de poser dès maintenant, et non dans un futur plus ou moins lointain, les bases de ces protocoles.

« Nous devons changer la direction que nous avons prise avec la création d’une IA pure, non circonscrite, pour nous orienter vers une intelligence bénéfique », écrit le célèbre scientifique. « La maitrise de ce processus pourrait bien nous prendre des décennies, d’où l’urgence de s’y attaquer dès aujourd’hui, plutôt que la veille de la mise en route d’une IA au point ».

Hawking a mis sa notoriété à profit pour soutenir dès 2014 le mouvement pour l’encadrement et la sécurisation de l’IA. Avec d’autres éminents chercheurs, il avait averti dans un éditorial des risques existentiels que des machines intelligentes de pointe pourraient faire peser sur l’humanité. D’autres personnalités publiques de l’univers des sciences et des technologies comme Elon Musk et Steve Wozniak, ont depuis rejoint le physicien dans l’effort de sensibilisation du public aux risques de l’IA. Plus tôt cette année, les trois scientifiques ont signé une lettre ouverte, appelant à l’interdiction des armes autonomes et des robots armés.

La croyance selon laquelle l’humanité est sur le point de créer une intelligence artificielle qui lui est supérieure, remonte aux années 1950. Régulièrement cet avènement a été déjoué, mais la plupart des chercheurs d’IA restent convaincus que nous verrons dans le prochain siècle l’émergence d’une machine intelligente de niveau humain.

Pour Hawking, les représentations d’une IA de pointe, dépeintes dans la culture populaire, s’éloignent des menaces réelles posées par les machines. Des films comme Terminator mettent en scène des robots-tueurs diaboliques, qui cherchent à détruire l’humanité, attribuant aux machines des motivations irréalistes et du coup réduisent, par cette simplification les dangers de l’IA (qui se résument alors à surtout ne pas fabriquer de robots tueurs).

 

GettyImages-181169057-676x450
Le Physicien théoricien Stephen Hawking , lors de la soirée d’ouverture du Festival de Cambridge, dans l’est de l’Angleterre, ce 23 septembre. (ANDREW COWIE/AFP/Getty Images)

 

« Le vrai danger que pose l’IA, n’est pas en terme de malveillance, mais de compétence. Une IA très compétente, sera extrêmement efficace dans la réalisation de ses objectifs. Si ses objectifs entrent en collision avec les nôtres, alors nous serons dans le pétrin », prévient Hawking. « Vous n’êtes probablement pas un tueur-en-série-pathologique-de-fourmi, qui ne peut s’empêcher d’en écraser dès qu’il en rencontre, par pure méchanceté. Cependant, imaginez que vous soyez responsable en chef d’un projet hydroélectrique à base d’énergie verte et que vous remarquez une invasion de fourmis, venant d’une fourmilière locale, eh bien, tant pis pour les fourmis. Faisons tout pour que l’humanité ne se retrouve pas à la place de ces fourmis ».

Les scénarios apocalyptiques imaginés par certains philosophes populaires de l’IA comme Nick Bostrom, impliquent des programmes bénins qui dévient dans l’exécution de leur tâche en apparence bénigne, et se retrouve à vouloir éliminer l’humanité, pour accomplir leur tâche de « protéger l’environnement ». Dans Avengers 2 : l’Age d’Ultron, des superhéros sont aux prises avec une intelligence artificielle supérieure qui ne fait aucune différence entre tuer l’humanité et la sauver.

Grâce à de généreux donateurs comme Musk, qui a plus tôt cette année offert 10 millions de dollars à la recherche sur la sécurisation de l’IA, les travaux pour prévenir l’avènement d’un scénario à la Terminator-Skynet, sont sur de bons rails dans les universités. Toutefois, c’est à l’échelle de la culture populaire que Hawking espère une transformation de notre perception de l’IA.

Le physicien a ainsi conseillé un professeur qui enseigne l’IA à ses étudiant : « s’il vous plaît, encouragez vos étudiants à réfléchir, non seulement à l’implémentation de l’IA, mais aussi à la façon de s’assurer de son utilité pratique ». Hawking termine : « lorsque qu’elle émergera [une IA de niveau super-humain], elle pourra soit être la meilleure ou la pire chose que l’humanité aie jamais connue. Donc, il est capital de ne pas se tromper ».

Article en anglais Stephen Hawking: We Need to Start Working on AI Safety Right Now 

Soutenez Epoch Times à partir de 1€

Vous pouvez nous aider à vous tenir informés

Pourquoi avons-nous besoin de votre soutien ? Parce que Epoch Times est un média indépendant ne recevant aucune aide de l’État et n’appartenant à aucun groupe politique ou financier. Un journalisme indépendant et gratuit est de plus en plus difficile à obtenir en ces temps où la vérité est à la fois de plus en plus nécessaire et de plus en plus censurée. C’est pourquoi nous avons besoin de votre soutien. Chaque don est important et vous ouvre le droit à une déduction fiscale de 66%.

RECOMMANDÉ