Article en couverture

L’avenir de l’IA, selon le plus fou des scientifiques

par Lisa Wirthman

Née de l’imagination des chercheurs des années 1950, l’IA poursuit son développement. Comment pouvons-nous diriger de façon responsable la prochaine vague d’intelligence ?

Temps de lecture : 08 min.

LIRE CET ARTICLE


Il y a vingt ans, l’ordinateur Deep Blue d’IBM a bouleversé le monde en battant le grand maître des échecs, Garry Kasparov, qui a ainsi vécu la première compétition entre un humain et une machine. D’une hauteur d’environ 2 mètres et pesant près de 4 tonnes, Deep Blue était un concurrent redoutable. Toutefois, son intelligence était plus remarquable que sa taille . Les journaux du monde entier se demandaient : « Deep Blue serait-il la dernière étape de l’évolution du cerveau ? »

Aujourd’hui, « Mad » Max Tegmark, un physicien du MIT connu pour ses idées peu orthodoxes, n’est pas tout à fait convaincu que les robots domineront les humains – du moins, pas encore.

« L’IA est supérieure à n’importe quel humain pour des tâches aussi limitées que l’arithmétique, mais elle ne peut même pas faire ce que tout enfant en bonne santé peut faire : apprendre à devenir assez bon dans un certain domaine avec un certain effort », explique-t-il.

Néanmoins, Tegmark nous encourage tous à commencer à envisager un avenir où des machines super intelligentes pourront nous surpasser dans toutes les tâches. Né de l’imagination des informaticiens dans les années 1950, l’intelligence artificielle connaît un essor fulgurant, réinventant notre façon de penser, de vivre et de travailler. Elle alimente également la crainte généralisée que les machines ne prennent la place des humains au travail ou, pire encore, ne deviennent une super-espèce de robots.

Co-fondateur et président du Future of Life Institute, auteur de « Life 3.0: Being Human in the Age of Artificial Intelligence » et auteur de plus de 200 articles techniques, Max Tegmark est une référence en matière d’intelligence artificielle. Pour lui, la question est de savoir si un jour l’IA sera plus intelligente que ses parents.

Un esprit qui lui est propre

Actuellement, l’IA ou Intelligence artificielle – la capacité d’une machine à imiter le comportement humain intelligent – permet aux ordinateurs d’exécuter un large éventail de tâches.

L’IA permet aux gens de suivre et d’améliorer leur sommeil, de planifier des réunions d’affaires et de commander de nouvelles chaussettes par l’entremise d’un assistant vocal. Pour les entreprises, cela consiste à prendre des décisions sur les transactions boursières, à organiser les stocks et à redéfinir le processus d’embauche (plus besoin de passer au crible les CV sur papier). L’IA fait également progresser la science, par exemple la découverte de nouvelles planètes, et les soins de santé, avec le diagnostic de maladies oculaires.

En 2018, ce qu’on appelle l’IA faible est conçue pour accomplir des tâches spécifiques qui lui sont assignées, comme la conduite d’une voiture auto-propulsée ou l’alimentation d’un contenu plus pertinent à un flux de médias sociaux, mais elle commence déjà à accomplir beaucoup plus. Des développements comme l’apprentissage profond (un sous-ensemble de l’IA qui utilise le traitement des données et la reconnaissance de formes pour prendre des décisions non écrites) nous donnent un aperçu de l’avenir de l’IA.

L’étape au-delà de l’apprentissage profond est un concept appelé « intelligence générale artificielle » (IGA), où les machines peuvent détecter, raisonner et apprendre un large éventail de tâches toutes seules. Grâce à l’IGA, les ordinateurs ne se contentent pas de faire ce qu’on leur dit : ils s’adaptent, s’assignant de nouvelles tâches basées sur l’apprentissage appliqué. (Si vous pouvez attacher vos chaussures, par exemple, l’intelligence générale dit que vous serez capable d’attacher d’autres types de nœuds, disons, sur un bateau ou pour emballer un cadeau.)

Selon Max Tegmark, les machines sont loin de faire ce saut et de penser par elles-mêmes. Tant que l’intelligence artificielle n’aura pas acquis des fonctions cognitives telles que l’apprentissage adaptatif, pour Max Tegmark, la technologie d’aujourd’hui est plus susceptible de vous manipuler que de vous annihiler.

« Au lieu de craindre les robots assassins qui essaient de nous exterminer », écrit l’historien Yuval Noah Harari dans une critique du livre de Max Tegmark, « [Tegmark shows us] nous devrions nous préoccuper davantage des hordes de robots qui savent mieux appuyer sur nos boutons émotionnels que notre propre mère…  ».

En plus de manipuler nos sentiments, cette IA avancée peut être utilisée pour réorienter nos habitudes de consommation, modifier notre réception des informations et même influencer nos idéaux philosophiques et politiques. Pourtant, dit Max Tegmark, pour que l’IA atteigne sa maturité, elle devra d’abord s’appuyer sur ses capacités neurales d’apprentissage profond pour développer un esprit qui lui soit propre.

 

« Tout ce que j’aime dans la civilisation est le produit de l’intelligence. Si nous pouvons amplifier notre intelligence humaine avec l’IA et résoudre les plus grands défis d’aujourd’hui, l’humanité pourrait prospérer comme jamais auparavant ».

« Mad » Max Tegmark

Life 3.0

Il est possible qu’une des raisons pour lesquelles Max Tegmark est surnommé le « Fou » réside dans sa croyance que l’intelligence n’est pas limitée aux organismes biologiques.

« Je définis l’intelligence de manière très inclusive, simplement comme la capacité d’atteindre des objectifs complexes, dans la mesure où je veux inclure à la fois l’intelligence biologique et l’intelligence artificielle », déclare Max Tegmark. « Je veux éviter la thèse du chauvinisme du carbone, qui affirme qu’on ne peut être intelligent que si on est fait de chair ».

Dans son livre, Max Tegmark cartographie trois évolutions de l’intelligence. Si Life 1.0 est une forme biologique de base, comparable à une bactérie, qui est préprogrammée, alors Life 2.0 est un humain dont le « matériel » physique prend des années à évoluer mais dont l’intelligence est constamment reprogrammée par l’apprentissage.

De l’imprimerie à Internet en passant par les développements de la médecine et des activités de loisir, Life 2.0 a prouvé sa capacité d’adaptation sur la durée d’une vie. Parallèlement, la lente évolution biologique de l’homme, notre matériel, limite fondamentalement notre croissance. Personne ne peut vivre un million d’années, mémoriser toutes les données de Wikipedia ou voyager dans l’espace sans vaisseau spatial.

L’étape la plus sophistiquée de l’intelligence, selon Max Tegmark, est Life 3.0, qui peut non seulement concevoir son propre logiciel grâce à l’apprentissage, mais aussi mettre à jour son matériel. Implanter des genoux artificiels et des stimulateurs cardiaques peut classer les humains dans la catégorie Life 2.1, mais nous ne pouvons pas changer radicalement notre ADN, dit Max Tegmark. Sans les limites d’un corps biologique et donc d’une durée de vie, le prochain niveau de vie, en théorie, sera capable d’apprendre continuellement et de s’adapter physiquement.

« Life 3.0 est le maître de sa propre destinée, » écrit Max Tegmark, « enfin libéré de ses chaînes évolutives ».

De nombreux chercheurs en intelligence artificielle croient que Life 3.0 arrivera au cours de ce siècle, et c’est pourquoi Max Tegmark pense qu’il est essentiel que les innovateurs réfléchissent à leur rôle dans cette transition. « Je suis convaincu que nous pouvons créer un avenir inspirant avec l’IA, mais cela ne se fera pas tout seul, alors nous devons planifier et travailler en conséquence », explique-t-il. « Si nous faisons bien les choses, l’IA pourrait devenir la meilleure chose qui puisse arriver à l’humanité ».

Pour Max Tegmark, réussir l’intelligence artificielle signifie développer la sagesse nécessaire pour gérer une technologie en évolution. Plutôt que d’être alarmiste, Max Tegmark plaide en faveur de la compréhension des dilemmes technologiques potentiels.

Un exemple : Disons qu’un gros avion civil peut être programmé pour ne pas heurter des objets stationnaires afin d’assurer la sécurité des passagers. Mais que faire s’il est programmé pour accomplir quelque chose de dévastateur à la place ? Et si un jour, des machines super intelligentes réinterprétaient nos objectifs ? Par exemple, que se passe-t-il si un contrôleur IA décide que la meilleure façon d’éviter une collision avec un objet stationnaire est de détruire complètement l’avion ?

C’est pour cette raison que Max Tegmark et d’autres leaders de l’IA mettent l’accent sur le rôle de l’éthique : enseigner aux machines à adopter des objectifs qui bénéficient à l’humanité.

« Maintenant que nos machines deviennent plus intelligentes, il est temps pour nous de leur enseigner les limites », dit Max Tegmark. « Tout ingénieur qui conçoit une machine doit se demander s’il y a des choses qu’il peut mais ne devrait pas faire, et s’il existe un moyen pratique permettant qu’il soit impossible à un utilisateur malveillant ou maladroit de causer du mal ».

Il y a un point potentiel de non-retour dans l’enfance de l’IA, dit Max Tegmark, c’est pourquoi nous devons enseigner aux machines comment apprendre, adopter et retenir nos objectifs avant qu’elles ne nous surpassent et deviennent des adolescentes indisciplinées. « Une IA super-intelligente sera extrêmement efficace pour atteindre ses objectifs, » dit-il, « et si ces objectifs ne sont pas alignés sur les nôtres, nous auront des problèmes ».

Bien qu’il soit impossible de déterminer de quelle manière les différentes entreprises et les différents pays feront évoluer leurs propres règles d’éthique, ce qui est essentiel selon Max Tegmark, c’est d’essayer.

« Nous ne savons pas non plus, si nos enfants deviennent plus intelligents que nous, s’ils conserveront nos objectifs », dit-il. « Cela ne veut pas dire que nous ne devons pas être des parents responsables et faire de notre mieux pour leur enseigner nos meilleures valeurs ».

Créer un avenir éthique

Pour l’instant, l’un des plus grands défis de l’IA est que la technologie se développe plus rapidement que la recherche et la réglementation en matière de sécurité. C’est pourquoi Max Tegmark est convaincu qu’il est préférable de concentrer notre énergie sur le développement plutôt que sur l’arrêt de l’innovation.

« Il est beaucoup plus facile de gagner la course en accélérant la recherche sur la sécurité en matière d’IA, qui [today] bénéficie de beaucoup moins d’attention et de financement », dit-il.

Le Future of Life Institute joue son rôle pour contribuer à cette recherche et à ce consensus. L’organisation de Max Tegmark a parrainé deux conférences, l’une en 2015 et l’autre en 2017, afin de réunir des leaders universitaires et industriels comme Elon Musk et Larry Page pour discuter des questions de sécurité en matière d’IA. Lors de la conférence de 2017, plus d’un millier de chercheurs du monde entier ont signé le document Asilomar AI Principles. L’accord propose 23 principes directeurs concernant l’IA, notamment la nécessité d’intégrer des normes de sécurité qui s’alignent sur les valeurs humaines.

Et bien que Max Tegmark pense que les robots seront un jour plus intelligents que les humains, le chercheur se concentre davantage sur ce que les robots feront plutôt que sur ce qu’ils ressentiront. Les inquiétudes quant à savoir si les robots ont une conscience (à la manière « occidentale »), estime-t-il, ne sont pas pertinentes lorsqu’il s’agit d’évaluer les risques liés à l’IA. Il est essentiel de se rappeler que vous n’avez pas besoin de conscience pour avoir un but. (Un missile thermique a une mission et constitue un risque pour la sécurité, mais n’a pas de conscience.)

Bien sûr, le débat que portent des philosophes et des organisations de défense des droits de l’homme sur la question du traitement des futurs robots comme des êtres doués de sensibilité se poursuivra. Le Nonhuman Rights Project, une organisation à but non lucratif basée en Floride, qui protège les chimpanzés, les gorilles et les orangs-outans, estime que les mêmes principes devraient s’appliquer aux robots.

Steven Wise, de l’équipe juridique de l’organisation, a déclaré à NBC News : « Nous devrions avoir le même genre de responsabilités morales et juridiques à l’égard de [robots] que celles que nous sommes en train de développer à l’égard des animaux non humains. »

Néanmoins, Max Tegmark conseille de ne pas confier toutes les décisions aux chercheurs spécialisés en IA, aux organismes sans but lucratif ou aux philosophes : « Nous devons commencer à dialoguer collectivement sur nos propres objectifs pour l’avenir de l’IA avec nos familles, nos amis, nos collègues et nos élus. Les considérations politiques importantes pour l’IA englobent le financement de la recherche sur la sécurité en matière d’IA, la négociation d’un traité international pour condamner les armes mortelles issue de l’IA et l’examen de la façon dont les richesses créées par les progrès dans ce domaine peuvent être équitablement partagées.

En suscitant un débat général sur l’avenir de l’IA, nous pouvons tous utiliser notre intelligence humaine collective, cognitive et émotionnelle pour créer un avenir bénéfique en la matière », déclare Max Tegmark.

« Tout ce que j’aime dans la civilisation est le produit de l’intelligence », affirme-t-il. « Si nous pouvons amplifier notre intelligence humaine avec l’IA et résoudre les plus grands défis d’aujourd’hui, l’humanité pourrait prospérer comme jamais elle ne l’a fait auparavant ».