Stuart Russell, professeur à l'université de Californie à Berkeley, participe à l'étude de l'ingénierie artificielle (IA) depuis des décennies.
Mais il est aussi l'un de ses critiques les plus connus, du moins du modèle d'IA qu'il considère encore comme "standard" dans le monde.
M. Russell prévient que le modèle dominant de l'IA constitue, selon lui, une menace pour la survie de l'humanité.
Mais, contrairement aux intrigues des films hollywoodiens sur le sujet, il ne s'agit pas de technologies devenant sensibles et se retournant contre nous.
La principale préoccupation de Russell est la façon dont les développeurs humains ont programmé cette intelligence: ils sont chargés d'optimiser leurs tâches autant que possible, en gros à n'importe quel prix.
Ainsi, ils deviennent "aveugles" et indifférents aux problèmes (ou, en fin de compte, à la destruction) qu'ils peuvent causer aux humains.
Le génie est sorti de la bouteille
Pour expliquer cela à BBC News Brésil, M. Russell utilise la métaphore du génie dans une lampe qui exauce les souhaits de son maître."Vous demandez au génie de faire de vous la personne la plus riche du monde, et cela arrive, mais seulement parce que le génie a fait disparaître le reste des gens", dit-il.
"En IA, nous construisons des machines avec ce que j'appelle des modèles standard : on leur donne des objectifs à atteindre ou à optimiser, pour lesquels elles trouvent la meilleure solution possible. Et ensuite, ils exécutent cette action".
Même si cette action est, dans la pratique, préjudiciable aux humains, fait-il valoir.
"Si nous construisons des IA pour optimiser un objectif fixe donné par nous, les machines seront comme des psychopathes, poursuivant cet objectif et étant complètement inconscientes de tout le reste, même si nous leur demandons d'arrêter."
Selon M. Russell, les algorithmes qui régissent les réseaux sociaux en sont un exemple quotidien, qui est devenu si évident ces derniers jours avec la débâcle mondiale qui a affecté Facebook, Instagram et WhatsApp pendant environ six heures.
La tâche principale de ces algorithmes est d'améliorer l'expérience des utilisateurs sur les réseaux sociaux. Par exemple, en recueillant un maximum d'informations sur l'utilisateur et en lui fournissant un contenu adapté à ses préférences afin qu'il reste connecté plus longtemps.
Même si cela se fait au détriment du bien-être des utilisateurs ou de la citoyenneté, poursuit le chercheur.
"Les réseaux sociaux créent des dépendances, des dépressions, des dysfonctionnements sociaux, peut-être de l'extrémisme, une polarisation de la société, et contribuent peut-être à la diffusion de fausses informations", explique M. Russell.
"Et il est clair que leurs algorithmes sont conçus pour optimiser dans un seul but : inciter les gens à cliquer, à passer plus de temps engagé avec le contenu", poursuit-il.
"Et en optimisant ces quantités, nous pourrions causer d'énormes problèmes à la société.
Cependant, poursuit M. Russel, ces algorithmes ne sont pas suffisamment examinés pour être vérifiés ou "corrigés", de sorte qu'ils continuent à travailler pour optimiser leur objectif, quels que soient les dommages collatéraux.
"Les réseaux sociaux n'optimisent pas seulement la mauvaise chose, mais ils manipulent aussi les gens, car en manipulant les gens, ils parviennent à augmenter leur engagement. Et si je peux vous rendre plus prévisible, par exemple en vous transformant en éco-terroriste extrémiste, je peux vous envoyer du contenu éco-terroriste et m'assurer que vous cliquez pour optimiser mes clics."
Ces critiques ont été renforcées la semaine dernière par Frances Haugen, ancienne employée de Facebook (et actuelle lanceuse d'alerte), qui a témoigné devant une audience du Congrès américain.
Mme Haugen dit que les réseaux sociaux "nuisent aux enfants, sèment la discorde et sapent la démocratie".
Facebook a réagi en déclarant que M. Haugen n'a pas suffisamment de connaissances pour faire de telles affirmations.
L'IA avec des "valeurs humaines
M. Russell, à son tour, expliquera ses théories à un public de chercheurs brésiliens le 13 octobre, lors d'une conférence virtuelle de l'Académie des sciences du Brésil.Le chercheur, auteur de "Human Compatibility : Artificial Intelligence and the Problem of Control", est considéré comme un pionnier dans le domaine qu'il appelle "intelligence artificielle compatible avec l'existence humaine".
"Nous avons besoin d'un tout autre type de système d'IA", déclare M. Russell.
Ce type d'IA, poursuit-il, devrait "savoir" qu'elle a des limites, qu'elle ne peut pas atteindre ses objectifs à n'importe quel prix et que, même en tant que machine, elle peut se tromper.
"Cela ferait que cette intelligence se comporte d'une manière complètement différente, plus prudente (...), qu'elle va demander la permission avant de faire quelque chose quand elle n'est pas sûre que c'est ce que nous voulons". Et, dans un cas plus extrême, il voudrait être éteint afin de ne pas faire quelque chose qui pourrait nous nuire. C'est mon message principal", dit-il.
La théorie défendue par Russell ne fait pas partie d'un consensus : il y a ceux qui ne considèrent pas que ce modèle actuel d'IA est menaçant.
Un exemple célèbre des deux côtés de ce débat s'est produit il y a quelques années, lors d'une discussion publique entre entrepreneurs technologiques.
Mark Zuckerberg et Elon Musk.
Un reportage du New York Times rapporte que, lors d'un dîner en 2014, les deux entrepreneurs ont débattu entre eux.
Musk dit qu'il "croit vraiment au danger" que l'IA devienne supérieure et subjugue les humains.
Zuckerberg, cependant, estime que Musk est alarmiste.Dans une interview de la même année, le créateur de Facebook se considérait comme un "optimiste" en matière d'IA et affirmait que les détracteurs, tels que Musk, "créaient des scénarios apocalyptiques et irresponsables".
- Ces ordinateurs qui rejettent votre demande d'emploi
Musk affirme que l'IA est "potentiellement plus dangereuse que les ogives nucléaires".
Une catastrophe nucléaire lente et invisible
Stuart Russell ajoute à l'inquiétude de Musk et établit également des parallèles avec les dangers de la course au nucléaire."Je pense que beaucoup (de spécialistes de la technologie) considèrent cet argument (les dangers de l'IA) comme menaçant, car il dit en gros 'la discipline dans laquelle nous sommes depuis plusieurs décennies est potentiellement un risque'. Certaines personnes considèrent que c'est le contraire de l'IA", déclare M. Russell.
"Mark Zuckerberg pense que les commentaires d'Elon Musk sont anti IA, mais cela me semble ridicule. C'est comme dire que prévenir qu'une bombe nucléaire peut exploser est un argument anti-physique. Ce n'est pas de l'antiphysique, c'est un complément de la physique, pour avoir créé une technologie si puissante qu'elle peut détruire le monde."
"En fait, nous avons eu (les accidents nucléaires) Tchernobyl et Fukushima, et l'industrie a été décimée parce qu'elle n'a pas prêté suffisamment attention aux risques. Donc si l'on veut tirer des avantages de l'IA, il faut faire attention aux risques."
Selon M. Russell, le manque actuel de contrôle sur les algorithmes des réseaux sociaux peut entraîner "d'énormes problèmes pour la société" à l'échelle mondiale. Mais contrairement à une catastrophe nucléaire, celle-ci est "lente et presque invisible".
Alors comment inverser cette tendance ?
Pour Russell, une refonte complète des algorithmes des médias sociaux peut s'avérer nécessaire. Mais d'abord, dit-il, il faut bien les comprendre.
"Découvrir les causes de la polarisation"
M. Russell souligne que chez Facebook, par exemple, même le conseil d'administration indépendant chargé de superviser le réseau social n'a pas pleinement accès à l'algorithme qui sélectionne le contenu vu par les utilisateurs."Mais il y a un grand groupe de chercheurs et un grand projet en cours au Partenariat mondial en IA (GPAI), qui travaille avec un grand réseau social, que je ne peux pas identifier, pour avoir accès aux données et faire des expériences", dit Russell.
"L'essentiel est de faire des expériences avec des groupes de contrôle, de voir avec les gens ce qui provoque la polarisation sociale et la dépression et (de voir) si la modification de l'algorithme améliore cela."
"Je ne dis pas aux gens d'arrêter d'utiliser les médias sociaux ou que c'est intrinsèquement mauvais", poursuit M. Russell.
"(Le problème) est la façon dont les algorithmes fonctionnent, l'utilisation des likes, du téléchargement de contenu (en fonction des likes) ou de sa suppression. La façon dont l'algorithme choisit ce qu'il faut mettre à l'écran semble être basée sur des métriques qui sont préjudiciables aux gens".
"Nous devons donc mettre l'avantage de l'utilisateur au premier plan, ce qui permettra aux choses de mieux fonctionner et aux gens d'être heureux d'utiliser leurs systèmes.
Il n'y aura pas de réponse unique à la question de savoir ce qui est "bénéfique". Par conséquent, selon le chercheur, les algorithmes devront adapter ce concept à chaque utilisateur individuel, une tâche qui, de l'aveu même de Russell, est loin d'être facile.
"En fait, ce (média social) sera l'un des domaines les plus difficiles où ce nouveau modèle d'IA sera mis en pratique", dit-il.
"Je pense vraiment que nous devons repartir de zéro. Nous finirons peut-être par comprendre la différence entre une manipulation acceptable et inacceptable.
Russell poursuit : "par exemple, dans le système éducatif, nous manipulons les enfants pour en faire des citoyens avertis, capables, performants et bien intégrés. Et nous considérons que c'est acceptable.
"Mais si ce même processus devait transformer des enfants en terroristes, ce serait une manipulation inacceptable." Comment faites-vous exactement la différence entre les deux ? C'est une question très difficile. Les réseaux sociaux soulèvent ces questions assez difficiles auxquelles même les philosophes ont du mal à répondre", explique le chercheur.