Jean-Gabriel Ganascia : «Elon Musk, c’est le pire cauchemar pour la société»
Paru sur ladn.eu | 14.02.2018 | Olivier Robillart
Elon Musk «nous vend en quelque sorte du rêve et l’un de nos pires songes en même temps.» Et ce n’est pas tout à fait par hasard.
Jean-Gabriel Ganascia parle généralement peu. Non que le professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6, président du comité d’éthique du CNRS et Membre du Conseil scientifique de l’Observatoire B2V des Mémoires ne soit inaccessible. Pourtant, ses interventions publiques, à l’image de la conférence organisée cette semaine à l’Ehess, sont de celles qui font progresser le débat.
Et pour cause, face à la marée de conférences, de spécialistes auto-proclamés et de l’avènement du tout IA, ce chercheur de 62 ans a du répondant. Sa mission ? Combattre les idées reçues sur l’existence d’une technologie toute puissante, si forte qu’elle pourrait mettre à terre l’intelligence humaine. Ce concept, baptisé « singularité technologique » est porté aux nues par les tenants de l’évolution à tous crins.
Leurs porte-voix ne sont pas inconnus. Stephen Hawking, Elon Musk, Frank Wilczek (département de physique du MIT) ou encore Stuart Russell (Berkeley) ont émis des doutes sur la capacité humaine à comprendre, voire contrôler les évolutions à venir de la technologie ou de l’intelligence artificielle. A croire que l’homme devra, à plus ou moins court terme, laisser sa place dans le jeu de l’évolution. L’humain est-il foutu ? Pas si vite rappelle Jean-Gabriel Ganascia.
L’intelligence artificielle va-t-elle surpasser l’humain, comme le soutiennent les partisans de la singularité technologique?
Jean-Gabriel Ganascia : Les tenants de « l’IApocalypse » sont des personnes connues et respectées pour leurs travaux respectifs. Je pense à Stephen Hawking (spécialiste des trous noirs), Elon Musk, Max Tegmark (cosmologiste au MIT) ou encore Stuart Russell (chercheur en IA et informaticien). Leur argument est de mettre en avant certaines avancées fortes comme l’apprentissage automatique (deep learning) et profond, les progrès des voitures autonomes ou de la reconnaissance vocale pour prétexter que l’humain sera bientôt dépassé par ces technologies.
Ils omettent toutefois un point crucial, ces progrès ont des limites et sont loin de mettre en échec l’humain dans l’ensemble de ses capacités. Il faut également prendre garde aux termes employés. Actuellement, de nombreux chercheurs ont publié leurs travaux à propos de réseaux neuronaux. Sur ce point, par exemple, nous sommes loin de reproduire le cerveau humain. Ce dernier peut contenir jusqu’à 100 milliards de neurones. A ceux-ci s’ajoutent 10 à 50 fois plus de cellules gliales, à propos desquelles une partie de la communauté scientifique s’interroge encore. Enfin, notre cerveau contient entre 1 000 et 10 000 synapses par neurone. Chaque synapse établit des connexions entre-elles. Imaginez les possibilités offertes… alors que la technologie est encore loin du compte.
Ne dit-on pas que les IA sont intelligentes. Dans la mesure où elles sont capables d’apprendre seules?
JG G : Ne nous trompons pas de terminologie. Les intelligences artificielles font de l’apprentissage supervisé. C’est-à-dire qu’elles apprennent sous couvert du soutien de l’homme, qui les dirigent via des algorithmes, des règles, des patterns. Mais les IA ne font pas réellement d’apprentissage non-supervisé. Tout est toujours cadré.
De même, l’apprentissage est une notion complexe qui peut demander à ce que de nombreux travaux soient réalisés en amont. Actuellement, les techniques d’apprentissage qui marchent sont supervisées. Des « petites mains » opèrent un travail de fond. Prenons la publicité ciblée par exemple. Pour que cela fonctionne, cela nécessite une phase d’apprentissage longue pour enregistrer les préférences du client, ses habitudes, ses souhaits…
Il y a donc des choses qui se font en matière d’apprentissage non-supervisé mais, pour le moment, les limites sont grandes.
L’homme ne sera donc jamais dépassé par une intelligence artificielle ou une machine?
JG G : J’attends les arguments en faveur de cette assertion. Pour le moment il n’en existe aucun. Soyons clairs. Lorsque Google embauche l’auteur de Science-fiction Raymond Kurzweil, c’est à dessein, dans un but précis. Celui de démontrer que la technologie peut faire peur et qu’il faut s’en méfier. Mais qui sont ceux qui apportent une solution ? Ce sont ces mêmes personnes, Google en tête.
Lorsqu’Elon Musk affiche sa crainte de l’intelligence artificielle, il précise ensuite qu’il entend créer une société qui va promouvoir le transhumanisme (ndr, l’amélioration de l’humain par le biais d’éléments connectés, bioniques). Ce que propose Elon Musk, c’est le pire cauchemar pour une société. Il nous vend en quelque sorte du rêve et l’un de nos pires songes en même temps.
Qui est responsable? Les auteurs de SF, les chercheurs, les spécialistes, les journalistes?
JG G : Lorsque des scientifiques reprennent des thèses issues de la Science-fiction, je pense que cela crée des décalages. Mais le problème majeur n’est pas là. Désormais, des hurluberlus occupent des postes importants au sein de grandes multinationales. Le philosophe Nick Bostrom collabore par exemple avec Elon Musk. Il donne en quelque sorte une caution professionnelle à ses propres théories sur le fait que l’humain n’est finalement qu’une représentation simulée. Tout ceci peut paraître amusant mais des multinationales financent ces propos, et bien souvent des Etats soutiennent cette visée hégémonique.
Les groupes industriels sont la clé du problème?
JG G : Les groupes industriels veulent forger une croyance. Que la technologie est toute puissante, inarrêtable. Mais ce qui sous-tend leur action va plus loin. Ces sociétés ont des ambitions politiques. Ils sont libertariens par nature et veulent donc la destruction des Etats. L’ambition de ces acteurs, principalement américains, est de dépecer l’Europe. Les autres Etats majeurs (Chine et Russie) sont fermés, la cible est donc toute désignée.
Comment agir pour se prémunir?
JG G : Je défends l’idée selon laquelle il y a toujours une liberté à la portée de tous. Le déterminisme technologique n’existe pas. Mais qui dit liberté signifie de grandes responsabilités. Il est donc nécessaire qu’existe une prise de conscience forte. J’entends par là que chacun comprenne les ressorts à l’œuvre. Prenons Netflix par exemple, le principe des algorithmes de recommandation fait que le plaisir réel du choix disparait car ils tentent de stimuler notre désir. Ces modèles proposent de faire une sélection qui n’est pas fondée sur ce que l’on souhaite réellement car leur base, leur catalogue n’est pas complet.
En définitive, la question que se pose Netflix est de savoir si vous allez ou non conserver votre abonnement. Il va donc tenter de prolonger votre plaisir, même artificiellement. Quant à l’utilisateur, il doit apprendre à maîtriser ses envies, sans quoi les relations client-sociétés deviendront inégalitaires.
Jean-Gabriel Ganascia est professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6 et président du comité d’éthique du CNRS. Il est l’auteur de Le Mythe de la Singularité (Editions du Seuil), véritable essai critique sur le thème du dépassement de l’humain par la machine.