Un robot joue du piano

Jean-Gabriel Ganascia : « Elon Musk, c'est le pire cauchemar pour la société »

Elon Musk « nous vend en quelque sorte du rêve et l’un de nos pires songes en même temps. » Et ce n'est pas tout à fait par hasard.

Jean-Gabriel Ganascia parle généralement peu. Non que le professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6, président du comité d’éthique du CNRS et Membre du Conseil scientifique de l’Observatoire B2V des Mémoires ne soit inaccessible. Pourtant, ses interventions publiques, à l’image de la conférence organisée cette semaine à l’Ehess, sont de celles qui font progresser le débat.

Et pour cause, face à la marée de conférences, de spécialistes auto-proclamés et de l’avènement du tout IA, ce chercheur de 62 ans a du répondant. Sa mission ? Combattre les idées reçues sur l’existence d’une technologie toute puissante, si forte qu’elle pourrait mettre à terre l’intelligence humaine. Ce concept, baptisé « singularité technologique » est porté aux nues par les tenants de l’évolution à tous crins.

 

 

Leurs porte-voix ne sont pas inconnus. Stephen Hawking, Elon Musk, Frank Wilczek (département de physique du MIT) ou encore Stuart Russell (Berkeley) ont émis des doutes sur la capacité humaine à comprendre, voire contrôler les évolutions à venir de la technologie ou de l’intelligence artificielle. A croire que l’homme devra, à plus ou moins court terme, laisser sa place dans le jeu de l’évolution. L’humain est-il foutu ? Pas si vite rappelle Jean-Gabriel Ganascia.

L'intelligence artificielle va-t-elle surpasser l'humain, comme le soutiennent les partisans de la singularité technologique ?

Jean-Gabriel Ganascia : Les tenants de « l’IApocalypse » sont des personnes connues et respectées pour leurs travaux respectifs. Je pense à Stephen Hawking (spécialiste des trous noirs), Elon Musk, Max Tegmark (cosmologiste au MIT) ou encore Stuart Russell (chercheur en IA et informaticien). Leur argument est de mettre en avant certaines avancées fortes comme l’apprentissage automatique (deep learning) et profond, les progrès des voitures autonomes ou de la reconnaissance vocale pour prétexter que l’humain sera bientôt dépassé par ces technologies.

Ils omettent toutefois un point crucial, ces progrès ont des limites et sont loin de mettre en échec l’humain dans l’ensemble de ses capacités. Il faut également prendre garde aux termes employés. Actuellement, de nombreux chercheurs ont publié leurs travaux à propos de réseaux neuronaux. Sur ce point, par exemple, nous sommes loin de reproduire le cerveau humain. Ce dernier peut contenir jusqu’à 100 milliards de neurones. A ceux-ci s’ajoutent 10 à 50 fois plus de cellules gliales, à propos desquelles une partie de la communauté scientifique s’interroge encore. Enfin, notre cerveau contient entre 1 000 et 10 000 synapses par neurone. Chaque synapse établit des connexions entre-elles. Imaginez les possibilités offertes… alors que la technologie est encore loin du compte.

 

Ne dit-on pas que les IA sont intelligentes. Dans la mesure où elles sont capables d'apprendre seules ?

JG G : Ne nous trompons pas de terminologie. Les intelligences artificielles font de l’apprentissage supervisé. C’est-à-dire qu’elles apprennent sous couvert du soutien de l’homme, qui les dirigent via des algorithmes, des règles, des patterns. Mais les IA ne font pas réellement d’apprentissage non-supervisé. Tout est toujours cadré.

De même, l’apprentissage est une notion complexe qui peut demander à ce que de nombreux travaux soient réalisés en amont. Actuellement, les techniques d’apprentissage qui marchent sont supervisées. Des « petites mains » opèrent un travail de fond. Prenons la publicité ciblée par exemple. Pour que cela fonctionne, cela nécessite une phase d’apprentissage longue pour enregistrer les préférences du client, ses habitudes, ses souhaits…

 

Il y a donc des choses qui se font en matière d’apprentissage non-supervisé mais, pour le moment, les limites sont grandes.

L'homme ne sera donc jamais dépassé par une intelligence artificielle ou une machine ?

JG G : J’attends les arguments en faveur de cette assertion. Pour le moment il n’en existe aucun. Soyons clairs. Lorsque Google embauche l’auteur de Science-fiction Raymond Kurzweil, c’est à dessein, dans un but précis. Celui de démontrer que la technologie peut faire peur et qu’il faut s’en méfier. Mais qui sont ceux qui apportent une solution ? Ce sont ces mêmes personnes, Google en tête.

Portrait de jean gabriel ganascia

Lorsqu’Elon Musk affiche sa crainte de l’intelligence artificielle, il précise ensuite qu’il entend créer une société qui va promouvoir le transhumanisme (ndr, l’amélioration de l’humain par le biais d’éléments connectés, bioniques). Ce que propose Elon Musk, c’est le pire cauchemar pour une société. Il nous vend en quelque sorte du rêve et l’un de nos pires songes en même temps.

Qui est responsable ? Les auteurs de SF, les chercheurs, les spécialistes, les journalistes ?

JG G : Lorsque des scientifiques reprennent des thèses issues de la Science-fiction, je pense que cela crée des décalages. Mais le problème majeur n’est pas là. Désormais, des hurluberlus occupent des postes importants au sein de grandes multinationales. Le philosophe Nick Bostrom collabore par exemple avec Elon Musk. Il donne en quelque sorte une caution professionnelle à ses propres théories sur le fait que l’humain n’est finalement qu’une représentation simulée. Tout ceci peut paraître amusant mais des multinationales financent ces propos, et bien souvent des Etats soutiennent cette visée hégémonique.

Les groupes industriels sont la clé du problème ?

JG G : Les groupes industriels veulent forger une croyance. Que la technologie est toute puissante, inarrêtable. Mais ce qui sous-tend leur action va plus loin. Ces sociétés ont des ambitions politiques. Ils sont libertariens par nature et veulent donc la destruction des Etats. L’ambition de ces acteurs, principalement américains, est de dépecer l’Europe. Les autres Etats majeurs (Chine et Russie) sont fermés, la cible est donc toute désignée.

Comment agir pour se prémunir ?

JG G : Je défends l’idée selon laquelle il y a toujours une liberté à la portée de tous. Le déterminisme technologique n’existe pas. Mais qui dit liberté signifie de grandes responsabilités. Il est donc nécessaire qu’existe une prise de conscience forte. J’entends par là que chacun comprenne les ressorts à l’œuvre. Prenons Netflix par exemple, le principe des algorithmes de recommandation fait que le plaisir réel du choix disparait car ils tentent de stimuler notre désir. Ces modèles proposent de faire une sélection qui n’est pas fondée sur ce que l’on souhaite réellement car leur base, leur catalogue n’est pas complet.

En définitive, la question que se pose Netflix est de savoir si vous allez ou non conserver votre abonnement. Il va donc tenter de prolonger votre plaisir, même artificiellement. Quant à l’utilisateur, il doit apprendre à maîtriser ses envies, sans quoi les relations client-sociétés deviendront inégalitaires.


Jean-Gabriel Ganascia est professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6 et président du comité d’éthique du CNRS. Il est l’auteur de Le Mythe de la Singularité (Editions du Seuil), véritable essai critique sur le thème du dépassement de l’humain par la machine.

commentaires

Participer à la conversation

  1. Avatar Thomas Jestin dit :

    "Les tenants de « l’IApocalypse » sont des personnes connues et respectées pour leurs travaux respectifs. Je pense à Stephen Hawking (spécialiste des trous noirs), Elon Musk, Max Tegmark (cosmologiste au MIT) ou encore Stuart Russell (chercheur en IA et informaticien). Leur argument est de mettre en avant certaines avancées fortes comme l’apprentissage automatique (deep learning) et profond, les progrès des voitures autonomes ou de la reconnaissance vocale pour prétexter que l’humain sera bientôt dépassé par ces technologies. Ils omettent toutefois un point crucial, ces progrès ont des limites et sont loin de mettre en échec l’humain dans l’ensemble de ses capacités. "

    ==Personne ne prétend que ces progrès mettent aujourd'hui en échec l'humain sur l'ensemble de ses capacités. Il enfonce une porte ouverte. La question est de savoir si cela arrivera et si oui, quand. Il lui appartient de ridiculiser cette interrogation, mais au final une bonne partie des chercheurs en IA pensent non seulement que c'est possible, mais en plus que ça arrivera au 21ème siècle! Cela doit nous interpeller et nous amener à nuancer les propos de Jean-Gabriel Ganascia

    ___

    "Actuellement, de nombreux chercheurs ont publié leurs travaux à propos de réseaux neuronaux. Sur ce point, par exemple, nous sommes loin de reproduire le cerveau humain."

    ==oui le cerveau humain est très compliqué, on n'en comprend pas grand chose, mais bcp de chercheurs en IA pensent qu'on atteindra et dépassera le niveau de l'intelligence humaine non pas en copiant à la perfection le cerveau, juste en s'en inspirant. C'est l'exemple déjà cité ici de la conquête du ciel par l'homme avec des avions qui ne battent pas des ailes. Il faut aussi voir que l'évolution biologique est aussi compliquée par son besoin d'être économe en énergie, de s'auto-assembler et s'auto-réparer. On n'a pas besoin de reproduire cette part-là de notre complexité pour accoucher d'une IA super-intelligente.

    ____

    "Les intelligences artificielles font de l’apprentissage supervisé. C’est-à-dire qu’elles apprennent sous couvert du soutien de l’homme, qui les dirigent via des algorithmes, des règles, des patterns. Mais les IA ne font pas réellement d’apprentissage non-supervisé."

    == c'est vrai, pour l'instant, même si on peut rappeler que dès 2012 Google avait développé un algo capable de reconnaître des chats ds des screenshots de vidéos youtube en apprentissage non-supervisé. C'est vrai qu'on peut se demander pourquoi on n'a si peu progressé en la matière depuis. Mais encore une fois, cela ne préjuge pas de ce qui va se passer. Yann LeCun dit aussi : "If intelligence was a cake, unsupervised learning would be the cake, supervised learning would be the icing on the cake, and reinforcement learning would be the cherry on the cake. We know how to make the icing and the cherry, but we don’t know how to make the cake."

    En réalité l'apprentissage non-supervisé est le gâteau qui fait baver tous les chercheurs, il est bien présomptueux qu'il leur résistera pour toujours, ou même que 30 ans...restons prudent et réfléchissons aux conséquences si la super IA voit le jour...

    ____

    "Lorsqu’Elon Musk affiche sa crainte de l’intelligence artificielle, il précise ensuite qu’il entend créer une société qui va promouvoir le transhumanisme (ndr, l’amélioration de l’humain par le biais d’éléments connectés, bioniques). Ce que propose Elon Musk, c’est le pire cauchemar pour une société. Il nous vend en quelque sorte du rêve et l’un de nos pires songes en même temps."

    === "pire cauchemar" : y'a débat, y'a du pour et du contre, c'est pas aussi tranché il me semble. il décrète quant à lui que c'est un cauchemar mais il n'en fait pas la démontration. Si ces prothèses permettent d'oublier des souvenirs traumatisants, ou de ne pas oublier des bons souvenirs et mieux lutter contre Alzheimer, la démence, la dépression, est-ce que c'est à interdire ? Pente glissante peut-être, mais le débat reste entier, il le tue un peu vite 🙁

    _____________

    " Les groupes industriels veulent forger une croyance. Que la technologie est toute puissante, inarrêtable. Mais ce qui sous-tend leur action va plus loin. Ces sociétés ont des ambitions politiques. Ils sont libertariens par nature et veulent donc la destruction des Etats. L’ambition de ces acteurs, principalement américains, est de dépecer l’Europe."

    ===== un procès d'intention gratuit.. l'ambition des GAFA serait donc de dépecer l'Europe ? qu'est-ce que ça veut dire ? ça sonne creux et appelle plus d'arguments. Les GAFA profitent très largement aux gens par ailleurs, dire que le bilan est de très loin négatif est très hâtif, surtout sans explication

    _____________

    "Prenons Netflix par exemple, le principe des algorithmes de recommandation fait que le plaisir réel du choix disparait car ils tentent de stimuler notre désir. Ces modèles proposent de faire une sélection qui n’est pas fondée sur ce que l’on souhaite réellement car leur base, leur catalogue n’est pas complet."

    === Tant qu'on peut fouiller le reste du catalogue par ailleurs, il me semble qu'une liste de recommandations est mieux qu'aucune recommandation. Et quitte à suggérer des options, il faut forcément un algorithme pour décider de l'ordre dans lequel les placer. Pourquoi pas un ordre reposant sur ce que je suis le plus susceptible d'aimer ? Plutôt que l'ordre alphabétique ou n'importe quel autre ordre ?

    C'est une critique récurrente des machines qui avec leurs algos de recommandation tueraient la "sérendipité" et nous enfermeraient dans des bulles d'information. Mais c'est une erreur, on peut très bien programmer une algo pour introduire 5%, 10%, 30%, 80% de nouveautés, pour recréer de la sérendipité. L'IA ne suppose pas de tuer le hasard, il est très facile d'injecter une dose de hasard dans des algos.

    Plus de commentaires sur l'IA ici : http://www.thomasjestin.com et https://twitter.com/thomasjestin

  2. Avatar Damien dit :

    La force d'Elon Musk est celle d'un entrepreneur : mettre en forme des projets, les financer, les développer avec une équipe. Il pourrait le faire dans de nombreux domaines et ceux qu'il a choisis sont ceux qui offrent des perspectives de développement économique intéressant à ses yeux. Mon point de vue est qu'il a réussi par exemple à doubler des groupes automobiles enlisés et trop gros pour prendre des décisions stratégiques rapides : c'est la force d'une entreprise jeune et au très court niveau de décision hiérarchique. Ne lui enlevons rien de son mérite.
    En ce qui concerne ses croyances sur l'IA, là nous ne sommes pas sur du développement économique mais sur du subjectif et des prospectives. Chacun est libre de penser que l'orientation globale de ce développement de cette technologie (car il ne s'agit pas d'intelligence au sens propre du terme) ira dans un sens bénéfique pour certains et malheureux pour d'autres. Au fond, il s'agit des avantages et inconvénients du développement de toute offre technologique. Certains pourront s'y adapter mais d'autres en seront esclaves (pour le coup, au sens propre du terme)
    En ce qui me concerne, le fait de dire aujourd'hui comme ce professeur "Tout est cadré" et maîtrisé me fait doucement rire....
    J'espère être assez lucide plus tard pour relire cet article le jour où un "objet technologiquement savant et indépendant dans sa prise de décision" viendra chez ce enseignant en lui proposant des services parfaitement adaptés à son style de vie qui sera étudié par son comportement on-line.
    Lucie mais triste

  3. Avatar facile _a_critiquer dit :

    Interview utopique d'un chercheur du CNRS, pour rappel Budget CNRS : 3,3 milliards EUR pour des innovations pas toujours bien choisie, Elon fait la meme chose avec ses propres deniers et sur des sujets bien réels en 2018 ! think about

  4. Avatar JulienN dit :

    Ce monsieur appelle juste à une certaine prise de recul et de conscience. Et vu le ton tout de suite défensif de vos commentaires, cet appel ne semble pas superflu.

  5. […] et chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6, exprime dans une interview[24] sur le site « L’ADN » que la technologie est encore très loin de pouvoir se connecter à […]

Laisser un commentaire