Le cas d’étude Sophia – Quand robotique et « machine learning » se rencontrent


Robotique, intelligence artificielle, big data, IoT, blockchain… Autant de termes qui démontrent que nous sommes bel et bien ancrés dans l’ère de la transformation digitale et au sens plus large ; dans une nouvelle révolution industrielle et sociétale. Si à l’heure actuelle certains de ces points sont plus développés que d’autres, l’association de la robotique et du « machine learning » (apprentissage automatique) n’en est encore qu’à ses prémices. Le robot humanoïde Sophia, premier robot à obtenir la citoyenneté d’un pays, nous donne un aperçu de l’environnement dans lequel l’humanité se dirige avec ses futures craintes et exaltations.

L’intelligence artificielle : une définition écorchée ?

On parle de plus en plus d’intelligence artificielle sur Internet et dans les médias depuis plusieurs années. Le terme même de l’intelligence artificielle est pourtant souvent utilisé à tort et à travers. En effet, on peut définir cette notion d’IA comme étant une composante de la science numérique ayant pour objectif de créer des machines et programmes intelligents qui imitent / reproduisent le comportement humain. Plus spécifiquement, l’IA est capable d’apprendre, planifier, penser, analyser, communiquer, résoudre des problèmes et enfin bouger des objets. De nos jours, on peut retrouver de l’IA dans presque tous les secteurs : le commerce, la finance, la médecine, l’industrie, la défense, l’éducation ou même le juridique.

Cette définition est cependant parfois critiquée dans son utilisation. La notion d’intelligence artificielle à trop souvent tendance à être utilisée pour des applications qui selon certains points de vue n’en sont finalement pas. Quels sont les contours de l’IA ? Peut-on considérer un outil automatisé et programmé pour une tâche spécifique comme étant intelligent ? Qu’est-ce que l’intelligence ? Le débat reste ouvert. Quoiqu’il en soit, on retrouve deux définitions de l’IA. D’un côté une définition au sens large reprise ci-dessus. D’un autre côté, on souhaite insister sur la notion de « machine learning » pour qu’il y ait l’existence d’une réelle IA. Cet angle de vue sous-entend que le « machine learning » est une sous-composante de l’intelligence artificielle. En d’autres termes, il y aurait un « weak AI » (IA faible) et un « strong AI » (IA forte).

« Weak AI » versus « strong AI »

Le « weak AI » se caractérise par la programmation et la création d’un(e) machine / programme pour exécuter une ou plusieurs tâches spécifiques. Il ne s’agit pas d’une réelle intelligence à proprement parler mais d’un outil avec un cadre d’utilisation bien défini. Typiquement, on retrouve de l’IA faible dans de nombreux produits électroménagers. L’avantage de ce type d’IA est sa facilité de programmation étant donné qu’elle n’est créée que dans un but précis.

Le « strong AI » quant à lui reprend le terme de « machine learning ». Il suggère que l’IA est capable d’apprendre, de continuellement enrichir ses connaissances par l’expérience et donc d’évoluer. Le modèle d’apprentissage automatique repose sur l’analyse d’une grande quantité de données et leur traitement sans programmation au préalable. Le programme s’adapte au contenu ceci le rendant intuitif. Pour ce faire, un algorithme analyse et apprend de multiples scénarios (données) passés qui se basent sur un cas particulier et va ensuite établir une prédiction par rapport à un nouveau scénario. D’énormes progrès ont été faits ces dernières années dans ce domaine et devraient continuer d’améliorer notre quotidien. On peut retrouver du « machine learning » dans tous les secteurs. A titre d’exemple, le secteur médical risque de connaitre de grands bouleversements dans un futur proche. Nous sommes désormais en capacité d’analyser et d’identifier des tumeurs sur des radiographies grâce à de l’intelligence artificielle.

Finalement, bien qu’il soit possible de diviser l’IA en deux avec d’un côté le « weak AI » et de l’autre le « strong AI » (intégrant le « machine learning »), on peut également considérer le « machine learning » comme un sous-ensemble.

La robotique et le « machine learning » fusionneront

Cela fait des dizaines d’années que la robotique est présente dans notre société. On le voit notamment dans le secteur industriel de l’automobile où souvent une partie de la chaîne de production est robotisée pour ce qui est de l’assemblage ou des soudures par exemple. Nos maisons en sont déjà équipées, elles sont déjà de plus en plus équipées de petits robots domestiques comme les robots aspirateurs et laveurs de sol. Autre exemple plus ludique, le robot chien Aibo de Sony était commercialisé il y a presque 20 ans.

Si l’IA et la robotique existent et progressent séparément, un long chemin reste à parcourir avant de voir émerger un robot multitâche avec une conscience virtuelle qui se rapproche de l’humain. En effet, l’humain est extrêmement complexe avec ses milliards de neurones. La créativité, l’improvisation, la prise de décision ou l’émotion sont autant de caractéristiques propres à Homo sapiens qui mettront du temps avant de pouvoir être « égalées » par un robot.

Sophia, un reflet sur le futur de l’humanité

Si en 2018 le « weak IA » est omniprésent, le développement du « machine learning » ne fait que commencer. Depuis sa création en 2015 par l’entreprise hongkongaise Hanson Robotics, le robot Sophia a fait couler beaucoup d’encre. Elle a émerveillé mais également intrigué en mettant en lumière de nouvelles problématiques sociales et morales. Ce robot humanoïde qui reprend les traits d’Audrey Hepburn est capable d’analyser et de reproduire le comportement non-verbal de l’être humain. Sophia peut par ailleurs interagir avec ses interlocuteurs en répondant à leurs questions.

Dans les faits, même si Sophia est impressionnante dans sa ressemblance et dans son comportement humain, elle ne reste tout de même qu’un « weak IA » à la frontière du « strong IA ». Son discours est pré-codé et ses réponses s’adaptent par rapport aux mots clés analysés qui ont été prononcés par son interlocuteur. A l’heure actuelle, Sophia n’est pas capable de penser par elle-même dès lors qu’on sort des sentiers battus. Elle n’a pas de conscience virtuelle et reste le fruit d’une programmation effectuant des tâches spécifiques pour lesquelles elle a été conçue. Bien que ce soit une réelle prouesse technologique, Sophia est encore loin d’être une intelligence artificielle à part entière et reste pour le moment un reflet de la trajectoire que notre société pourrait prendre dans les prochaines années.

Entre craintes et exaltations

Des craintes légitimes

Avec l’apparition de l’intelligence artificielle et de la robotique, de nouvelles problématiques apparaissent. L’une des principales craintes est la disparition de milliers de métiers et de voir apparaître un chômage de masse. En effet, la robotique tout comme l’IA au sens large sont développés pour être plus performant que l’humain. Ils commettent moins d’erreur, n’ont pas de contraintes physiques comme tomber malade ou le besoin de faire des pauses et peuvent travailler sans relâche. Ils peuvent être bien plus efficace qu’un humain comme l’analyse et le traitement de milliers de données en quelques minutes. L’humain est déjà devenu obsolète dans bien des domaines mais cela risque de prendre de l’ampleur avant la fin de ce 21ème siècle.

Une autre crainte majeure est la prise de conscience des robots (ou même de l’IA). Dans le cas de Sophia, en développant une conscience virtuelle et étant une machine développant des sentiments, une multitude de problématiques apparaissent. Doit-on les considérer comme les égaux des humains ? Doivent-ils-jouirent des mêmes droits ? Peuvent-ils être une menace pour l’humanité ? Un cadre juridique devra être instauré pour apporter des éléments de réponse à certaines de ces questions et définir des limites.

En 2017, Elon Musk cherche à faire bouger les lignes avertissant du risque que peut représenter l’intelligence artificielle : «je travaille sur des formes très avancées d’intelligence artificielle, et je pense qu’on devrait tous s’inquiéter de ses progrès ». Il s’inquiète notamment du manque de mesures de sécurité.

L’astrophysicien Stephen Hawking quant à lui, avait de même averti lors d’une interview avec le magazine The Wire l’importance de la cybersécurité au sein de l’IA : « J’ai peur que l’IA puisse remplacer complètement les humains. Si les gens peuvent concevoir des virus informatiques, quelqu’un pourrait concevoir une IA qui peut s’améliorer et se reproduire. Ce serait une nouvelle forme de vie capable de surpasser les humains »

 Des exaltations pour certains

Le débat sur l’évolution de la robotique et l’IA n’est pas uniquement noir ou blanc. Chaque point de vue est défendable. Beaucoup de craintes émergent mais la raison d’être de l’IA tout comme la robotique est d’aider l’humain. L’aider aussi bien dans des tâches manuelles qu’intellectuelles. En partant de ce principe, cette intelligence est là pour nous faciliter la vie mais aussi réaliser des tâches que l’humain ne peut pas accomplir. Si l’humain lui a des capacités limitées, la robotique associée à l’IA ont, quant-à-eux, des capacités illimitées.

Finalement, même si Bill Gates, Elon Musk ou Stephen Hawking partagent le même avis concernant les risques représentés, ils s’accordent aussi à dire que cette nouvelle ère technologique pourra être bénéfique pour l’humanité à condition d’instaurer des limites et de réguler les usages.

Conclusion

Nous sommes encore bien loin des robots de « Westworld », « Terminator », « Matrix », « Ex Machina » ou toute autre référence de science-fiction. L’intelligence artificielle progresse certes, mais estimer sa vitesse de progression est dur à réaliser. Par ailleurs, créer une IA douée de raison en prenant ses propres initiatives prendra du temps.

En attendant, comme le disait Hawking : « L’intelligence artificielle, la pire ou meilleure chose arrivée à l’humanité ». Seul l’avenir nous le dira.

 

Pour aller plus loin :

Présentation de Sofia :

Le discours de Sofia à l’ONU :

Un autre article traitant le sujet de l’intelligence artificielle rédigé par Arnaud Bouclon, Manager à IS lean consulting : « Emanuel Macron et l’intelligence artificielle »

Thomas Cerisier

Thomas rejoint ISlean consulting en 2018 en tant que Consultant Junior. Diplômé d'un Master en marketing stratégique et opérationnel de l'EM Strasbourg et cumulant deux ans et demi à l'étranger aux Etats-Unis et Royaume-Uni, Thomas s'oriente par la suite vers le conseil.

About the Author:

Thomas Cerisier
Thomas rejoint ISlean consulting en 2018 en tant que Consultant Junior. Diplômé d'un Master en marketing stratégique et opérationnel de l'EM Strasbourg et cumulant deux ans et demi à l'étranger aux Etats-Unis et Royaume-Uni, Thomas s'oriente par la suite vers le conseil.

3 Comments

  1. Avatar
    François de Nuchèze 03|12|2018 at 9:24 - Reply

    Bonjour Thomas

    Je pense que tu fais une erreur de fond dans ton approche de l’IA.
    Tu écris « un long chemin reste à parcourir avant de voir émerger un robot multitâche avec une conscience virtuelle qui se rapproche de l’humain. En effet, l’humain est extrêmement complexe avec ses milliards de neurones. »
    Considérer que l’anthropologie, la définition de l’humain, se résume à la multitude de ses neurones est une faute fondamentale.

    Cette erreur transparaît lorsque tu écris également :
    « La créativité, l’improvisation, la prise de décision ou l’émotion sont autant de caractéristiques propres à Homo sapiens qui mettront du temps avant de pouvoir être égalées par un robot. »
    Certaines des caractéristiques que tu listes, plus précisément je pense à l’émotion, ne peuvent être égalées car sont propres à l’humain.
    Il faut en fait faire la distinction (tu t’en approches pourtant un peu plus bas en parlant de Sophia) entre avoir une émotion et représenter/simuler une émotion.

    Sur tout le reste effectivement l’IA peut potentiellement se révéler simultanément comme une exceptionnelle opportunité comme un danger majeur.
    Le 20 ème siècle a connu d’autres grandes évolutions qui se révèlent simultanément bonnes et comme les pires dangers si elles sont mal exploitées

    • Thomas Cerisier
      Thomas Cerisier 05|12|2018 at 5:08 - Reply

      Bonjour François,

      Je te remercie d’avoir pris le temps de lire et commenter mon article.

      En effet, je suis d’accord que l’humain ne se résume pas aussi simplement au nombre de ses neurones. Je te rejoins sur le fait que d’autres caractéristiques s’ajoutent pour le définir comme tel : l’émotion, la communication, la socialisation, le libre arbitre, la créativité etc. Ma phrase sous-entendait que les milliards de neurones qui constituent notre cerveau seront difficiles à reproduire car il faudra détricoter cette complexité qui nous permet de non seulement effectuer de nombreuses tâches manuelles et intellectuelles mais aussi d’être un être émotif.

      Je pense que biologiquement parlant, l’émotion est déclenchée/créée par un ou plusieurs stimulus qui fait/font intervenir les neurones. En considérant le corps humain et le cerveau comme une « machine » capable d’être transposée à l’IA et à la robotique, il se pourrait qu’un jour on soit en capacité d’imiter une émotion. La question principale est la suivante : la définition que nous humain donnons à l’émotion sera-t-elle perçue de la même manière que par un humanoïde étant donné que la machine est programmée par rapport à notre propre interprétation de cette définition. Nous pouvons penser que nous aurons surement des éléments de réponse sur le sujet d’ici la fin de ce siècle.

  2. Avatar
    Célia Doreau 03|12|2018 at 3:55 - Reply

    Bonjour Thomas,

    Cette définition de la strong IA est moyennement académique ! Je t’invite à consulter la page de Wikipedia sur la strong IA : https://en.wikipedia.org/wiki/Strong_AI

    Strong artificial intelligence or, True AI, may refer to: Artificial general intelligence, a hypothetical machine that exhibits behavior at least as skillful and flexible as humans do, and the research program of building such an artificial general intelligence
    Computational theory of mind, the philosophical position that human minds are, in essence, computer programs. This position was named « strong AI » by John Searle in his Chinese room argument.
    Artificial consciousness, a hypothetical machine that possesses awareness of external objects, ideas and/or self-awareness.
    It is termed strong to contrast it with weak artificial Intelligence which is intelligent only in a limited task specific field.
    En afficher moins

    Le Machine Learning est un algorithme de répétition statistique, qui n’a rien de « strong IA » ! Aucune IA aujourd’hui n’est une « strong IA » en fait.
    Mais cela n’empêche pas les IA de proposer de vrais beaux soulagements aux collaborateurs dans leurs journées de travail. Discutons en si vous le souhaitez.

Leave A Comment