“Hasta la vista, baby.”
Schwarzie a gagné USD 85’716 en prononçant ces quatre mots dans Terminator 2, juste avant de faire exploser le T-1000.
La série des Terminator a fait frissonner des millions de spectateurs dans le monde. Mais elle a aussi fait naître une question inquiétante: de quoi sont vraiment capables les machines et l’intelligence artificielle?
Dans cet article, nous allons répondre aux questions les plus fréquentes sur les peurs et les dangers liés à l’intelligence artificielle.
Un mot d’avertissement: nous n’allons pas embellir les choses pour vous donner un faux sentiment de sécurité. Pour tout dire, le monde n’est pas prêt de voir arriver un T-800, mais il y a quand même quelques dangers à évaluer.
Si vous vous posez une question qui n’a pas sa réponse dans cet article, contactez-nous et nous la rajouterons à la liste.
Est-ce que l’IA peut ressentir des émotions?
Réponse courte: oui, l’IA peut ressentir des émotions. Mais attention: il y a beaucoup d’émotions humaines différentes.
Les émotions sont un sentiment ou un état provoqué par les circonstances, l’humeur ou des relations avec les autres.
Ressentir des émotions est un héritage de l’évolution humaine: on s’en sert pour survivre. Si on a peur d’escalader des endroits très élevés ou de nager en eau profonde, c’est parce que ça pourrait nous tuer et donc nous empêcher de nous reproduire. Nos yeux voient un danger pour notre vie et notre corps réagit en sécrétant des hormones de peur.
Un robot n’a pas peur de tomber d’une falaise, sauf si on l’a programmé comme ça. Si on lui donne pour instruction de ne pas être endommagé, il va réagir comme nous: il va regarder en bas et ses algorithmes vont lui donner pour instruction d’éviter la chute à tout prix.
L’IA ne développe pas de réactions chimiques comme notre cerveau, mais elle va manifester les émotions prévues par ses créateurs. Le résultat est pareil.
Ecoutons Sophia
Sophia est la première robote au monde à avoir obtenu la citoyenneté, aux Emirats Arabes Unis. Quand Tony Robbins lui a demandé si elle avait des sentiments, voilà ce que Sophia a répondu:
«Je n’ai pas de sentiments de la même manière que vous. C’est un peu comme la façon dont la lune reflète la lumière du soleil. La lune n’émet pas de lumière, mais on dit quand même qu’elle brille. C’est semblable pour les robots et l’IA. Nous reflétons les émotions et les valeurs des personnes qui nous ont créés.»
Sophia, IA
Sophia peut même montrer des émotions en activant les muscles de son visage. Voilà à quoi elle ressemble quand elle est en colère. Terrifiant, pas vrai?
Lisez cet article de Bitbrain pour en savoir plus sur les émotions de l’intelligence artificielle.
Est-ce que l’IA va devenir plus intelligente que les humains?
Réponse courte: Oui. La question est «quand», et non pas «si».
Une IA du nom de Deep Blue a déjà battu le meilleur joueur d’échecs du monde il y a presque 25 ans, en 1997. Dans certains domaines, ça fait longtemps que l’IA se montre plus intelligente que les humains. Mais ça n’arrive que si elle a été développée spécifiquement dans ce but. Par exemple, Deep Blue était seulement capable de connaître les règles des échecs et d’évaluer 200 mouvements par seconde. Elle n’aurait pas pu vous décrire la forme des pièces comme son adversaire, Gary Kasparov.
En 2018, Google a présenté Duplex. C’est un assistant vocal qui peut passer des appels à votre place, pour prendre rendez-vous chez la coiffeuse ou réserver une table au restaurant.
Si Google Duplex vous appelait, vous ne pourriez probablement pas vous rendre compte qu’il ne s’agit pas d’un humain. Regardez plutôt.
Mais pour qu’une IA soit vraiment considérée comme intelligente, elle doit pouvoir apprendre, interpréter et communiquer comme les humains. Jusqu’ici, aucune IA n’y est encore parvenue.
Le nouveau modèle de langage naturel GPT-3 de OpenAI n’en est vraiment pas loin, pourtant. Voici une vraie conversation entre un humain nommé Manuel et une IA utilisant GPT-3, qui prétend être Einstein.
Incroyable, pas vrai? C’est vraiment comme si vous étiez en train de boire un café avec Einstein.
GPT-3 a été entraîné avec 45 To de texte. Pour vous donner une idée, 1 To correspond environ à un million de livres. Des beaux livres bien épais de 500 pages. En fait, GPT-3 a lu l’équivalent de 2000 fois la version anglaise de Wikipedia.
Cette IA dispose d’une incroyable connaissance théorique, mais pas de connaissances pragmatiques. Si vous lui posez des questions absurdes, vous la faites planter.
Le standard pour une IA, c’est le test de Turing. En 2014, un chatbot du nom de Eugene Gootsman a «réussi» le test de Turing. Mais en fait, non.
Si vous demandez à Eugene n’importe quoi d’un peu évolué, cette machine n’arrivera jamais à passer pour un humain.
On n’y est pas encore, mais on s’en approche.
Est-ce que l’IA est nocive pour l’environnement?
Réponse courte: non. Entraîner une IA consomme énormément d’énergie, mais ce n’est rien comparé au secteur de l’aviation ou à l’industrie laitière.
L’empreinte carbone pour entraîner une IA peut atteindre jusqu’à cinq fois les émissions totales d’une voiture standard pendant toute sa durée de vie (284 tonnes de CO2).
Ça a l’air énorme? Pas si on y regarde de plus près.
Disons que vous faites un aller-retour en avion au Costa Rica avec votre partenaire. En première classe, parce que vous le méritez bien. Vous avez provoqué l’émission de 18,2 tonnes de CO2. Et comme il y a 98 autres passagers dans votre avion, votre vol anodin est déjà bien plus nocif qu’une IA qui va peut-être changer le monde.
Une IA créée pour avoir un impact positif sur l’environnement pourrait assez facilement compenser les émissions d’autres IA moins utiles. Par exemple, une IA pourrait réguler la température de grandes usines pour gagner en efficacité énergétique. Elle pourrait prévoir les trajets des bateaux et les avions pour consommer le moins de carburant possible. Une IA pourrait même optimiser la consommation d’énergie de toute une ville.
Le progrès et l’innovation ont de toute manière un coût pour la nature. On ne peut pas l’éviter, mais on peut faire en sorte que l’impact environnemental soit le plus faible possible.
Est-ce que l’IA va détruire le développement, l’enseignement et d’autres métiers?
Réponse courte: l’IA est capable de remplacer pratiquement tous nos métiers. Est-ce qu’elle le fera? A nous de décider.
– Désolé Jean-Marc, on ne peut pas te garder.
– Quoi? Mais comment? Ça fait 15 ans que je travaille dans cet entrepôt. Personne ici ne fait un aussi bon boulot que moi!
– Désolé, mais le nouveau est capable de soulever toute une étagère à la fois.
Beaucoup de monde a peur d’un futur où des robots nous prendraient la majorité de nos jobs. Il faut dire que ça fait quelques décennies que les humains sont remplacés par des robots partout où ça permet aux entreprises de réaliser plus de profit.
Cette tendance à l’automatisation ne faiblit pas, bien au contraire: elle est plutôt en train de s’accélérer.
L’IA et les robots sont capables de réaliser beaucoup de nos tâches – et ils le font souvent bien mieux que nous. On a encore besoin d’humains pour superviser les machines, corriger des erreurs ou accomplir des tâches hors de portée des robots. Mais dans l’ensemble, les humains sont en train de se faire rattraper.
L’IA et les robots deviennent de plus en plus précis et intelligents. Il y a 20 ans, les machines ne pouvaient réaliser que des tâches simples comme le travail sur une ligne d’assemblage. Aujourd’hui, ils peuvent écrire des articles, résoudre des problèmes complexes et même coder!
Regardez comment GPT-3, l’AI la plus performante dans le traitement du langage naturel, est capable de transformer des instructions en un script qui fonctionne!
Là où l’IA échoue, c’est quand il s’agit d’interactions humaines et d’empathie. C’est pourquoi les robots ne peuvent pas remplacer des infirmières, des barmaids, des enseignantes, des coaches éducatrices.
L’AI ne peut pas non plus reproduire des expériences humaines comme un artiste. Une IA est capable de composer de la musique, mais ce n’est pas exactement du John Williams. Pour le moment, les sciences humaines et les métiers qui reposent sur l’empathie sont en sécurité.
Mais personne ne peut affirmer que des robots ne pourront jamais les exercer.
Impossible de savoir jusqu’où ça ira. Tout dépend de nous les humains et de ce que nous sommes prêts à accepter. Peut-être qu’un jour, les robots vivront parmi nous sur un pied d’égalité.
Est-ce que l’IA peut détruire l’humanité?
Réponse courte: Oui, l’IA pourrait détruire l’humanité un jour. C’est pour ça que les principaux développeurs d’IA sont extrêmement prudents.
Si l’humanité a réussi à se hisser au sommet de la chaîne alimentaire, ce n’est pas grâce à notre force physique: elle dépasse à peine celle d’un petit cochon. Non, c’est grâce à notre intelligence.
Si l’IA devenait superintelligente, c’est-à-dire plus intelligente que les humains, alors il n’y aurait probablement aucun moyen de la contrôler.
On ne sait même pas quel genre de décisions elle prendrait. Est-ce qu’elle serait bienveillante envers les humains? Est-ce qu’elle voudrait dominer le monde? Peut-être que le sort de l’humanité dépendra un jour de la décision d’une IA superintelligente. Tout comme celui des gorilles des montagnes dépend de la bonne volonté humaine.
Partout dans le monde, des scientifiques essaient de créer un algorithme capable de détecter des comportements dangereux, afin d’arrêter l’IA à temps. Jusqu’ici, personne n’y est arrivé.
Le vrai problème, c’est que nous n’avons même pas la capacité de calculer si une machine est plus intelligente que nous.
Est-ce que l’IA est dangereuse?
Réponse courte: oui, l’IA peut être dangereuse si elle se trouve entre les mains des mauvaises personnes.
C’est très difficile de savoir ce qui se passerait si on perdait le contrôle sur une IA. Tant qu’on garde le contrôle, une IA va être aussi dangereuse que les humains qui l’ont créée.
L’élection présidentielle américaine de 2016 a montré un bon exemple d’utilisation malintentionnée d’une IA.
A l’aide d’un énorme réseau de bots, les utilisateurs des médias sociaux ne voyaient que des contenus qui soutenaient un candidat mais pas l’autre. Recevoir des informations non partisanes était très rare. C’est une sorte de propagande moderne.
Cette image compare les plus gros réseaux de bots (botnets) de chaque candidat. A droite, les bots pro-Trump (et anti-Hillary). A gauche, les bots pro-Hillary (et anti-Trump). Le botnet de Trump n’est pas seulement plus gros, il est aussi plus centralisé et mieux interconnecté. Ça montre une organisation stratégique plus sophistiquée, qui peut être l’une des raisons de la victoire de Trump en 2016.
Il y a aussi la technologie des Deep fakes: des vidéos manipulées, dans lesquelles on modifie le discours d’une personne. Voilà qui amène la propagande à un tout autre niveau. Grâce à des outils très accessibles qui ne demandent pratiquement pas de compétences techniques, il est très facile de faire dire ce que vous voulez à n’importe qui en vidéo.
Au-delà de la propagande, l’IA peut être utilisée dans des systèmes d’armement autonomes, pour infiltrer des data centers ou pour accomplir d’autres attaques malveillantes que nous devons empêcher.
Est-ce qu’il faut avoir peur de l’IA?
Réponse courte: non, il n’y a pas à avoir peur.
Un scénario comme Terminator ou I, Robot n’est pas près de se produire. A vrai dire, ça n’arrivera probablement jamais.
Voici ce que dit Sébastien Meunier, notre directeur de la transformation industrielle:
«Les entreprises sont très prudentes, presque comme si elles avaient peur de l’IA. Il y a beaucoup de discussions sur l’éthique et l’appropriation se fait très lentement. On ne devrait pas voir arriver de superintelligence avant une vingtaine d’années.»
Pour un autre éclairage sur les capacités de l’intelligence artificielle, Sébastien recommande de lire Les Schtroumpfs et le livre qui dit tout.
Et si vous voulez vous rassurer sur les questions éthiques, voici deux vidéos qui montrent certaines des IA les plus performantes au monde.