Les questions les plus fréquentes sur les dangers de l’intelligence artificielle (et nos réponses)
“Hasta la vista, baby.”
Schwarzie a gagné USD 85’716 en prononçant ces quatre mots dans Terminator 2, juste avant de faire exploser le T-1000.
La série des Terminator a fait frissonner des millions de spectateurs dans le monde. Mais elle a aussi fait naître une question inquiétante: de quoi sont vraiment capables les machines et l’intelligence artificielle?
Dans cet article, nous allons répondre aux questions les plus fréquentes sur les peurs et les dangers liés à l’intelligence artificielle.
Un mot d’avertissement: nous n’allons pas embellir les choses pour vous donner un faux sentiment de sécurité. Pour tout dire, le monde n’est pas prêt de voir arriver un T-800, mais il y a quand même quelques dangers à évaluer.
Si vous vous posez une question qui n’a pas sa réponse dans cet article, contactez-nous et nous la rajouterons à la liste.
La sensation de ChatGPT-4
ChatGPT a rendu l’IA accessible. Avec ChatGPT-4, tout le monde peut utiliser l’IA de manière productive.
(Les captures d’écran que vous voyez ici sont issues de ChatGPT-3.5) Écrivez un message dans la boîte de dialogue comme si vous parliez à une personne réelle. La réponse semblera avoir été tapée par un humain.
Mais soyez prudent : ChatGPT est une boîte noire. Nous ne savons pas exactement d’où l’IA tire ses informations. Vous devez donc vérifier soigneusement ses réponses. Par exemple, lorsqu’on l’interroge sur l’utilisation du médicament Binocrit, ChatGPT nous dit qu’il est utilisé pour traiter l’anémie chez les patients cancéreux. Or, Compendium, la base de données suisse sur les médicaments, indique clairement que Binocrit n’est pas autorisé pour les patients atteints de cancer.
Essayez ChatGPT par vous-même. Tout le monde parle de l’IA en ce moment. La plupart sont optimistes. Certains pensent que l’IA rendra obsolète une grande partie de notre main-d’œuvre. Lisez la suite pour savoir si l’IA va tuer votre emploi.
Est-ce que l’IA peut ressentir des émotions?
Réponse courte: oui, l’IA peut ressentir des émotions. Mais attention: il y a beaucoup d’émotions humaines différentes. Les émotions sont un sentiment ou un état provoqué par les circonstances, l’humeur ou des relations avec les autres. Ressentir des émotions est un héritage de l’évolution humaine: on s’en sert pour survivre. Si on a peur d’escalader des endroits très élevés ou de nager en eau profonde, c’est parce que ça pourrait nous tuer et donc nous empêcher de nous reproduire. Nos yeux voient un danger pour notre vie et notre corps réagit en sécrétant des hormones de peur. Un robot n’a pas peur de tomber d’une falaise, sauf si on l’a programmé comme ça. Si on lui donne pour instruction de ne pas être endommagé, il va réagir comme nous: il va regarder en bas et ses algorithmes vont lui donner pour instruction d’éviter la chute à tout prix. L’IA ne développe pas de réactions chimiques comme notre cerveau, mais elle va manifester les émotions prévues par ses créateurs. Le résultat est pareil.
Ecoutons Sophia
Sophia est la première robote au monde à avoir obtenu la citoyenneté, aux Emirats Arabes Unis. Quand Tony Robbins lui a demandé si elle avait des sentiments, voilà ce que Sophia a répondu:
«Je n’ai pas de sentiments de la même manière que vous. C’est un peu comme la façon dont la lune reflète la lumière du soleil. La lune n’émet pas de lumière, mais on dit quand même qu’elle brille. C’est semblable pour les robots et l’IA. Nous reflétons les émotions et les valeurs des personnes qui nous ont créés.»
Sophia peut même montrer des émotions en activant les muscles de son visage. Voilà à quoi elle ressemble quand elle est en colère. Terrifiant, pas vrai?
Lisez cet article de Bitbrain pour en savoir plus sur les émotions de l’intelligence artificielle.
Est-ce que l’IA va devenir plus intelligente que les humains?
Réponse courte: Oui. La question est «quand», et non pas «si». Une IA du nom de Deep Blue a déjà battu le meilleur joueur d’échecs du monde il y a presque 25 ans, en 1997. Dans certains domaines, ça fait longtemps que l’IA se montre plus intelligente que les humains. Mais ça n’arrive que si elle a été développée spécifiquement dans ce but. Par exemple, Deep Blue était seulement capable de connaître les règles des échecs et d’évaluer 200 mouvements par seconde. Elle n’aurait pas pu vous décrire la forme des pièces comme son adversaire, Gary Kasparov.
En 2018, Google a présenté Duplex. C’est un assistant vocal qui peut passer des appels à votre place, pour prendre rendez-vous chez la coiffeuse ou réserver une table au restaurant.
Si Google Duplex vous appelait, vous ne pourriez probablement pas vous rendre compte qu’il ne s’agit pas d’un humain. Regardez plutôt.
Mais pour qu’une IA soit vraiment considérée comme intelligente, elle doit pouvoir apprendre, interpréter et communiquer comme les humains. Jusqu’ici, aucune IA n’y est encore parvenue. Le nouveau modèle de langage naturel GPT-3 de OpenAI n’en est vraiment pas loin, pourtant. Voici une vraie conversation entre un humain nommé Manuel et une IA utilisant GPT-3, qui prétend être Einstein.
Incroyable, pas vrai? C’est vraiment comme si vous étiez en train de boire un café avec Einstein.
GPT-3 a été entraîné avec 45 To de texte. Pour vous donner une idée, 1 To correspond environ à un million de livres. Des beaux livres bien épais de 500 pages. En fait, GPT-3 a lu l’équivalent de 2000 fois la version anglaise de Wikipedia.
Cette IA dispose d’une incroyable connaissance théorique, mais pas de connaissances pragmatiques. Si vous lui posez des questions absurdes, vous la faites planter.
Le standard pour une IA, c’est le test de Turing. En 2014, un chatbot du nom de Eugene Gootsman a «réussi» le test de Turing. Mais en fait, non.
Si vous demandez à Eugene n’importe quoi d’un peu évolué, cette machine n’arrivera jamais à passer pour un humain.
On n’y est pas encore, mais on s’en approche.
Qu’en est-il du ChatGPT-4 ?
ChatGPT-4 s’est entraîné beaucoup plus durement que son prédécesseur. Les experts estiment qu’il s’est entraîné avec 571 données de plus que le GPT-3. Il ne se laisse pas facilement duper par les questions concernant les yeux sur les pieds.
La seule raison pour laquelle ChatGPT-4 ne passe pas le test du Touring est qu’il ne veut pas le faire. Il vous dira carrément qu’il s’agit d’une IA si vous le lui demandez. Si ChatGPT-4 avait été conçu pour passer le test Touring, il l’aurait fait ! Lorsqu’on lui pose la question, il répond modestement :
« En tant que modèle de langage d’IA, je suis capable de générer des réponses de type humain à des invites textuelles, mais passer le test de Turing est une évaluation subjective qui dépend en fin de compte du jugement d’évaluateurs humains. Bien que je puisse être capable de générer des réponses qui semblent convaincantes pour certains évaluateurs, je ne peux pas garantir que je serais capable de réussir le test de Turing dans toutes les circonstances. En fin de compte, le test de Turing est une référence difficile qui n’a pas encore été pleinement atteinte par un système d’intelligence artificielle ».
- ChatGPT lorsqu’on lui demande s’il veut passer le test Turing.
Est-ce que l’IA est nocive pour l’environnement?
Réponse courte: non. Entraîner une IA consomme énormément d’énergie, mais ce n’est rien comparé au secteur de l’aviation ou à l’industrie laitière.
L’empreinte carbone pour entraîner une IA peut atteindre jusqu’à cinq fois les émissions totales d’une voiture standard pendant toute sa durée de vie (284 tonnes de CO2).
Ça a l’air énorme? Pas si on y regarde de plus près.
Disons que vous faites un aller-retour en avion au Costa Rica avec votre partenaire. En première classe, parce que vous le méritez bien. Vous avez provoqué l’émission de 18,2 tonnes de CO2. Et comme il y a 98 autres passagers dans votre avion, votre vol anodin est déjà bien plus nocif qu’une IA qui va peut-être changer le monde.
Une IA créée pour avoir un impact positif sur l’environnement pourrait assez facilement compenser les émissions d’autres IA moins utiles. Par exemple, une IA pourrait réguler la température de grandes usines pour gagner en efficacité énergétique. Elle pourrait prévoir les trajets des bateaux et les avions pour consommer le moins de carburant possible. Une IA pourrait même optimiser la consommation d’énergie de toute une ville.
Le progrès et l’innovation ont de toute manière un coût pour la nature. On ne peut pas l’éviter, mais on peut faire en sorte que l’impact environnemental soit le plus faible possible.
Est-ce que l’IA va détruire le développement, l’enseignement et d’autres métiers?
Réponse courte: l’IA est capable de remplacer pratiquement tous nos métiers. Est-ce qu’elle le fera? A nous de décider. – Désolé Jean-Marc, on ne peut pas te garder.
– Quoi? Mais comment? Ça fait 15 ans que je travaille dans cet entrepôt. Personne ici ne fait un aussi bon boulot que moi!
– Désolé, mais le nouveau est capable de soulever toute une étagère à la fois.
Beaucoup de monde a peur d’un futur où des robots nous prendraient la majorité de nos jobs. Il faut dire que ça fait quelques décennies que les humains sont remplacés par des robots partout où ça permet aux entreprises de réaliser plus de profit. Cette tendance à l’automatisation ne faiblit pas, bien au contraire: elle est plutôt en train de s’accélérer. L’IA et les robots sont capables de réaliser beaucoup de nos tâches – et ils le font souvent bien mieux que nous. On a encore besoin d’humains pour superviser les machines, corriger des erreurs ou accomplir des tâches hors de portée des robots. Mais dans l’ensemble, les humains sont en train de se faire rattraper.
L’IA et les robots deviennent de plus en plus précis et intelligents. Il y a 20 ans, les machines ne pouvaient réaliser que des tâches simples comme le travail sur une ligne d’assemblage. Aujourd’hui, ils peuvent écrire des articles, résoudre des problèmes complexes et même coder! Regardez comment GPT-3, l’AI la plus performante dans le traitement du langage naturel, est capable de transformer des instructions en un script qui fonctionne!
Là où l’IA échoue, c’est quand il s’agit d’interactions humaines et d’empathie. C’est pourquoi les robots ne peuvent pas remplacer des infirmières, des barmaids, des enseignantes, des coaches éducatrices.
L’AI ne peut pas non plus reproduire des expériences humaines comme un artiste. Une IA est capable de composer de la musique, mais ce n’est pas exactement du John Williams. Pour le moment, les sciences humaines et les métiers qui reposent sur l’empathie sont en sécurité. Mais personne ne peut affirmer que des robots ne pourront jamais les exercer.
Impossible de savoir jusqu’où ça ira. Tout dépend de nous les humains et de ce que nous sommes prêts à accepter. Peut-être qu’un jour, les robots vivront parmi nous sur un pied d’égalité.
Est-ce que l’IA peut détruire l’humanité?
Réponse courte: Oui, l’IA pourrait détruire l’humanité un jour. C’est pour ça que les principaux développeurs d’IA sont extrêmement prudents. Si l’humanité a réussi à se hisser au sommet de la chaîne alimentaire, ce n’est pas grâce à notre force physique: elle dépasse à peine celle d’un petit cochon. Non, c’est grâce à notre intelligence.
Si l’IA devenait superintelligente, c’est-à-dire plus intelligente que les humains, alors il n’y aurait probablement aucun moyen de la contrôler.
On ne sait même pas quel genre de décisions elle prendrait. Est-ce qu’elle serait bienveillante envers les humains? Est-ce qu’elle voudrait dominer le monde? Peut-être que le sort de l’humanité dépendra un jour de la décision d’une IA superintelligente. Tout comme celui des gorilles des montagnes dépend de la bonne volonté humaine.
Partout dans le monde, des scientifiques essaient de créer un algorithme capable de détecter des comportements dangereux, afin d’arrêter l’IA à temps. Jusqu’ici, personne n’y est arrivé. Le vrai problème, c’est que nous n’avons même pas la capacité de calculer si une machine est plus intelligente que nous.
Est-ce que l’IA est dangereuse?
Réponse courte: oui, l’IA peut être dangereuse si elle se trouve entre les mains des mauvaises personnes. C’est très difficile de savoir ce qui se passerait si on perdait le contrôle sur une IA. Tant qu’on garde le contrôle, une IA va être aussi dangereuse que les humains qui l’ont créée.
L’élection présidentielle américaine de 2016 a montré un bon exemple d’utilisation malintentionnée d’une IA.
A l’aide d’un énorme réseau de bots, les utilisateurs des médias sociaux ne voyaient que des contenus qui soutenaient un candidat mais pas l’autre. Recevoir des informations non partisanes était très rare. C’est une sorte de propagande moderne.
Cette image compare les plus gros réseaux de bots (botnets) de chaque candidat. A droite, les bots pro-Trump (et anti-Hillary). A gauche, les bots pro-Hillary (et anti-Trump). Le botnet de Trump n’est pas seulement plus gros, il est aussi plus centralisé et mieux interconnecté. Ça montre une organisation stratégique plus sophistiquée, qui peut être l’une des raisons de la victoire de Trump en 2016.
Il y a aussi la technologie des Deep fakes: des vidéos manipulées, dans lesquelles on modifie le discours d’une personne. Voilà qui amène la propagande à un tout autre niveau. Grâce à des outils très accessibles qui ne demandent pratiquement pas de compétences techniques, il est très facile de faire dire ce que vous voulez à n’importe qui en vidéo.
Au-delà de la propagande, l’IA peut être utilisée dans des systèmes d’armement autonomes, pour infiltrer des data centers ou pour accomplir d’autres attaques malveillantes que nous devons empêcher.
Est-ce qu’il faut avoir peur de l’IA?
Réponse courte: non, il n’y a pas à avoir peur. Un scénario comme Terminator ou I, Robot n’est pas près de se produire. A vrai dire, ça n’arrivera probablement jamais.
Voici ce que dit Sébastien Meunier, notre directeur de la transformation industrielle:
«Les entreprises sont très prudentes, presque comme si elles avaient peur de l’IA. Il y a beaucoup de discussions sur l’éthique et l’appropriation se fait très lentement. On ne devrait pas voir arriver de superintelligence avant une vingtaine d’années.»
Pour un autre éclairage sur les capacités de l’intelligence artificielle, Sébastien recommande de lire Les Schtroumpfs et le livre qui dit tout.
Et si vous voulez vous rassurer sur les questions éthiques, voici deux vidéos qui montrent certaines des IA les plus performantes au monde.
Entretien avec GPT-3
Ce que c’est que d’être une IA : un entretien avec GPT-3.
Sébastien Meunier sur l’IA en 2023 et au-delà.
Lors de la mise à jour de cet article, nous avons demandé à Sébastien, après notre événement sur l’ingénierie de l’IA et son impact sur les entreprises, si son opinion sur l’IA avait changé. Il nous a répondu : « La seule chose qui a vraiment changé, c’est que tout le monde parle maintenant de l’IA. C’est un bon premier pas. Nous sommes maintenant en train de réfléchir collectivement à la manière de mettre en œuvre l’IA dans notre vie quotidienne. Les entreprises restent prudentes et il est plus important qu’avant de parler de l’utilisation éthique de l’IA. Mais je ne pense pas que nous verrons une superintelligence dans les 18 prochaines années 😉 ».
Vous pouvez aussi aimer
Actualités
Le bâtiment et la construction sont responsables de 37 % des émissions mondiales. Et si le choix de votre espace de travail pouvait faire la différence ? Découvrez HORTUS.