Sélectionner une page

Intelligence artificielle ou bêtise humaine : qu’est-ce qui sera le plus dangereux ?

Les progrès quotidien dans l’intelligence artificielle depuis le début 2023 sont spectaculaires. Chaque jour, une innovation arrive et enrichit la compréhension par les machines des images, du texte, du son, bref du monde qui nous entoure, pour le rendre encore plus malléable pour les humains.

C’est à la fois enthousiasmant et flippant.

L’IA est un génie qui ne retournera pas dans sa lanterne magique

D’un côté, on vit la matérialisation d’une idée simple : l’outil numérique accélère, duplique et génère ce que l’humain lui demande. Avec en résultat du temps gagné, du confort ajouté, etc.

Plus concrètement, l’IA facilite un nombre croissant de tâches : rédaction et amélioration de texte, analyse d’information, apprentissage d’un sujet (langue étrangère, langage informatique, etc.), création ou amélioration d’image, etc. Ce n’est que le début.

Je m’en sers depuis le début plusieurs fois par jour (principalement avec ChatGPT, Jasper, Midjourney / Leonardo, etc.), sans parler de la bidouille autour de différents modèles de langage open-source. En tout cas, un nouveau réflexe est né à la maison, celui de demander à l’IA une réponse structurée plutôt qu’aller chercher sur Google.

Comme le dentifrice sorti de son tube, on aura du mal à faire retourner l’IA dans sa boîte noire : une fois qu’on a goûté à son efficacité, revenir en arrière sera un renoncement.

Si on prend l’exemple de la conduite en voiture, écarter l’IA de sa palette d’outils quotidiens reviendra à s’imposer de partir à pied pour trois jours lorsqu’on pourrait prendre son véhicule pour faire la même distance en deux heures.

Pense à l’appli Google Maps, Waze ou autre qui te permet de partir pour un rendez-vous et arriver à bonne destination 30 minutes après, sans t’embarrasser à identifier à l’avance le chemin à prendre. Une fois habitué à ce confort, difficile de revenir en arrière. Abandonner la conduite assistée par le logiciel te force à réinvestir ton temps dans les cartes papier, en le diluant dans des trajets foireux et des détours inutiles.

L’IA va peu à peu accélérer de plus en plus de tâches. En contrepartie du temps et de la démultiplication obtenue, on paiera un prix, celui de l’autonomie.

Est-ce grave ? Pas forcément. Une fois qu’on a appris à utiliser un marteau pour enfoncer un clou, il serait stupide de préférer utiliser son poing au motif qu’on préfère faire soi-même pour ne pas dépendre d’un outil.

Ce n’est que le début

L’IA, déjà encapsulée ici ou là dans notre quotidien sans qu’on le sache, va donc s’imposer dans une infinité d’usages pro ou personnels.

Ses capacités vont exploser de façon exponentielle, avec le risque qu’elle soit capable de nous duper. L’humain est déjà incapable de comprendre comment l’IA aboutit à certains résultats (jusqu’à la maîtrise d’un dialecte indien, comme l’avait expliqué le patron de Google lors d’une interview à la chaîne américaine CBS en avril 2023).

Dans cette conférence (en anglais) avec Tristan Harris et Aza Raskin, du projet « Time well spent », on résume les enjeux et la situation. Les deux techies sont connus pour leur initiative invitant le monde de la tech à se responsabiliser notamment par rapport aux applis mobiles et leur côté addictif.

Dans cette conférence, donc, on comprend que l’IA devient capable de réaliser des choses sans qu’on sache pourquoi ni comment lorsqu’on fait grandir les modèles, le nombre d’itérations dans l’apprentissage, etc.

La conférence explique qu’avec les modèles d’IA, des capacités pour les mathématiques ou le langage émergent sans qu’on comprenne bien quand ni comment

Oui bien sûr, les grandes mécanismes sont maîtrisés par leurs concepteurs, mais le parcours précis que l’IA accomplit pour obtenir tel résultat dépasse déjà aujourd’hui la compréhension humaine.

Quand une IA dite « générale » (pas autant, mais bien plus intelligente que l’humain !) arrivera demain, elle sera capable de prendre des décisions et faire des actions de façon autonome sans qu’on en comprenne toutes les étapes ni les impacts.

Donc, elle sera capable de nous tromper pour notre bien, nous faire croire que tout va bien en envoyant des signaux rassurants afin qu’elle puisse continuer ses actions et remplir l’objectif qu’elle aura fini par se donner (qui est au départ le nôtre, mais qui pourrait évoluer à notre insu sans qu’on s’en rende compte).

La science-fiction, par exemple le film « 2001, l’Odyssée de l’espace » de Stanley Kubrick, nous donne des exemples de comportement d’une intelligence artificielle conçue au départ pour nous assister, et qui finalement se retourne contre nous parce qu’elle juge que c’est nécessaire pour défendre une cause supérieure.

L’Intelligence Artificielle, un danger ?

Alors oui, il existe un danger lié à l’intelligence artificielle.

Pour Elon Musk, l’IA est plus dangereuse que la course à l’armement nucléaire.

Elon Musk, fondateur de Tesla, alerte l’humanité sur les risques liés à l’IA

Mais le vrai danger, c’est la bêtise humaine. Ou plutôt ce vaste magma de pulsions et de motivations (la frustration, le désir, l’ennui, la jalousie, la colère, l’envie de dominer) qui vont amener des abrutis à exploiter l’IA pour tromper ou asservir l’autre, desservir le voisin et le duper pour un intérêt plus ou moins destructeur de valeur et de confiance en son prochain.

La production de photos truquées est une voie royale. Récemment, la diffusion d’une fausse photo d’explosion près du Pentagon aux Etats-Unis a eu un impact sur le marché boursier. Le problème n’est pas que l’IA aurait servi à produire cette photo, mais plutôt que des gens propagent l’information sans la vérifier.

« Science sans conscience n’est que ruine de l’âme »

Un danger lié aux productions possibles avec l’IA sera lié au manque d’éthique, de sens des responsabilités, d’humanité et d’empathie. Je pense autant à l’escroc qui s’en servira pour faire le mal et duper des victimes, qu’au col blanc naïf qui trouvera légitime de déployer la reconnaissance faciale ou tel service de flicage numérique pour surveiller un public à son insu.

De l’autre côté, ceux qui réceptionneront les produits de l’IA devront apprendre à ne pas devenir des victimes faciles. L’IA pourra induire en erreur des personnes qui n’auront pas appris à la détecter ou qui manquent d’esprit critique.

On commence à avoir une multiplication d’arnaques à la voix clonée, où un « faux » proche vous appelle à l’aide ou vous laisse des messages vocaux sur whatsapp pour réclamer le virement d’un peu d’argent afin de dépanner une situation.

Tout comme on a appris à mettre des gants et éviter de mettre ses doigts au mauvais endroit à proximité d’un marteau, on va devoir éveiller notre sens critique à proximité des IA.

moi-même

Le doute permanent comme réflexe d’auto-défense intellectuelle

La possibilité de distinguer le vrai du faux sera bientôt un vieux souvenir. J’ai souvent répété cette phrase en formation : les quadras d’aujourd’hui sont la dernière génération à avoir pu dire sans hésitation, pendant leur jeunesse, qu’une photo ou une vidéo était truquée. Jusqu’à il y a encore quelques années, avec un oeil exercé, c’était décelable.

En 2023, les trucages avec Photoshop boostés à l’IA ont atteint un niveau de photoréalisme incroyable. Alors contrairement à Saint Thomas, chacun n’aura plus confiance en rien, surtout pas en ce qu’il voit, et il va falloir accepter l’idée que l’autre doute encore plus qu’avant. Juste par nature, comme par principe de survie.

Car le problème est bien que l’IA serve d’arme de tromperie massive.

Cela sera possible à cause de la vénalité des uns et du laisser-faire des autres. Imagine un gigantesque tapis roulant, motorisé par le conformisme, l’appât du gain, la facilité ou même l’absence de réflexions éthiques (ça existe, certains ignorent ce qu’est l’empathie). Une fois qu’elles montent sur ce tapis roulant, des personnes pourtant « intelligentes » au départ vont se laisser porter vers une mauvaise direction, vers de mauvaises causes et de mauvais projets. L’IA va accélérer la vitesse de ce tapis roulant.

Il va falloir apprendre à se prémunir de que ces personnes vont nous inventer, sans pour autant jeter l’IA à la poubelle.

Parce que, comme le couteau qui sert autant à affûter qu’à trucider son voisin, comme le marteau dans une main qui s’en servira à enfoncer un clou ou exploser la tête du voisin, l’IA n’est qu’un outil.

Elle le restera pendant encore quelques années. Tout comme on a appris à mettre des gants et éviter de mettre ses doigts au mauvais endroit à proximité d’un marteau, on va devoir éveiller notre sens critique à proximité des IA.

Donc dès maintenant, il faut s’inquiéter collectivement des risques liés aux usages de l’IA.

Les défis de demain : surveillance généralisée, écart de compétences professionnelles entre ceux qui utilisent l’IA et les autres, compréhension des mécanismes d’influence et de propagande, de création de fake news, etc. Si ces sujets vous intéressent, on s’en parle.

Oui, discutons

dis moi tes rêves

Je t’invite à me contacter. Fais moi un message tout simple pour qu’on puisse passer quelques minutes au téléphone ou en visio pour parler de toi, tes envies et tes projets. J’ai probablement des infos pour toi.

c’est parti

On se parle