L’intelligence artificielle s’installe dans notre quotidien. Pas forcément parce qu’on l’utilise, mais parce chaque journée apporte une nouvelle à propos de l’IA ; et si j’en parle aujourd’hui, c’est parce que ce sujet touche de plus en plus notre foi ; par des prédications sur le thème, des articles sur l’IA, ou même des « assistants bibliques » tels que HelloBible ou Bible GPT (vous pouvez lui parler en Français).
Comprendre ce qu’est l’intelligence artificielle
L’intelligence artificielle (IA) est née d’une idée simple : reproduire de manière informatique l’activité d’un neurone. Et une équipe s’est dit un jour qu’elle avait réussi… et a germé l’idée qu’en multipliant ces neurones, on allait pouvoir reproduire, et même surpasser, l’intelligence humaine.
Deux événements ont fait prospérer cette idée. La première, c’est l’explosion de la puissance de calcul.
Une image de cela. Remontons juste 30 ans en arrière, ce n’est pas si vieux… Le super-calculateur le plus puissant au monde était géré par le ministère américain de l’Énergie, et installé dans un laboratoire de l’université de Californie[1].
Ce super-ordinateur qui faisait rêver par son extraordinaire puissance de calcul, serait aujourd’hui moins puissant que la plupart des téléphones portables actuels.
La puissance des super-calculateurs a été multipliée par 20 millions en 30 ans !
La puissance des super-calculateurs a été multipliée par 20 millions en 30 ans !
Cette puissance de calcul a permis de faire d’énormes progrès, notamment dans le domaine des statistiques. Deux évènements illustrent cela. Il y a 25 ans, un ordinateur battait Kasparov au échecs. (Les échecs, c’est 1049 coups possibles) et en 2017, c’est l’ordinateur Deep Mind qui battait à son tour le meilleur joueur de Go. Mais le jeu de Go, selon les sources, c’est entre 10200 et 10600 coups[2]. On ne peut créer toutes les parties possibles ; d’ailleurs, la plupart seraient parfaitement idiotes ou suicidaires. L’ordinateur doit alors apprendre les meilleurs enchaînements.
Le deuxième évènement, c’est l’explosion du nombre de données disponibles.
Avec la naissance d’internet, des milliers, puis des millions, puis des milliards de données sont devenues disponibles en ligne. Et cela, dans toutes les langues.
En 2018, par exemple, la CNN estime que 6,5 milliards d’images de chats circuleraient sur le Net et 15 % du trafic total serait lié aux échanges de médias autour de cet animal[3].
Non seulement les gens publient des photos de leur chat mais en plus ils les qualifient en ajoutant des données telles que « mon joli petit chat marron », « Kitty, mon chat de deux mois », « Elliot, un siamois persan gris de 10 jours ».
On va alors soumettre ces photos à un programme pour qu’il apprenne à les reconnaître. Au début, il va souvent se tromper, on va le corriger, et peu à peu, il va apprendre à reconnaître les chats.
Une autre donnée devenue disponible en grand nombre : les textes de toutes sortes, des pages d’informations, des dialogues, des romans, … et c’est une nouvelle forme d’apprentissage qui naît pour créer des modèles de manipulation du langage naturel.
Au lieu d’entraîner l’ordinateur à reconnaitre des images, on l’entraîne sur une seule tâche très spécifique, qui peut paraître un peu étrange : devine quel est le prochain mot de la phrase.
Plutôt que lui donner des chats, on lui donne des livres, Wikipédia, des milliers de dialogues. Puis vous en enlevez une partie, et vous demandez à l’algorithme de prédire le mot qui doit suivre.
Le chat mange une… souris.
Et lorsque qu’il se trompe ; Le chat mange une fleur., on le corrige avec un critère simple : que sa réponse soit crédible : croquette, c’est ok ; vipère, c’est ok ; boule de viande, c’est ok, mais maison, non, ça ne marche pas.
Le modèle de langage de GPT ne fait qu’une seule chose : il devine le mot suivant pour constituer des phrases qui ne dépareillent pas avec les textes qui lui ont été fournis comme base d’apprentissage. Et le résultat est étonnant, saisissant.
Comprendre les limites de l’intelligence artificielle
La consommation énergétique
Deep Blue, qui a gagné aux échecs contre Kasparov, consomme 400 kW, contre 20 W pour un cerveau humain. ChatGPT, c’est plus de 3000 serveurs qui consomment chacun entre 6 et 10 kW. Au total, la puissance électrique pourrait osciller entre 20 et 40 MW[4]. Sans même parler d’écologie, on peut constater l’énorme différence de consommation entre le cerveau humain et le « cerveau informatique ».
Une intelligence « idiote »
Un ordinateur, aussi puissant soit-il, est aujourd’hui bien moins intelligent qu’un enfant de deux ans. Luc Julia, un spécialiste de l’intelligence artificielle, un des co-créateurs de Siri, l’assistant virtuel d’Apple, explique :
Lorsque vous avez montré 100 000 photos de chat à un ordinateur, il sait les reconnaître à 98 %. En fait, il se trompe dès qu’il fait sombre. Parce que l’on publie rarement des photos de nos chats dans la pénombre… Mais pour un enfant de 2 ans, il lui faut 2 chats pour apprendre à reconnaître tous les chats.
C’est sans commune mesure… Cependant, une fois qu’un ordinateur sait reconnaître un chat, il sait le nommer dans une centaine de langues.
L’IA n’a aucune notion de réalité, de vérité et n’a même pas conscience de sa propre existence.
Et, peut-être plus parlant, l’IA parle sans comprendre ce qu’elle dit. Lorsque que l’on « parle » avec une IA on peut avoir l’impression d’une conversation avec une personne. Mais pour l’IA, chaque mot n’est que la suite probable de ce qui précède, l’IA n’a aucune notion de réalité, de vérité et n’a même pas conscience de sa propre existence. Pour l’IA, Hitler, le petit chaperon rouge et l’abbé Pierre sont des sujets plus ou moins probables d’une phase en fonction du contexte.
Une intelligence « dépendante »
Cela paraît évident, mais c’est important : les réponses de l’IA sont liées au contenu qui a servi d’apprentissage. Par exemple si vous voulez lui apprendre à mener une conversation, vous allez par exemple travailler sur des données issues de forums, qui permettrons d’apprendre les interactions entre personnes. Les corrections permettront d’ajouter la politesse et d’enlever les insultes.
Pour GPT-3 on va trouver :
- Des archives d’internet fournies par Common Crawl
- Un ensemble de livres sur l’histoire, les sciences, la fiction, BookCorpus, Projet Gutenberg (une bibliothèque de versions électroniques libres de livres)
- Des articles de presse provenant de diverses sources ; ChatGPT s’appuie beaucoup sur le Washington Post et le New York Times, mais aussi sur NewsCrawl ou Reddit
- Des conversations, notamment les forums et discussions sur les réseaux sociaux, Cornell Movie-Dialog Corpus, etc.[5]
Cela représente environs 175 milliards de paramètres ; et pour GPT-4, on évoque 1000 milliards de paramètres !
Ensuite, on va donner des poids différents pour privilégier certaines sources par rapport à d’autres. On a de la peine à imagier le nombre de choses intelligentes mais aussi d’inepties qu’il y a dedans…
- La terre est plate
- L’Homme a été implanté sur terre par une civilisation extraterrestre
- Dieu a créé l’Homme
- L’Homme est l’aboutissement d’un processus d’évolution
- La terre a 4 milliards d’années, 300 millions d’années, elle est éternelle, 70 000 ans
Et ce ne sont que quelques choix parmi les premières pages de résultat de Google.
Pourtant, ChatGPT affirme que la terre est bel et bien ronde, et la théorie de la Terre plate est largement réfutée par la science et l’observation, parce qu’ils ont donné plus de poids à des ressources telles que National Geographic ou Wikipédia qu’à « terreplate.com »
Une intelligence qui hallucine
Quel est l’auteur de « Manger avec les loups » ? Et ChatGPT me répond instantanément L’auteur du livre « Manger avec les loups » est Michael Morpurgo. Le problème, c’est que je viens d’inventer le nom du livre. Parce que ChatGPT ne comprend pas ce qu’il dit, parce qu’il ne fait que composer des phrases avec un contenu probable, il lui arrive d’halluciner quand il ne trouve pas de réponse. Il invente un chiffre d’affaires, une citation, une date de naissance, etc.
Comprendre le bon usage de l’intelligence artificielle
L’IA ne fait que redire ce que « nous » savons déjà. C’est un excellent outil de synthèse capable de reformuler, de résumer des données éparpillées. Il facilite le travail de recherche, voire d’écriture, sans jamais oublier que vous êtes responsable de ce que vous dites (ou écrivez) Prov 18.1 Matthieu 12.36-37. Quelle que soit la réponse que l’IA vous donne, vous devez prendre en compte les limitations citées ci-dessus, et vérifier les sources de vos informations.
Dans ce sens, des outils tel que Copilot, ou Gemini, qui citent leurs sources à la façon d’un moteur de recherche, peuvent être rassurants à l’usage.
C’est un outil d’aide à la préparation de son contenu qui est vraiment intéressant et qui permet, par exemple, de faire des recherches sur le texte biblique dans le langage courant.
Par exemple, j’ai demandé à ChatGPT « Qui est Sanballat le Horonite ? ». Sa réponse que vous pouvez consulter ici synthétise les données bibliques, ainsi que quelques commentaires extra-bibliques.
Mais attention, souvenez-vous, l’IA ne comprend pas ce qu’elle dit, elle ne fait que redonner les éléments qui lui ont précédemment été fournis. L’IA est totalement incapable d’interprétation des textes, il n’y a pas d’ancien et de nouveau testament, il n’y a pas de styles de textes différents, elle ne comprend pas les métaphores. Si l’on veut qu’elle donne des résultats censés sur des question bibliques, on doit lui donner énormément de contexte, tels que des commentaires, des catéchismes, des documents de doctrine, des articles sur les sujets d’éthiques… Et ces documents devront avoir plus de poids que la Bible elle-même, sinon lorsque vous lui demandez si vous pouvez porter des vêtements faits de plusieurs tissus, elle vous l’interdira en citant Deutéronome 22.11.
L’IA permet d’accéder de manière très rapide à des contenus éparpillés. Non seulement des textes, mais aussi du contenu vidéo ou audio.
Très souvent, je l’utilise pour avoir une transcription et un résumé écrit d’une vidéo ou d’un audio. Plutôt que d’écouter pendant une heure et demie et décider ensuite si le contenu en valait la peine je vais lire un rapide résumé ou la transcription de la vidéo. Et quelques fois, je fais l’inverse, j’ai quelques articles que je n’ai pas eu le temps de lire, et je les écoute lors d’un trajet en voiture.
L’IA est un outil, un outil qui peut être vraiment utile, mais que l’on doit apprendre à connaître avant de le manier. Il n’y a pas plus dangereux qu’une personne qui manie un marteau sans savoir ce que c’est. Dommage, parce qu’on peut faire de belles choses avec un marteau. Les Proverbes nous enseignent à rechercher la sagesse et l’intelligence mais aussi que l’alternative à la sagesse c’est la folie (Prov. 1.1-7). Si l’IA peut faire preuve une « certaine intelligence », seule la recherche d’une relation avec Dieu au travers de la Parole peut nous faire grandir en sagesse pour ressembler à Christ et glorifier Dieu par nos vies.