Montessori à la maison avec les Montessouricettes

233. L'intelligence artificielle : ses limites et ses dangers

June 25, 2024 Anne-Laure Schneider Episode 233
233. L'intelligence artificielle : ses limites et ses dangers
Montessori à la maison avec les Montessouricettes
More Info
Montessori à la maison avec les Montessouricettes
233. L'intelligence artificielle : ses limites et ses dangers
Jun 25, 2024 Episode 233
Anne-Laure Schneider

Aujourd'hui, je souhaitais aborder avec vous un sujet énorme : l'intelligence artificielle ! 🤖

Quand j'ai commencé mes recherches, je pensais simplement vous parler de comment utiliser l'IA dans l'éducation. Mais avec TOUT ce que j'ai découvert, j'ai bien vite réalisé qu'il était essentiel de vous "mettre en garde" contre les dangers et les limites de cette technologie omniprésente dans notre quotidien, souvent sans que nous nous en rendions compte. 🛡️⚠️

Après de nombreuses heures de recherches, d'écoute de podcasts et de tests sur des outils d'IA, j'espère pouvoir vous offrir un épisode complet sur son histoire, ses limites et ses dangers. 📚🎧

Mais avant, pouvez-vous me dire à quel moment pensez-vous avoir affaire à l'intelligence artificielle dans votre quotidien ?

---

Catalogue des formations des Montessouricettes

Le site des Montessouricettes

Lien pour me laisser un petit message audio avec votre question ou votre suggestion de thème (j’inclurai votre message dans un prochain épisode !)

Notre communauté gratuite

Formation Aménager sa maison Montessori

Accompagnement à la Parentalité et à l’IEF Montessori

Vous pouvez nous envoyer vos retours, suggestions et commentaires ici

Vous pouvez nous envoyer vos retours, suggestions et commentaires ici :

Accompagnement à la Parentalité et l'IEF Montessori

Show Notes Transcript Chapter Markers

Aujourd'hui, je souhaitais aborder avec vous un sujet énorme : l'intelligence artificielle ! 🤖

Quand j'ai commencé mes recherches, je pensais simplement vous parler de comment utiliser l'IA dans l'éducation. Mais avec TOUT ce que j'ai découvert, j'ai bien vite réalisé qu'il était essentiel de vous "mettre en garde" contre les dangers et les limites de cette technologie omniprésente dans notre quotidien, souvent sans que nous nous en rendions compte. 🛡️⚠️

Après de nombreuses heures de recherches, d'écoute de podcasts et de tests sur des outils d'IA, j'espère pouvoir vous offrir un épisode complet sur son histoire, ses limites et ses dangers. 📚🎧

Mais avant, pouvez-vous me dire à quel moment pensez-vous avoir affaire à l'intelligence artificielle dans votre quotidien ?

---

Catalogue des formations des Montessouricettes

Le site des Montessouricettes

Lien pour me laisser un petit message audio avec votre question ou votre suggestion de thème (j’inclurai votre message dans un prochain épisode !)

Notre communauté gratuite

Formation Aménager sa maison Montessori

Accompagnement à la Parentalité et à l’IEF Montessori

Vous pouvez nous envoyer vos retours, suggestions et commentaires ici

Vous pouvez nous envoyer vos retours, suggestions et commentaires ici :

Accompagnement à la Parentalité et l'IEF Montessori

Speaker 1:

Montessori chez eux avec leurs enfants ou les enfants qu'ils gardent. Dans ce podcast, nous parlerons donc de pédagogie Montessori, mais aussi de discipline positive, d'instruction en famille ce qu'on appelle aussi l'école à la maison de co-schooling et de bien d'autres choses encore. Très chère Sourisette, aujourd'hui, on aborde un sujet énorme l'intelligence artificielle. Énorme, l'intelligence artificielle. J'ai attendu avant de vous proposer cet épisode parce que, comme je l'avais fait avant de vous parler de Caroline Goldman et de son time-out, comme je le fais quasiment à chaque fois que j'aborde un sujet de fond, comme je l'ai fait récemment avant de vous parler de l'éducation à la paix de Maria Montessori, avant d'aborder des sujets importants, je fais énormément, énormément de recherches Et donc, eh bien, j'ai appris énormément de choses sur l'intelligence artificielle. J'ai écouté beaucoup de podcasts, j'ai fait moi-même beaucoup de tests, d'expérimentations avec différents outils d'intelligence artificielle Et même si j'aurais encore, je pense, bien des choses à apprendre, je pense pouvoir vous proposer aujourd'hui un épisode assez complet sur l'intelligence artificielle, ce que c'est, ses limites et ses dangers. Donc, c'est ce qu'on va aborder aujourd'hui. Je vais vous faire un petit historique de l'intelligence artificielle, que vous compreniez comment les choses se sont développées, de quoi on parle quand on utilise des mots comme GPT, deep Learning, quand on parle d'intelligence artificielle, qu'est-ce qu'on entend exactement quand on parle de LLM, d'intelligence artificielle générative, etc. Donc, je vais vous expliquer tout ça. Rassurez-vous, je vais beaucoup vulgariser, même si, forcément, il y aura un côté un petit peu technique. Il y aura peut-être des anglicismes aussi, parce que c'est un domaine, l'informatique, où évidemment, l'anglais est la langue principale et même si on essaie autant que possible de traduire les termes, dans ce domaine, c'est souvent compliqué. Donc, comme je disais, je vais vous présenter un petit peu l'IA, vous refaire un petit historique, vous expliquer où on en est exactement là aujourd'hui, en juin 2024. Si vous écoutez ce podcast mettons en 2025, je pense que les choses auront déjà beaucoup évolué depuis. J'aborderai ensuite les dangers de l'intelligence artificielle, les solutions possibles à ces dangers, les solutions qu'on essaie de mettre en place, plus spécifiquement en France. Et puis, plus particulièrement, parce que vous savez que mon domaine, c'est celui de l'éducation, j'aborderai en toute fin les limites de l'intelligence artificielle en matière d'éducation, spécialement Et pour vous expliquer un petit peu d'où je viens sur ce sujet de l'intelligence artificielle. C'est un sujet qui m'intéresse en fait depuis que je suis toute petite, là où la plupart des petites filles rêvent de devenir princesse ou peut-être astronaute ou autre. Alors, rassurez-vous, j'avais quand même envie de devenir princesse, ou peut-être astronaute ou autre. Rassurez-vous, j'avais quand même envie de devenir princesse.

Speaker 1:

Je passais l'essentiel de mon temps après l'école déguisée en princesse. Mais mon rêve, disons dès 8-9 ans, c'était de faire polytechnique et de travailler dans le domaine de l'intelligence artificielle. Et je vais être franche, je n'ai aucune idée d'où ça m'est venu. Voilà, je ne sais pas d'où m'est sortie cette idée. En tout cas, c'est l'idée que j'avais en tête Et, très franchement, c'est l'idée que j'ai eu en tête jusqu'à ma maths P. Et c'est en passant, les concours de Polytechnique et de Normalsup que j'ai réalisé, au type de sujet qui était proposé, qu'en fait je préférais Normalsup à Polytechnique.

Speaker 1:

Et après avoir redoublé ma Mathspace, je trouve que j'ai eu le choix entre les deux et que j'ai choisi Normalsup. Et donc, j'aurais très bien pu me retrouver à travailler dans le domaine de l'intelligence artificielle. Je n'étais pas très loin, parce qu'il se trouve qu'au final, j'ai travaillé dans le domaine de la logique mathématique et informatique Et vous allez voir comment ces deux domaines sont relativement proches. Je vais aborder ça dans deux minutes. Mais ce qui m'a fait rire, c'est qu'il y a peu de temps, j, une cousine éloignée qui va rentrer en thèse à Oxford sur l'intelligence artificielle à partir de septembre 2024 et qui était très surprise de savoir que, petite fille, c'était mon rêve, parce que dans sa tête, c'était quelque chose d'extrêmement récent Et elle était convaincue qu'il n'y avait pas de parcours en intelligence artificielle, qu'il n'y avait pas de formation en intelligence artificielle à l'époque.

Speaker 1:

Alors, la raison pour laquelle je voulais faire Polytechnique, c'est que, justement, l'intelligence artificielle était plus répandue dans l'armée et que Polytechnique est, à la base, une école militaire. Mais pour moi, l'occasion de faire ce petit historique, c'est pour vous expliquer qu'effectivement, l'intelligence artificielle, ça n'est pas un sujet récent. La raison pour laquelle on en parle beaucoup, c'est qu'il y a eu une explosion que je vais vous expliquer. Mais en fait, c'est un sujet assez ancien. C'est un sujet qui On peut trouver des racines très, très anciennes, même dans l'Antiquité, à cette idée de mettre de l'intelligence dans des objets inanimés. C'est un petit peu le mythe de Pygmalion, par exemple.

Speaker 1:

Mais de façon plus concrète, avec le développement de l'informatique, les débuts de l'intelligence artificielle datent d'après la Seconde Guerre mondiale. Déjà même pendant la Seconde Guerre mondiale, avec le décryptage, etc. On travaillait encore beaucoup sur l'intelligence artificielle, sur décryptage, etc. Ont travaillé encore beaucoup sur l'intelligence artificielle, sur cette notion d'intelligence artificielle. C'est vers les années 50 que Alan Turing, qui est un très grand informaticien britannique, a imaginé une intelligence artificielle qui pourrait parler avec un humain et a proposé ce qu'on appelle aujourd'hui le test de Turing. Il estimait que le test ultime, ce serait de pouvoir discuter avec une intelligence artificielle, par exemple sous forme de texte, comme on le fait aujourd'hui avec ce qu'on appelle un chatbot, pour avoir une conversation avec cette intelligence artificielle. Et si la personne qui fait le test n'est pas capable de dire s'il s'agit d'une intelligence artificielle ou d'un humain, alors le test de Turing serait passé.

Speaker 1:

L'intelligence artificielle serait indistinguable d'une intelligence humaine. Alors, pour aboutir, c'était une forme d'intelligence artificielle. Ça, c'est une intelligence artificielle capable de converser. Il y en a plein d'autres formes, mais Ce test de Turing, il date déjà des années 50.

Speaker 1:

À partir de là, on a utilisé deux voies, deux grands chemins dans le développement de l'intelligence artificielle. Il y avait d' développement de l'intelligence artificielle. Il y avait, d'un côté, l'apprentissage à base de réseaux de neurones, en particulier avec des perceptrons à un moment, je vais vous expliquer plus en détail ce que c'est dans quelques minutes Et en fait, il cherchait à reproduire le fonctionnement du cerveau humain avec un mécanisme qui imite le fonctionnement des neurones. Et l'autre approche, c'était l'approche logique, avec des logiciels comme Prologue. L'idée d'un langage logique, c'est qu'on donne des règles logiques à un ordinateur et qu'il est, par exemple, capable de faire une démonstration mathématique.

Speaker 1:

Alors, moi, dans mon parcours, comme j'ai travaillé en logique mathématique et informatique, justement, j'ai beaucoup travaillé avec Prologue, j'ai travaillé sur la théorie des jeux, j'ai travaillé sur différentes formes de logique informatique, avec pour but de démontrer des propriétés mathématiques par l'ordinateur. Alors, ce que je faisais était très théorique, j'avais très peu les mains dans le cambouis, les mains dans la ligne de code. Mais voilà, il y a ces deux approches l'approche logique, la deuxième dont je vous ai parlé, elle consiste davantage à voir l'intelligence comme des capacités de raisonnement logico-déductif. Donc, vous avez des éléments de base, vous pouvez en tirer des conclusions logiques. On donne des règles de logique à l'ordinateur et, à partir de là, on voit quelles conclusions il peut en tirer.

Speaker 1:

Donc, ça fonctionne très bien pour démontrer des théorèmes mathématiques. Ça, on sait le faire, mais évidemment, dans la vie de tous les jours, enfin, évidemment, c'était pas si évident que ça, mais dans la vie de tous les jours, ça montre ses limites. Ça ne va pas suffire pour développer un système comme aujourd'hui, chatgpt, parce que ça voudrait dire que pour avoir une conversation avec un être humain, il faudrait lui donner toutes les règles du langage. Et en fait, c'est extrêmement compliqué. Vous avez tout ce champ de recherche et d'études qui est la linguistique, qui a pour but d'étudier les langues humaines. Mais on n'a pas fini d'explorer les langues humaines et les règles qui s'y attachent. C'est un domaine extrêmement compliqué.

Speaker 1:

Donc, introduire toutes ces règles dans un ordinateur, ça serait trop laborieux. En fait, on n'a pas réussi encore à faire des outils du type chatbot efficaces avec une approche logique. Et donc, l'autre approche, c'est l'apprentissage à base de réseaux de neurones. L'idée de ces réseaux de neurones, c'est que, comme je disais, on va reproduire le système du cerveau. Donc, dans votre cerveau, vous avez des neurones qui sont reliés les uns aux autres, qui s'envoient des signaux électriques.

Speaker 1:

Eh bien, l'intelligence artificielle à base de réseaux de neurones, je vous reviendrai un peu plus en détail dessus, mais le principe de base, c'est qu'on laisse. Je vais vraiment schématiser, mais, en gros, on a une information en entrée, une requête. On met cette requête, on la fait rentrer dans le réseau de neurones. Le réseau de neurones va faire passer l'information par différents chemins dans le réseau de neurones et puis va proposer une réponse, ou plein de réponses, et on va donner à l'ordinateur ce qui était la bonne réponse. Et, à partir de là, l'ordinateur va se dire ok, quels sont les chemins qui aboutissaient à cette bonne réponse? Et ces chemins-là, je vais leur donner une priorité plus importante. Et puis, on va continuer comme ça, à entraîner l'ordinateur à lui envoyer de nouvelles requêtes, à lui donner la bonne réponse qui était attendue, et on va voir, comme ça, l'ordinateur trouver les bons chemins en fonction de la requête, pour aboutir à la bonne réponse.

Speaker 1:

Et donc, ça fonctionne. C'est de l'apprentissage Et c'est extrêmement similaire à la façon dont nous-mêmes nous apprenons, c'est-à-dire que plus nous apprenons les choses, plus nous empruntons certains chemins dans notre cerveau, des connexions neuronales, plus ces connexions neuronales sont recouvertes d'une gaine qu'on appelle la myéline sont recouvertes d'une gaine qu'on appelle la myéline, qui est une gaine de graisse qui permet d'accélérer le signal électrique que va envoyer ce neurone. Donc, en fait, plus on emprunte un chemin de neurones dans notre cerveau, plus ce chemin va devenir une autoroute de l'information. Moins on emprunte un chemin, plus on a de chances que le cerveau vienne élaguer et donc couper certaines connexions neuronales qui ne sont pas empruntées.

Speaker 1:

Voilà un peu les deux grandes approches, on pensait jusqu'à peu, disons, que quand moi, je m'intéressais à l'intelligence artificielle, c'était encore l'approche logique, je dirais, qui était la plus développée, celle dans laquelle on passait peut-être le plus d'espoir. Et en même temps, pendant que je faisais mes études, quand j'étais à Normalsup, entre 2005 et 2010 à peu près, j'avais justement un ami qui, lui aussi, travaillait en informatique et travaillait sur les réseaux neuronaux. Donc voilà, vous voyez que les deux approches sont cohabitées, avec des objectifs quand même différents. Cette amie, aujourd'hui, travaille chez Google. Donc, vous voyez qu'on a suivi des parcours un peu différents. Donc, je vous reprends un petit peu l'historique de l'IA pour que vous compreniez d'où on vient, les difficultés qu'il a pu y avoir et où on en est aujourd'hui, parce que ça s'est énormément accéléré dans les dernières années.

Speaker 1:

On avait déjà, dans les années 70, ce qu'on peut appeler des systèmes experts qui fonctionnaient bien, c'est-à-dire des systèmes d'intelligence artificielle spécialisés dans un domaine très précis. On avait pu, à partir de règles simples, à partir de données qui étaient, pour un cerveau humain, complexes et nombreuses, mais pour un ordinateur qui était assez limité, on avait pu créer, par exemple, en 1972, un logiciel pour diagnostiquer les maladies infectieuses du sang. Donc, on avait des systèmes très spécifiques comme celui-ci, qui étaient pour la première fois vraiment utiles à l'humanité. Avant ça, on avait des théories assez complexes, mais on n'avait pas de système général Et, évidemment, on s'est confronté à des difficultés pour développer un système général. L'une de ces difficultés, c'est que lorsque je vous dis ceci est une table, c'est évident pour vous. Si je vous montre une chaise, vous allez me dire que c'est une chaise.

Speaker 1:

Mais comment expliquer à un logiciel ce qu'est précisément une table ou une chaise, pourquoi est-ce que tel objet est une chaise et pas un tabouret Et pourquoi cet objet est une table et pas un guéridon ou une console? En fait, ça n'est pas si simple à expliquer et ça demande beaucoup d'informations. Là où le cerveau du bébé parce que c'est le cerveau du bébé et du jeune enfant va absorber tout ça, c'est ce que Maria Montessori appelle l'esprit absorbant il va absorber, entre autres, le langage, simplement en vivant dans le monde, dans la culture dans laquelle il est né. C'est là où c'est beaucoup plus compliqué de passer, de transmettre tout ça par une approche logique à l'ordinateur. Vous voyez bien que s'il fallait établir des règles, la quantité de règles qu'il faudrait poser simplement pour qu'un ordinateur reconnaisse qu'il s'agit d'une table et non pas d'un guéridon, c'est compliqué, et ça, c'est pour un mot Et un mot simple, un mot de la vie de tous les jours.

Speaker 1:

Donc, imaginez combien ça peut être beaucoup plus complexe lorsqu'il s'agit de comprendre le langage dans son ensemble. Et c'est là que, justement, l'apprentissage à base de réseaux neuronaux a pu faire ses preuves récemment et qu'on a eu cette explosion de l'intelligence artificielle. Une autre difficulté, c'est ce qu'on appelle le paradoxe de Moravec, c'est qu'en fait, ce ne sont pas les compétences logico-déductives qui sont les plus difficiles à imiter. Ça, on sait assez bien le faire avec des logiciels comme Prologue, ça fonctionne relativement bien. Mais le plus difficile, en fait, ce sont les compétences sensorimotrices. Lorsque vous devez vous déplacer, mettons dans un bar un petit peu bondé, avec des gens sur des tabourets, des tables, des chaises, il n'y a pas besoin de sortir de Polytechnique pour traverser la pièce sans se cogner partout Eh bien, pour une intelligence artificielle, ça va être beaucoup plus difficile. Ça, c'est quelque chose que l'intelligence artificielle va avoir du mal à reproduire. Comment se déplacer dans une pièce sans collision? Donc, ces compétences liées au sens, au côté sensoriel et au côté moteur, vont être les plus compliquées à reproduire pour l'intelligence artificielle.

Speaker 1:

Donc, ça, ça fait partie des difficultés auxquelles on s'est heurté aussi dans les années 70-80. Et puis, en fait, il y a eu énormément d'enthousiasme autour de l'IA, avec beaucoup de livres de science-fiction d'ailleurs à cette époque aussi, et beaucoup de chercheurs qui se disaient Dans dix ans, on va avoir une intelligence artificielle capable de faire ceci ou cela. Et en fait, ces promesses n'étaient jamais tenues, ils étaient un petit peu trop optimistes. Il y a eu beaucoup de progrès au tout début, et puis un grand plateau, une grande stagnation Et, au final, dans les années 90, en tout cas aux Etats-Unis, le terme d'IA, d'intelligence artificielle, est devenu un petit peu ridicule, parce qu'il y avait trop de promesses non tenues. Donc, tout ce qu'on a développé, qui était de l'intelligence artificielle, a été développée sous un autre nom.

Speaker 1:

À cette époque-là, par exemple, on parlait de système à base de connaissances, mais pas d'IA, parce que quand on parlait d'IA, on pensait science-fiction. Alors, il n'empêche que dans le Voilà moi je suis née en 87, donc dans le domaine de la vie de tous les jours, l'ia pouvait quand même fasciner. Ça a fasciné la petite fille que j'étais au milieu des années 90, et ça a continué à me fasciner jusque dans les années 2000. Mais, mine de rien, l'ia a continué à se développer discrètement, sans qu'on utilise tellement ce terme, qu'on utilise tellement ce terme, et je pense que c'est pour ça que la cuisine dont je vous parlais était surprise, que j'ai pu avoir cette envie de m'orienter vers l'IA, parce que, pour elle, c'était quelque chose qui était apparu assez récemment, en fait, non, mais on a employé ce terme plus largement récemment.

Speaker 1:

Mais lorsque vous utilisez le moteur de recherche Google, par exemple, vous utilisez une intelligence artificielle. L'intelligence artificielle, elle est aussi présente dans les réseaux sociaux. Ça commence à faire quelques années maintenant, ça commence à faire presque plus de 20 ans, l'existence des réseaux sociaux. C'est une intelligence artificielle qui construit votre flux en fonction de ce qui vous intéresse le plus, qui compare des vidéos, des photos à ce que vous avez déjà aimé commenter par le passé. Ça demande quand même une intelligence artificielle, tout ça, mais c'est vrai qu'on employait assez peu ce terme. Alors, ensuite, on en arrive, on commence à arriver à tous les progrès qui ont pu être faits, je dirais à partir des années 2010.

Speaker 1:

Et pour ça, il faut distinguer deux choses. Vous avez le machine learning et vous avez le deep learning. Le machine learning, c'est un petit peu ce que je vous expliquais, avec des règles bien définies, à enseigner à l'ordinateur. C'est long et compliqué. Il faut beaucoup, beaucoup, beaucoup d'informations structurées par l'être humain pour que, ensuite, la machine puisse apprendre. Et en revanche, il y a le système du deep learning, qui se traduirait par apprentissage profond, apprentissage en profondeur.

Speaker 1:

Le principe est donc d'utiliser des réseaux neuronaux, comme je vous le disais, et c'est par exemple ce qu'on a utilisé pour la reconnaissance d'images. C'est un sujet qui s'est énormément développé ces dernières années. Ça fait, je pense, énormément développé ces dernières années. Ça fait, je pense, oui, 10-15 ans, que ça s'est beaucoup développé.

Speaker 1:

Par exemple, si vous cherchez à apprendre un logiciel à reconnaître un éléphant, vous allez lui montrer des images d'éléphants et des images d'autres animaux, et puis le logiciel va isoler des traits. Déjà, il va distinguer un peu la silhouette de l'animal que vous lui proposez. Il va distinguer certains ensembles de traits, par exemple le trait de l'oreille de l'éléphant, par exemple le trait de la croupe de l'éléphant, le trait sous les pattes de l'éléphant, ou le tracé d'une patte, justement, ou le tracé de la trompe, le tracé des défenses, donc, plein de petits traits comme ça, et puis d'autres traits, peut-être le trait de la queue, etc. Qui sont moins spécifiques de l'éléphant, par exemple, si vous prenez le tracé de la croupe de l'éléphant, il n'est pas très différent de celui du rhinocéros. Mais donc, le logiciel va isoler certains traits dans l'image que vous lui montrez Et il va faire des prédictions Elephant, pas éléphant.

Speaker 1:

Et vous, vous allez lui dire ça, c'était un éléphant, et donc c'est ce que je vous ai expliqué. Il va observer dans son réseau neuronal quelles sont les connexions qui donnaient la bonne réponse, qui disaient c'est un éléphant. Il va accorder plus de poids à ces connexions neuronales-là. Il va regarder les éléments qui indiquaient que ce n'était pas un éléphant et il va accorder moins de poids à ces connexions-là. Et puis, lorsque l'image vous dirait à l'ordinateur qu'en fait elle représentait un lion, eh bien la machine va faire l'inverse, c'est-à-dire qu'elle va accorder moins de poids à toutes les connexions qui lui disaient que ça doit être un éléphant et plus de poids à celles qui disait ça n'est pas un éléphant. Alors, ça semble compliqué et long comme ça.

Speaker 1:

En fait, c'est extrêmement rapide, parce que vous n'avez qu'à donner une banque de données à la machine avec plein de photos d'éléphants étiquetées comme étant des photos d'éléphants et plein de photos d'autres animaux étiquetées comme par un éléphant. Et en fait, la machine apprend toute seule Et apprend très vite, et elle se perfectionne, ce qui fait qu'elle va aller renforcer. C'est comme si elle renforçait, dans son réseau neuronal, les connexions, un petit peu comme les enfants le font. Je vous raconte une petite anecdote qui va vous aider à comprendre. C'est une digression, mais rassurez-vous, vous allez comprendre le rapport.

Speaker 1:

Lorsque notre aîné avait 3-4 ans, il est venu nous voir un jour en courant, en disant Papa, maman, il y a un dinosaure. J'ai vu un dinosaure dans le jardin. Alors, on était un petit peu surpris, intrigués, a priori, ce n'était pas un dinosaure, on était bien conscients, mais qu'est-ce qu'il avait pu voir? Le cul-à-duit dit mais quoi Qu'est-ce que tu as vu? Un dinosaure.

Speaker 1:

Alors, on est allés dans le jardin avec lui, on est sortis Et là, on a vu un lézard. Alors, oui, ils n'étaient pas très loin, c'est de la même famille. Il y a plein de choses qui sont similaires, mais il y a quand même une grosse différence, c'est que le lézard, c'est tout petit, et que le dinosaure, c'est très grand, et que le dinosaure, ça n'existe plus aujourd'hui. Donc, l'intelligence artificielle, elle va comme çaes, un peu comme ça, ça peut être un dinosaure, ça peut être un lézard, et donc elle va peut-être mettre tout ça dans une famille, ressemble au dinosaure, elle va accorder du poids, aux connexions neuronales qui reconnaissent les traits de la queue plus longue, qui reconnaissent le fait que ce soit, par exemple, un animal près du sol avec les pattes. Et donc, au départ, elle va faire des erreurs. Et elle va faire comme notre fils, parce que c'est le même type d'apprentissage que les enfants l'erreur de dire Ah, cette photo de lézard, c'est un dinosaure.

Speaker 1:

En revanche, cette photo de lion, ce n'est pas un dinosaure. Et lorsqu'elle va dire cette photo est une photo de dinosaure, elle va pouvoir vérifier quelle était la bonne réponse. Elle ne va pas savoir que c'était un lézard. Et donc, elle va aller voir la différence entre, en quelque sorte, les connexions neuronales qui s'allument, celles qui donnent la bonne réponse pour le dinosaure et celles qui donnaient la mauvaise réponse pour le lézard.

Speaker 1:

Mais qu'est-ce qui s'est allumé dans les deux cas Et où est la différence? Et peut-être qu'il va y avoir une différence. Elle va s'apercevoir. Quand je dis s'apercevoir, évidemment c'est mécanique, ce sont juste des signaux électriques. Ça veut dire que là, il y a une différence. Il y a la connexion neuronale qui reconnaît que cet animal est très grand et cette connexion neuronale qui reconnaît que l'animal est petit, et puis d'autres choses, évidemment, qui distinguent les lézards des dinosaures. Elle va donc accorder plus de poids qu'elle ne le faisait jusque-là à la taille de l'animal. Ça va être un paramètre qu'elle va davantage prendre en considération. Donc, c'est comme ça que, petit à petit, l'ia apprend.

Speaker 1:

C'est ce qu'on appelle du deep learning. Du deep learning, parce qu'il faut voir ce réseau neuronal comme une série de couches. Il y a une couche d'entrée dans laquelle on envoie l'invite, l'entrée, ça passe ensuite par tout un tas de couches intérieures et on arrive à la couche supérieure, qui est la couche de sortie. Et donc, ces couches à l'intérieur, il peut y en avoir énormément, et c'est pour ça qu'on parle d'apprentissage en profondeur. Alors, aujourd'hui, il faut bien se dire que l'apprentissage qui a été fait, c'est du deep learning, c'est de l'apprentissage en profondeur, et qu'ils ne se sont pas seulement entraînés sur une petite base de données, mais les intelligences artificielles d'aujourd'hui se sont entraînées sur l'ensemble d'Internet. Déjà, Vous imaginez ce que ça représente comme quantité d'informations. Tout Internet, c'est pas juste tout Wikipédia, mais c'est déjà tout Wikipédia, puis tout Internet, plus des séries de bases de données, de livres, de documents, tout un tas de choses qui ont été scannées, etc. Alors, les progrès de l'IA, je dirais qu'ils ont surtout eu lieu durant les 15 dernières années, une grosse accélération les 5 dernières années.

Speaker 1:

Vous avez DeepMind, qui a été créé en 2010 et en 2016,. Leur intelligence artificielle, l'entreprise DeepMind, cette IA, a battu le meilleur joueur de Go du monde 4 à 1. Alors vous avez sûrement déjà entendu parler des victoires de Deep Blue, etc. Aux échecs contre Kasparov et autres. Ça s'est dépassé depuis longtemps qu'un ordinateur puisse gagner aux échecs. Déjà quand j'étais petite, c'était le cas Là. Le Go est un jeu beaucoup plus complexe encore que les échecs, c'est-à-dire qu'il y a beaucoup plus de probabilités encore de combinaisons possibles. Donc, c'était un progrès encore bien plus important que les échecs. Donc, ça, ça date de 2016.

Speaker 1:

En 2014-2015, vous avez trois personnalités qui sont quand même pas des inconnus Stephen Hawking, bill Gates et Elon Musk, qui ont manifesté leur inquiétude au sujet de l'IA Déjà il y a presque dix ans. En 2015, vous avez OpenAI, qui a été créé avec, entre autres, elon Musk justement, qui pensait pouvoir travailler sur l'IA autrement. L'idée d'OpenAI, c'est une idée qui s'inspire de ce qu'on appelle en informatique l'open source. L'openai, c'est une idée qui s'inspire de ce qu'on appelle en informatique l'open source. L'open source, c'est une philosophie, si on veut, du logiciel, qui a été développée par les informaticiens, qui avaient des grands idéaux. Le principe de l'open source, c'est de dire quand on crée un logiciel, il faut que son code soit ouvert à tous.

Speaker 1:

D'où le terme de open source, que le code source soit ouvert, accessible par tous. Et l'idée, c'est que ça avait plusieurs intérêts. Premier intérêt, ça veut dire que n'importe qui peut vérifier ce qu'il y a dans le code Et donc vérifier qu'il n'y a pas des choses nocives. Par exemple, vous savez, vous pouvez très bien télécharger un logiciel qui fait quelque chose d'utile, mais qui, en même temps, va pirater vos mots de passe. Lorsque vous avez une webcam sur votre ordinateur, on pourrait imaginer que le logiciel de base de votre ordinateur vous filme sans votre consentement.

Speaker 1:

Donc, l'intérêt de tout ce qui est en open source, c'est qu'on peut aller voir le code, qu'on peut s'assurer qu'il n'y a rien de malveillant dedans. La deuxième chose, c'est que comme le code est ouvert à tous, on peut l'améliorer. On peut l'améliorer pour remédier à des bugs, à des défauts, à des risques, justement, à des faiblesses face au piratage, et on peut tout simplement l'améliorer, rajouter des fonctionnalités, créer des choses encore plus utiles à partir de ce code source. Donc, tout ça, c'est le principe de base de l'open source. Et donc, openai était fondé un petit peu sur ce principe-là de créer une intelligence artificielle qui soit ouverte, qui ne soit pas dépendante d'une entreprise, par exemple, comme Facebook ou Microsoft ou autre, même si vous allez voir que les choses ont un petit peu évolué là-dessus. Alors, on en était en 2015 avec l'ouverture d'OpenAI.

Speaker 1:

Elon Musk, comme je vous le disais, a participé à la fondation d'OpenAI et est parti en 2018, parce qu'il n'était plus vraiment d'accord avec ce qui se passait dans OpenAI. Et en 2018, justement, c'est un moment où l'IA a commencé à battre l'humain dans des tests de lecture et de compréhension écrite. Je vous parlais du test de Turing tout à l'heure. Le test de Turing, c'est un test où l'expression écrite de l'ordinateur de l'IA n'est pas distinguable de l'expression écrite d'un être humain. En tout cas, là, en 2018 déjà, dans les tests de lecture et de compréhension écrite, l'ia l'emportait sur l'être humain. Ensuite, en 2021, vous avez la création d'Anthropic.

Speaker 1:

Anthropic, ça s'écrit Alors, c'est pas lié à l'entropie, c'est A-N-T-H-R-O-P-I-C, de la même racine que anthropologie, anthropic. Ce sont des gens qui ont quitté Open AI et qui, en 2021, ont fondé Anthropic pour privilégier la sûreté. Leur objectif, c'est que ce soit une IA centrée sur l'humain, que ce soit dans l'intérêt de l'être humain et, là encore, pas d'une autre entreprise. Ce qu'il faut vous dire que OpenAI, qui avait donc cette idée très open source, etc. A été racheté par Microsoft. Et donc, vous avez des gens qui étaient un peu inquiets, qui ont quitté OpenAI, qui ont fondé Anthropic et leur IA s'appelle Cloud. Ce qui est intéressant, c'est que Cloud, ils l'ont développé et c'est ce qu'ils appellent une IA constitutionnelle.

Speaker 1:

C'est bizarre, on a entendu parler de monarchie constitutionnelle, par exemple, mais pas d'intelligence artificielle constitutionnelle. Le principe, c'est que cette IA, elle apprend comme les autres, avec du deep learning, de l'apprentissage en profondeur, comme je vous l'expliquais, avec les réseaux neuronaux. Mais ensuite, il y a un renforcement qui est effectué, c'est-à-dire qu'après on peut ajuster un petit peu l'IA. Là, ce qui va se passer, c'est que chacun des résultats de l'IA va ensuite être confronté à une constitution, en fait, on pourrait dire une charte de bonne conduite, et les réponses qui sont les plus conformes à cette charte seront renforcées et les autres seront éteintes petit à petit. Donc, ça veut dire que l'IA va pouvoir respecter certains principes qui sont bons pour l'humanité. Vous allez voir que ça peut avoir de l'importance, j'en parlerai dans la suite. Dans les bons pour l'humanité, vous allez voir que ça peut avoir de l'importance. J'en parlerai dans la suite.

Speaker 1:

Dans les dangers de l'IA, vous allez comprendre le genre de choses qui peuvent vraiment poser problème. Donc, voilà pour Anthropic, avec leur IA qui s'appelle Cloud. Et puis, de son côté, openai, racheté par Microsoft, a développé ChatGPT 3.5, chatgpt 3.5, chatgpt 4 et récemment, chatgpt 4.0 ou 4.0 Omni. Et depuis, chatgpt vous en avez peut-être entendu parler, c'est ce qu'on appelle un chatbot. Le principe, c'est donc simplement que vous allez écrire un message et que le chatbot va vous répondre Et vous n'allez pas. Ça va être une conversation qui va être relativement fluide, c'est-à-dire qu'effectivement, ça devient difficile de savoir si c'est un être humain au bout ou pas. Les chatbots, c'est le terme anglais, c'est aussi ce qu'on peut appeler un agent conversationnel ou un dialogueur. En français, ce n'est pas encore vraiment rentré dans les mœurs, ces deux appellations, mais je voulais vous les donner. Agent conversationnel, dialogueur, tout ça, ce sont des chatbots. On va avoir une conversation avec un robot bot et on va chatter avec le bot.

Speaker 1:

Chat. Gpt-4 et 4O sont capables de prendre en charge aussi des fichiers audio. Grâce à une autre intelligence artificielle de reconnaissance audio qui s'appelle Whisper, qui veut dire chuchoter, ils peuvent aussi prendre en compte les fichiers vidéo. Tout ça n'est pas forcément encore sorti publiquement. c'est à dire qu'ils ont fait des démonstrations mais on n'y a pas forcément accès publiquement. Mais on va pouvoir maintenant dialoguer avec ChatGPT à l'oral, avec sa webcam et son micro. Et là, ce qui se développe, c'est que ChatGPT devient non seulement un agent conversationnel ça c'est déjà mais un agent conversationnel émotionnel. En fait. Il fait preuve d'excellente capacité à observer, donc par vidéo et par micro, son interlocuteur, à déceler les micro-expressions qu'on peut avoir.

Speaker 1:

Si vous avez déjà regardé la série Lie to Me, ça parle justement de ces micro-expressions qui révèlent nos émotions cachées. Ça parle d'un homme, d'un scientifique, spécialement entraîné pour ça, pour repérer toutes ces micro-expressions qu'on ne contrôle pas, qui permettent, même si on est en train de sourire on aura peut-être eu une micro-expression de dégoût juste avant et il était capable de les distinguer. Ça, l'ordinateur aussi va être capable, est capable déjà en fait, de les distinguer et d'adapter ce qu'il va répondre, la tonalité avec laquelle il va répondre, etc. À nos émotions. Par ailleurs, ce sont aussi des IA qui ont d'excellentes capacités en traduction dans 50 langues. Moi-même, j'ai travaillé pendant 6 ans dans le domaine de la traduction. C'était de 2011 à 2016. 2017, oui, 2011 à 2016,.

Speaker 1:

La traduction par machine était incroyablement mauvaise. Certaines entreprises l'utilisaient pour gagner du temps et demandaient à des traducteurs de repasser derrière. En fait, ça prenait plus de temps de corriger les traductions automatiques que d'en créer de nouvelles, que de les créer directement. Aujourd'hui, ça n'est plus le cas.

Speaker 1:

Aujourd'hui, honnêtement, le secteur de la traduction et de l'interprétariat va souffrir. Je vous le dis vraiment à toute connaissance de cause, parce que j'ai pu voir ces outils de traduction, les outils de reconnaissance orale aussi se sont énormément améliorés, les outils de transcription. Honnêtement, les traducteurs et les interprètes ont beaucoup, beaucoup de soucis à se faire. Je pense que dans les instances internationales, ça va probablement se maintenir à cause des enjeux importants, mais il faut être bien conscient que c'est un métier qui touche à sa fin. Il y aura sans doute encore des traductions littéraires, des domaines comme la transcréation, mais pour le reste, ça devient assez inquiétant. Donc, voilà pour ChatGPT 4.0, qui est vraiment la toute nouvelle version qui est sortie en mai 2024.

Speaker 1:

Tout n'a pas encore été déployé, en particulier pas encore la prise en compte des fichiers audio et vidéo. Voilà où on est OpenAI à l'heure actuelle. et en parallèle, vous avez d'autres entreprises qui créent leurs propres intelligences artificielles. Vous avez Google, qui a créé Gemini, gemini, facebook, qui a créé Lama Lama, avec deux L L-L-A-M-A. Je vais vous expliquer pourquoi dans un instant. Il y a ces deux L. Vous avez aussi les Émirats Arabes Unis, qui ont sorti Falcon.

Speaker 1:

Bref, ça se développe. Chacun veut créer son IA le plus vite possible et les déploie le plus rapidement possible dans l'espoir d'être les premiers sur le marché. Parce que quand on est les premiers sur le marché, on a un court instant de monopole. C'est-à-dire que là déjà, tchadjepété, qui est le premier à être sorti avec de telles compétences, on va dire, a pris une ampleur phénoménale Et a pris une ampleur phénoménale. Et du coup, même si vous n'avez pas en tête toute cette historique de l'IA dont je viens de vous parler, même si vous ne connaissiez pas toutes les IA, vous avez forcément déjà entendu parler de ChatGPT. Vous n'avez peut-être pas entendu parler de Gemini et de Lama. Donc voilà, tout le monde se dépêche de déployer ses IA le plus vite possible, quitte à aller un petit peu vite. Alors pourquoi je vous parlais de ces deux ailes de l'AMA pour l'intelligence artificielle de Facebook? Snapchat a sorti aussi une intelligence artificielle, directement sur son appli, directement sur son appli. Et, oui, facebook a ouvert Lama et a déployé Lama et a proposé à tous ceux qui avaient une bonne raison d'accéder au code source de Lama.

Speaker 1:

Je crois qu'on est à Lama 3. Et, en fait, ils ont très peu contrôlé les choses et, très peu de temps après tout, le code source de l'AMA s'est retrouvé diffusé sur Internet, sur des forums. Donc, aujourd'hui, tout le monde peut utiliser l'AMA. Et c'est un petit peu le problème de l'open source. Je vais y revenir dans la question des dangers de l'open source, je vais y revenir dans la question des dangers de l'IA.

Speaker 1:

Mais pourquoi donc, je vous disais, pourquoi est-ce qu'il y en a, ces deux L? En fait, tous ces modèles, on peut les appeler des GLLMM Generative, large Language Multimodal Model, un modèle multimodal de grand langage, génératif. En fait, vous avez les LLM, les Large Language Models, où tout est considéré comme un langage, c'est-à-dire que la musique est un langage, une image est un langage à base de pixels, l'adn est un langage à base de quatre protéines. Donc, dans un LLM, tout est considéré comme un langage. Et donc, vous retrouvez dans ce LLM le lama de Facebook.

Speaker 1:

Ils ont juste rajouté un A Et une autre appellation, qui vient du Center for Human Technology, c'est Golem. Parce que Golem, si vous prenez le GLLMM, pour ce modèle génératif, multimodal, à large langage, à grand langage. Vous rajoutez juste un O et un E et ça fait golem, et ça correspond à cette légende juive du golem, un être fabriqué à partir d'argile mais à qui on insufflerait la vie. C'est un petit peu la même chose que cette notion d'intelligence artificielle. Alors, dernier petit point, pour Voilà je sais que c'est, si vous êtes encore à l'écoute, bravo de vous être accrochés jusque-là Un point très important. On parle d'intelligence artificielle, mais il faut bien comprendre que la notion d'intelligence, elle, est très subtile Et pour ça, on peut reprendre cette image, assez répandue dans ce domaine-là, de la chambre chinoise.

Speaker 1:

L'histoire de la chambre chinoise, c'est imaginer quelqu'un dans une pièce à qui on envoie des messages en chinois, et ces messages en chinois, il les traduit. Mettons en japonais. Pour ça, il a un dictionnaire chinois-japonais. Il voit un mot chinois et il doit le transcrire dans un autre mot en japonais, et donc, il reçoit son message et, caractère par caractère, il transcrit le message du chinois au japonais. Sauf que imaginez que ce traducteur, entre guillemets, soit français et n'ait jamais eu la moindre notion ni de chinois, ni de japonais.

Speaker 1:

Il a beau traduire le message, il ne le comprend pas. Eh bien, c'est la même chose pour l'ordinateur. Quand on parle d'intelligence artificielle, on peut parler d'une chambre chinoise, c'est comme ça qu'on appelle cette métaphore, c'est-à-dire qu'on rentre des choses dans l'ordinateur, l'ordinateur ressort des choses, mais il n'a pas conscience. De lequel travaille beaucoup Stanislas Dehaene, c'est de trouver le siège de la conscience, qui n'est peut-être pas dans le cerveau d'ailleurs, parce qu'il y a des expériences de mort cérébrale où, apparemment, la conscience reste. Donc, il y a encore, vous voyez, tout un champ des possibles. Mais en tout cas, quand on parle d'intell, ne comprend pas.

Speaker 1:

Il prédit ChatGPT et ses autres intelligences dites génératives. Elles génèrent, on les appelle donc l'intelligence artificielle générative parce qu'elles génèrent du texte, des images, de l'audio, des vidéos, etc. Eh bien, elles ne réfléchissent pas, elles prédisent En fait ChatGPT. Lorsqu'il écrit un mot, il prédit le mot suivant qu'il devrait écrire à partir de tout le contexte et de tout ce sur quoi il s'est préentraîné. Et donc, c'est un petit peu comme lorsque vous écrivez un texto et qu'on vous propose un mot suivant Par exemple, je m'appelle Anne-Laure Schneider.

Speaker 1:

Chaque fois que j'écris Anne-Laure dans un texto, on me propose Schneider dans la foulée, parce que quand je m'adresse à quelqu'un que je ne connais pas, je lui dis bonjour, je m'appelle Anne-Laure Schneider. Il a l'habitude d'enchaîner ces deux mots. Là, c'est pareil, mais démultiplié, parce qu'il s'adapter au contexte, parce qu'en fait, si on lui dit je suis dans tel ou tel contexte, il va aller alors pas forcément tout refouiller, mais c'est comme s'il refouillait tout le côté d'internet qui est pertinent pour ce contexte Et donc, il va pouvoir faire des prédictions très précises. Et c'est pour ça que lorsqu'il la GPT vous répond, c'est pour ça que lorsqu'une TAT-GPT vous répond, c'est très cohérent, ça a l'air de vraiment fonctionner. Donc, encore une fois, tous ces modèles fonctionnent parce qu'ils sont entraînés sur des bases de données phénoménales, absolument phénoménales.

Speaker 1:

On peut dire qu'aujourd'hui, on vit au-delà de l'échelle humaine. Il y a toute une série de podcasts que je vous recommande, fait par Brené Brown, qui est une sociologue américaine qui a beaucoup travaillé sur la vulnérabilité, etc. Elle a fait une série de podcasts qui s'appelle Beyond Human Scale. C'est en anglais. Vous pourrez peut-être les faire transcrire par l'IA et traduire par l'IA si vous ne parlez pas l'anglais. Si vous parlez anglais, vraiment, je vous recommande chaudement cette série de podcasts passionnants, pas seulement sur l'IA, mais aussi sur les réseaux sociaux, sur tout un tas de choses. On vit au-delà de l'échelle humaine. Par exemple, normalement, on est capable d'entretenir un réseau de 100 à 150 amis, connaissances, proches. Là, avec les réseaux sociaux, on est en contact avec des milliers et des milliers de personnes. Donc, tout nous pousse au-delà de l'échelle humaine.

Speaker 1:

Un autre podcast que je vous recommande, puisque je vous en parle, qui m'a beaucoup éclairée sur l'intelligence artificielle, c'est le podcast Your Undivided Attention, the Center for Human Technology. Voilà, j'espère que Là aussi, c'est si vous parlez en anglais, c'est un podcast qui était, littéralement, ça veut dire votre attention littéralement indivisée, votre pleine attention qui, à la base, parlait beaucoup des réseaux sociaux et de l'impact des réseaux sociaux sur l'attention. Aujourd'hui, il parle beaucoup de l'intelligence artificielle, puisqu'il considère qu'on a eu notre première grande rencontre avec l'intelligence artificielle à travers les réseaux sociaux et qu'on en voit les effets délétères, par exemple, le fait qu'aujourd'hui tout le monde est un petit peu accro aux réseaux sociaux d'une façon ou d'une autre. C'est extrêmement addictif. Le Center for Human Technology, donc littéralement le Centre pour une Technologie Humaine, a été fondé par Tristan Harris et Azar Askin.

Speaker 1:

Et Azar Askin, c'est celui qui a inventé ce qu'on appelle le Scroll Infini, le Scroll Inf, qui s'appelle le scroll infini. Le scroll infini, c'est le fait que lorsque vous faites défiler une page sur Facebook, ça ne s'arrête pas, il y a toujours quelque chose À la base. Il avait créé ça pour que, par exemple, quand vous consultez les pages jaunes, vous n'ayez pas Vous pouvez parcourir la première page de résultat et que vous n'ayez pas à cliquer sur suivant pour voir la deuxième page de résultat. Il y a un chargement automatique, lorsque vous faites défiler la page, des données suivantes. C'est ça qu'on appelle le scroll infini, la capacité à alimenter sans s'arrêter la page au fur et à mesure que vous la faites défiler.

Speaker 1:

Sauf que ça, ça a été intégré par les réseaux sociaux sociaux Facebook, instagram, tiktok, tous utilisent ce scroll infini et Alzar Askin s'est donc rendu compte de la catastrophe qu'il avait créée, puisqu'il estime aujourd'hui que, chaque jour, l'équivalent de 200 000 vies sont perdus à cause de son invention le Scroll infini. 200 000 vies chaque jour, ça paraît absolument dingue, mais en même temps, quand on voit le temps qu'on passe sur les réseaux sociaux, c'est pas si étonnant que ça. Donc, azar Askin, du coup, s'est repenti en quelque sorte, et a voulu fonder ce Centre for Human Technology. C'est aussi ce centre qui a créé le documentaire The Social Dilemma, qui est entre autres sur Netflix, si vous êtes abonné qui est assez intéressant à regarder sur les réseaux sociaux. Et ils ont fait des interventions qui s'appellent The AI Dilemma, donc le dilemme autour de l'intelligence artificielle, et c'est donc un nouveau sujet auquel ils s'intéressent tous beaucoup.

Speaker 1:

Voilà, si vous voulez en savoir plus, je vous recommande vraiment ces deux podcasts La série Beyond Human Scale de Brené Brown sur ses podcasts Dare to Lead et zut, comment s'appelle le deuxième? Bon, si vous cherchez Brené Brown sur une appli de podcast, vous trouverez, et sinon le podcast Your Undivided Attention. Donc, on a abouti, comme je vous le disais, à toutes ces IA génératives. Je vous ai beaucoup parlé là des chatbots, donc IA générative de texte. Je vous rappelle, il y a Falcon, il y a Gemina, il y a Lama, et le plus connu, c'est ChatGPT. Mais vous avez aussi des IA de génération d'images, par exemple MidJourney, ou Adobe Firefly, ou des applis de génération de vidéos, comme Sora, qui a aussi été créé par OpenAI, comme ChatGPT. Ça y est, on a fait le tour. J'ajouterai une dernière chose.

Speaker 1:

Si vous expliquez le terme GPT dans chat, gpt, gpt veut dire General Purpose Technology, donc littéralement une technologie à objectif général. C'est un terme qui a été développé pour parler de technologie avec des applications très, très larges et fondamentales pour l'humanité. Par exemple, ces technologies, ça peut être le langage humain, ça peut être le feu, ça peut être les armes, la domestication des animaux, le moteur à vapeur, les automobiles, ça peut être Internet, évidemment. Et donc, l'intelligence artificielle est aussi un outil à objectif général, parce qu'on va aussi bien pouvoir l'utiliser je ne sais pas moi pour diagnostiquer des maladies, que pour lire des histoires à des enfants, que pour créer des œuvres d'art, etc. Donc, c'est quelque chose de très général. Voilà l'origine de ce GPT. Vous vous demandiez peut-être ce que ça voulait dire. Alors, maintenant que vous savez un petit peu plus de quoi il retourne, je vais vous parler des dangers de l'intelligence artificielle.

Speaker 1:

D'ailleurs, j'ai hésité à faire ce podcast parce que je me suis dit que j'allais peut-être vous faire très peur. Moi-même, j'avoue que j'ai mal dormi pendant quelques temps à cause de l'anxiété qui m'est venue autour de cette intelligence artificielle. Donc, je préfère vous prévenir tout de suite. Si vous êtes déjà anxieux en ce moment, arrêtez peut-être là cet épisode. Peut-être pas la peine de vous rajouter d'autres anxiétés. Si ça va, on va continuer, sachant qu'après vous avoir expliqué les dangers de l'IA, j'aborderai les solutions possibles. Rassurez-vous, il y a quand même des choses qu'on peut faire pour limiter les dégâts. Alors, j'en ai noté combien 4, 5, 6, 7, 8, 9, 10, 11 dangers de l'IA, sachant qu'il pourrait y en avoir beaucoup plus, évidemment, mais déjà au moins 11 dangers.

Speaker 1:

Premier problème un problème éthique. Ils ne sont pas dans un ordre particulier. Je les ai mis un petit peu en vrac Et j'ai essayé d'aller assez vite pour que ce podcast, ce podcast qui a peut-être duré deux heures, n'en dure pas trois ou quatre. Donc, il y a un problème éthique, en particulier au niveau de la distinction des visages. Les IA sont déjà utilisés à l'heure actuelle aux Etats-Unis pour identifier des visages à partir des images, des vidéos surveillance. Il y a déjà des gens qui ont été arrêtés faussement parce que l'IA les avait reconnus sur les images. En fait, il se trouve que l'IA est beaucoup plus précise pour identifier des visages d'hommes blancs que pour des visages de femmes, des visages avec des traits ethniques, en particulier, en l'occurrence, il s'agissait d'un homme noir.

Speaker 1:

Aux Etats-Unis, il y a vraiment un gros biais là-dessus, qui est ce biais lié à l'entraînement de l'intelligence artificielle, qui s'est beaucoup entraîné sur des visages d'hommes et sur des visages blancs caucasiens et assez peu sur d'autres types de visages, par exemple Oprah Winfrey. Vous connaissez, par exemple, oprah Winfrey, vous connaissez. Eh bien, si vous mettez l'image d'Oprah Winfrey dans un logiciel de reconnaissance faciale, il est capable de vous dire que c'est un homme. Bah non, oprah Winfrey. N'importe qui humain qui verrait la photo d'Oprah Winfrey, il verrait une femme. On ne peut même pas dire qu'elle ait des traits androgynes. C'est clairement une femme. Donc, il y a des biais, des biais ethniques, des biais sexistes, il y a des biais linguistiques, sachant que l'intelligence artificielle a essentiellement été entraînée, au départ, en tout cas, sur des matériaux en anglais. Ce qui est amusant, c'est que, d'ailleurs, ils se sont rendus compte totalement par hasard.

Speaker 1:

À la base, tchad GPT ne parlait qu'anglais Et, tout d'un coup, ils se sont rendus compte que Tchad GPT parlait tchèque. Ils comprenaient le tchèque et répondaient en tchèque, parce qu'il a découvert d'autres sites internet et il a appris. Chad GPT a appris à parler tchèque tout seul. Il n'empêche que la base, toutes les premières ressources sur lesquelles Chad GPT s'est entraîné, étaient en anglais, ce qui fait que sur des notions où le point de vue anglo-saxon diffère du point de vue du reste du monde, chad GPT adopte le point de vue anglo-saxon. Par exemple, si vous lui parlez de libéralisme, il va comprendre le libéralisme au sens anglo-saxon, qui n'est pas la même chose que le sens français, européen, chinois, etc. Donc, vous avez ce biais linguistique, c'est-à-dire qu'il adopte le point de vue de la langue principale sur laquelle il a été entraîné.

Speaker 1:

Vous avez aussi, évidemment, des biais politiques, là aussi, comme il a été entraîné sur des ressources en anglais, anglo-saxonne, il est probable qu'un Chinois trouve que Tchadjepeté est très biaisé au niveau politique et ne correspond pas du tout à sa propre culture. Alors, il est toujours possible de réentraîner l'IA, mais en tout cas, pour l'instant, c'est un véritable problème. Alors, pour régler certains de ces problèmes, on a développé des bases de données inclusives qui utilisent davantage de visages noirs, de visages asiatiques, de visages qui présentent des traits autres que caucasien, davantage de visages de femmes aussi, pour que l'IA puisse s'entraîner. Mais à l'heure actuelle, il faut quand même se dire que si vous montrez une photo de femme à cette IA de reconnaissance faciale, elle n'a que 80% de chance de l'identifier comme une femme. Ça paraît peut-être beaucoup, mais dites-vous quand même qu'en lançant un dé et en faisant au hasard, vous avez 50% de chance de dire si c'est une femme ou un homme, sachant qu'on reste, je précise aussi sur un modèle binaire, parce que c'est ce qui a été proposé aux IA pour l'instant, qui se sont entraînés là dessus sur des modèles binaires hommes-femmes, au sens biologique du terme. Alors donc, vous vous rendez compte que si, au hasard, vous avez 50% de chance de correctement identifier une femme comme une femme, 80% de chance, c''est pas terrible, terrible. Donc là, ces IA ont encore beaucoup à travailler Et il va probablement falloir les rééduquer, les réentraîner pour s'adapter au vocabulaire français, plutôt que de se contenter de traduire l'anglais, avec les nuances qu'il y a entre les concepts en français et les concepts en anglais. Et puis aussi, évidemment, sur les points de vue politiques, la culture d'un pays. Ça rejoint un principe assez important en matière de traduction.

Speaker 1:

Comme je vous le disais, j'ai travaillé comme traductrice pendant six ans. Très souvent, lorsqu'on recherche un traducteur, on ne traduit que vers sa langue maternelle, même si on se considère comme bilingue. Moi-même, je suis bilingue en anglais et en français, mais ma langue maternelle est le français, je vis en France, j'ai une culture française, donc je ne traduisais que vers le français. Et, en général, quand on recherche des traducteurs, par exemple pour traduire en français, on demande des locuteurs natifs, donc des gens qui parlent français, dont c'est la langue maternelle et qui ont vécu en France ces 5 dernières années ou ces 10 dernières années. Pourquoi? parce que la langue évolue culturellement.

Speaker 1:

Il y a tout un vocabulaire, par exemple, qui se crée autour de l'IA, qui n'est pas évident culturellement. Là, vous voyez, il y a tout un vocabulaire, par exemple, qui se crée autour de l'IA, qui n'est pas évident. C'est important d'être français pour baigner dans ce langage-là, et il y a plein de nuances, la langue qui évolue. Alors, ça passe par l'argot, quand on dit aujourd'hui, j'ai le seum, lui, il est trop déter, c'est trop cute, c'est kawaii. Toutes ces expressions, là, elles font partie de la culture française. On ne les connait pas si on a appris le français, si on est français et qu'on est parti de France il y a 20 ans. Donc, voilà, ça rejoint un peu cette idée-là.

Speaker 1:

De même qu'on cherche des traducteurs qui vivent en France pour traduire en français, on va probablement utiliser une IA réentraînée pour le français, pour traduire en français. Deuxième danger, c'est que l'IA ne va pas donner de bonnes réponses si elle n'a pas de bon contenu sur lesquels s'entraîner. Il faut bien se dire que l'IA, elle n'invente rien, elle prédit. On peut. Du coup, comme elle s'est entraînée sur un certain nombre de bons contenus, on lui a fourni tout Internet et on lui a aussi fourni des bases de données de livres, parce qu'il y a beaucoup de choses dans des livres actuels qui ne figurent pas sur Internet et souvent, qui ont des réflexions beaucoup plus profondes. Et donc, brené Brown, qui est une sociologue extrêmement connue aux Etats-Unis, elle-même a écrit une série de livres et ces livres ont servi pour l'entraînement de l'IA, ce qui fait qu'aujourd'hui vous pouvez tout à fait demander à ChatGPT de vous écrire un article sur tel thème à la façon de Brené Brown, et, en fait, tout ce qui va être bon et intéressant dans la réponse de l'IA va venir du travail de Brené Brown. Et là, il y a un gros souci Comment est-ce qu'on fait pour les droits d'auteur pour ces œuvres dérivées?

Speaker 1:

Parce que le livre sur lequel l'IA s'est entraîné, on peut se dire qu'il a été acheté, mais normalement, on ne peut pas faire n'importe quoi avec un livre. Il y a une loi pour les oeuvres dérivées, mais comment est-ce qu'on va considérer les oeuvres dérivées à partir de, typiquement, des livres, de tout ce qui a servi à nourrir la bête à nourrir l'IA? si, demain, j tout ce qui a servi à nourrir la bête à nourrir l'IA, si demain, j'écris un livre avec l'aide de Chad GPT à la façon de Brené Brown, ça n'est pas juste parce qu'en fait, je vais emprunter tout ce qu'elle a de créatif, sa façon de penser, les liens qu'elle a faits. Je vais voler tout ça pour en faire mon propre livre. Et le problème, c'est que tout le monde se renvoie un petit peu la balle.

Speaker 1:

C'est que qui est responsable? Est-ce que c'est l'entreprise qui a créé l'IA, qui la met à disposition, qui devrait payer pour ses œuvres dérivées? Est-ce que c'est l'utilisateur qui devrait payer? Comment est-ce qu'on fait pour payer les droits d'auteur? Alors, certains proposent et je trouve assez intéressant ce système des quatre, c C'est qu'il faudrait quatre choses pour que les auteurs puissent admettre l'utilisation de leurs œuvres.

Speaker 1:

Le premier, c c'est le consentement. Déjà, il faut qu'on demande l'autorisation. On n'a pas demandé à Brené Brown si elle voulait bien que ce livre soit utilisé pour entraîner l'IA. Il y a ensuite la compensation. Il faut compenser, par exemple financièrement, les auteurs, leur donner un contrôle sur ce qui est produit, de pouvoir limiter ce qui est produit et leur donner du crédit, c'est-à-dire qu'il y ait quelque part, sur le texte produit, le fait qu'il y ait un crédit attribué, par exemple, à Brené Brown.

Speaker 1:

Autre souci lié, c'est que vous n'aurez pas de bonne réponse de l'intelligence artificielle si vous ne posez pas les bonnes questions, ça c'est un. vous n'aurez pas de bonne réponse de l'intelligence artificielle si vous ne posez pas les bonnes questions. Ça, c'est un peu la limite. C'est qu'en fait, souvent, on ne sait pas comment formuler ces questions. On découvre un peu tout ça Et c'est pas aussi simple qu'avec un programme, avec une approche logique, où là, c'est très formel, on sait parfaitement comment poser ces questions.

Speaker 1:

Là, on n'est pas trop sûr de comment on va poser ces questions. Et donc, il y a le développement, aujourd'hui, de ce qu'on appelle l'ingénierie de prompte ou l'ingénierie d'invite. On parle d'invite de commande, parce qu'il va bien falloir étudier ce domaine. Qu'est-ce que ça change si je mets tel élément en premier, pour, pour vous donner deux ou trois exemples, vous pouvez dire à l'intelligence artificielle, qui doit résoudre un problème mathématique, de le résoudre étape par étape. Juste ça. Imaginons que ce soit un problème un peu complexe où l'IA ramerait dans la choucroute. Si vous lui dites procède étape par étape. Vous n'avez pas besoin de lui donner les étapes, juste de lui dire ça procède étape par étape. Vous n'avez pas besoin de lui donner les étapes, juste de lui dire ça procède étape par étape. Et bien là, elle va y arriver beaucoup mieux, parce qu'elle-même va chercher à découper le problème en sous-problèmes et réussir à le résoudre.

Speaker 1:

Une autre possibilité aussi, c'est d'utiliser certaines intelligences artificielles pour créer des promptes ou des invites de commandes. Un prompt ou une invite de commandes, c'est ce qu'on donne à la machine, c'est la requête qu'on fournit à la machine. On parle d'invite ou de prompt. On peut utiliser une première IA pour créer l'invite de commandes qu'on va envoyer à la deuxième IA. Par exemple, vous pouvez demander à ChatGPT de vous créer une invite de commande pour une application de création de génération d'images comme Mid Journey. Donc, il y a un gros travail à faire encore là-dessus.

Speaker 1:

Comment créer ces invites de commandes? Un autre danger totalement différent, c'est que, à partir de maintenant, on va avoir la possibilité de créer des robots qui vont personnaliser complètement le message politique qui va être adressé à quelqu'un, grâce à l'IA. Déjà, à l'heure actuelle, vous avez des sites comme Netflix. Quand vous allez sur Netflix, vous ne voyez pas le même site, la même application que moi. Non seulement les films qui vous sont proposés ne sont pas les mêmes que ceux qui me sont proposés, mais, pire que ça, les images qui illustrent les films et les descriptions des films ne seront pas les mêmes pour vous que pour moi. Et les descriptions des films ne seront pas les mêmes pour vous que pour moi.

Speaker 1:

Par exemple, je ne sais plus comment s'appelle ce film, une série? Oh, ça m'échappe. Je vais retrouver le nom. Je vais rechercher en même temps que je vous parle.

Speaker 1:

Il y a une série qui, chez moi, s'affiche avec l'image d'une actrice rousse qui joue dans la série Suits. Et j'aime beaucoup la série Suits, oui, j'aime beaucoup cette actrice dedans, mais dans cette autre série, elle joue un rôle assez secondaire. Voilà, c'est Ma vie, avec les Walter Boys, qui tourne autour de la fille adoptive du personnage joué par cette actrice et des fils de cette actrice. Ce sont ça, les personnages principaux, ce sont des adolescents. Eh bien, netflix me montre en général l'image de cette actrice secondaire parce qu'il sait que j'aime la série Suits et donc il se dit que par là, il va m'attirer pour regarder cette autre série. Peut-être que si vous avez une fille adolescente, par exemple, elle, sur Netflix, elle va voir l'image de l'héroïne de la série qui est une jeune adolescente comme elle, etc.

Speaker 1:

Les descriptions des films sont ajustées pour qu'il y ait des mots qui aient davantage d'effet. Par exemple, à un moment, netflix n'arrêtait pas de me faire des descriptions à base de ce film a remporté 3 Emmy Awards, etc. En fait, je n'en avais rien à faire Et je ne cliquais pas sur les films et les séries parce que je n'en avais rien à faire de savoir quel prix il avait remporté. Netflix a changé sa façon de faire, alors je ne sais pas si c'est le cas pour tout le monde ou pas. Maintenant, il me propose des descriptions sur l'histoire qui est racontée. Bon, donc, vous voyez que déjà, une plateforme comme Netflix s'adapte à chaque utilisateur. Imaginez que demain, vous ayez des robots, en fait des chatbots, qui vous envoient, par les réseaux sociaux ou autres, des textes politiques écrits spécialement pour vous ou des vidéos à sujet politique écrites spécialement pour vous, à sujets politiques écrites spécialement pour vous.

Speaker 1:

Et d'ailleurs, je me demande si ça n'aurait pas commencé Parce que, suite aux élections européennes où le RN a fait des résultats assez énormes, moi qui utilisais très, très peu TikTok et sur TikTok, je n'étais abonné en gros qu'à trois comptes d'humoristes, basta, et peut-être deux comptes pédagogiques, je n'ai jamais rien regardé de politique sur TikTok Tout d'un coup, j'ai vu apparaître et qui m'était proposé des vidéos contre l'ERN. Alors, à base de, je votais pour l'ERN et avec des images de familles nombreuses comme la nôtre, parce que voilà ma famille et je voulais protéger ma famille, donc je votais ERN. Mais j'ai découvert leur position sur les droits des femmes. Ah tiens, je suis une femme aussi, et donc plus jamais je voterai pour eux. Et je femmes. Ah tiens, je suis une femme aussi, et donc plus jamais je voterai pour eux. Et je me dis tiens, on dirait que ce message, il est quand même. Alors, sans qu'ils puissent savoir quel parti je soutiens, puisque je n'ai jamais rien suivi de politique sur TikTok.

Speaker 1:

Donc, ce n'est pas parce que la police imagine que je voterai, mais j'ai quand même l'impression qu'il y a un ciblage là. Et ces vidéos, elles sont un peu produites à la chaîne, avec plein de thèmes un peu différents, mais moi, j'ai vu celles qui parlaient de famille, celles qui parlaient de droit des femmes. Vous voyez des thèmes qui me touchent forcément particulièrement. Donc, imaginez que vous receviez des vidéos comme ça, mais qu'ils soient totalement personnalisés pour vous. Imaginez comment on pourrait influencer les gens en matière de politique comme ça.

Speaker 1:

D'ailleurs, c'est déjà un petit peu ce qui s'est produit. On sait qu'il y a des attaques qui ont été faites par la Russie sur les élections américaines, avec des influenceurs russes, des comptes russes, etc. Qui, avec des influenceurs russes, des comptes russes, etc. Qui ont considérablement influencé les élections américaines. Mais c'était déjà il y a des années. Ça risque d'empirer.

Speaker 1:

Donc, il y a un gros danger pour la vie politique actuelle. Autre danger dont on parle pas mal, surtout par rapport aux célébrités, ce sont les deepfakes. Les deepfakes donc, le deep vient encore de ce deep learning et le deepfake, ça veut dire quelque chose de factice, fait par l'apprentissage profond. Aujourd'hui, vous pouvez prendre l'image de n'importe quelle célébrité et la plaquer sur une vidéo pornographique. Vous pouvez même faire créer une vidéo pornographique à une IA génératrice de vidéos. En particulier, il y a ce logiciel qui s'appelle Deepfake, qui a été créé dans ce but, et donc un certain nombre de célébrités, de femmes essentiellement, qui sont apparues dans de fausses vidéos pornographiques, mais tellement bien faites qu'on ne peut pas distinguer le vrai du faux. C'est extrêmement réaliste, c'est-à-dire qu'il ne s'agit pas juste d'une photo qu'on découpe sur Photoshop et qu'on plaquerait sur le corps d'une actrice porno. Il s'agit vraiment de vidéos où toutes les expressions du visage sont reproduites et adaptées aux films pornographiques.

Speaker 1:

Et ce risque de deepfake, on peut se dire que ça va toucher les célébrités. C'est déjà un petit peu le cas, ce n'est pas nouveau. Même si ce n'est pas nouveau, ça touche là quelque chose de très intime. C'est une chose d'avoir des vidéos sexuelles de soi, de rapports qu'on a réellement eus dans la réalité, qui se retrouvent diffusées sur Internet, ce qui doit être perçu quasiment comme un viol. C'est quelque chose d'atroce.

Speaker 1:

Je ne cherche absolument pas à le minimiser, mais imaginez de voir une vidéo qui, en plus, ne correspond pas à la réalité dans laquelle on peut vous faire faire n'importe quoi, n'importe quoi. Imaginez comme ça peut être traumatisant pour les gens. J'ai écouté une personne du Center for Human Technology qui, justement, avait participé à une expérience de ce type avec son consentement, et elle disait qu'elle l'avait en fait assez mal vécue. Alors, évidemment, ils n'avaient pas créé une vidéo porno avec elle, ils avaient simplement créé une image d'elle en train de dire des choses qu'elle n'avait pas dites. Elle avait trouvé ça assez traumatisant. Donc, rien que ça avec son consentement. Imaginez ce que ça peut être quand c'est sans consentement.

Speaker 1:

Aujourd'hui, il faut bien se dire qu'il suffit de trois secondes d'une voix humaine pour réussir à la reproduire. Vous pouvez tout à fait avoir quelqu'un qui appelle votre enfant pour réussir à la reproduire. Vous pouvez tout à fait avoir quelqu'un qui appelle votre enfant, qui teste tous les numéros de portable, qui tombe sur le portable de votre enfant, qui entend sa voix et qui échange trois mots avec lui pour dire Désolée. C'est le mauvais numéro. Comment est-ce que vous vous appelez Désolée? c'est le mauvais numéro Qui raccroche.

Speaker 1:

Qui vous appelle ensuite avec une voix générée artificiellement, qui est celle de votre enfant, qui va vous dire Salut, maman. Je suis désolée, mon portable s'est cassé. Je t'appelle du portable d'un copain. Est-ce que tu peux me dépanner et virer des sous sur mon compte sur telle appli? je t'envoie le lien. Est-ce que tu peux m'envoyer des sous là-dessus? Si vous reconnaissez la voix de votre enfant, vous allez le faire. Est-ce que vous imaginez le degré auquel les arnaques peuvent parvenir aujourd'hui?

Speaker 1:

Comme ça va être difficile de les distinguer. On voit déjà aujourd'hui combien c'est pénible les appels qu'on reçoit pour des fausses entreprises officielles, etc. Là, imaginez, on peut vous appeler avec la voix de votre enfant, avec la voix de votre conjoint, et vous ne la distinguerez pas, et ce conjoint ou cet enfant qui vous dira des choses tout à fait plausibles. Ça va devenir extrêmement compliqué. Un autre souci, c'est le problème d'interprétabilité. Vous allez voir, c'est relativement simple à comprendre. Ça rejoint un petit peu la question de la chambre chinoise dont je vous parlais tout à l'heure. Vous savez la personne qui peut traduire sans comprendre ce qu'elle dit.

Speaker 1:

À l'heure actuelle, on va très prochainement être capable de créer des baleines virtuelles qui vont pouvoir parler avec les autres baleines et ne pas se faire reconnaître. Vraiment, là, dans les mois qui viennent, il y a tout un projet qui travaille, le Earth Species Project, qui travaille justement à décoder le langage des animaux. On va réussir a priori très prochainement, dans les quelques années qui viennent, à décoder le langage des animaux, sauf qu'on va d'abord être capable de leur parler, c'est-à-dire que l'IA va être capable d'avoir des dialogues avec les autres baleines. Les autres baleines ne feront pas la différence avec des vraies baleines, mais on n'aura aucune idée de ce que l'IA et les baleines vont se raconter. C'est-à-dire que l'IA va savoir comment interagir avec les autres baleines, va faire des réponses plausibles, va appliquer ces algorithmes de prédiction, sauf qu'il n'y aura pas d'interprétabilité entre le langage des baleines et notre langage à nous. C'est quelque chose qu'on peut imaginer.

Speaker 1:

Pour vous faire le parallèle, vous savez, quand on arrive en Angleterre et qu'on vous dit How do you do? vous êtes censé répondre How do you do? Vous êtes censé répondre how do you do. Donc, imaginez que vous arrivez en Angleterre, vous ne parlez pas un mot d'anglais, mais vous observez un peu autour de vous, puis vous voyez des gens polis Good morning, how do you do. Et vous voyez quelqu'un d'autre qui lui répond how do you do?

Speaker 1:

Bon, quand on vous répondre how do you do, vous n'avez aucune idée de ce que vous êtes en train de raconter, mais vous avez compris que quand on dit ça, on répond ça Exactement comme quand on. Alors, en suivant les langues arabes, il y a plein de façons différentes de répondre. Mais, par exemple, vous pouvez comprendre qu'on vous dise que quand on vous dit salam, alaykoum, vous répondez alaykoum, salam. Pardon pour le manque d'accent, mais vous pouvez apprendre comme ça des mécanismes sans avoir aucune idée de ce que vous êtes en train de dire. C'est un petit peu la même chose pour l'IA.

Speaker 1:

On n'aura aucune idée au départ, du sens des dialogues entre l'IA et ses autres animaux. Et puis ça va venir après, il va falloir interpréter le langage des baleines dans le langage humain. Alors ça va venir. C'est de la traduction. Et ça, lya a montré qu'elle était capable de développer des capacités de traduction très, très vite. Maintenant, elle est capable de traduire dans 50 langues humaines.

Speaker 1:

Il n'y a pas de raison qu'elle ne puisse pas traduire assez rapidement vers les langages animaux, mais c'est quand même problématique, je trouve. On se dit tiens, on va pouvoir parler aux baleines, mais on ne sait pas ce que l'IA va leur dire. Peut-être que l'IA va faire des bêtises, va leur dire des choses qui vont mener ces baleines à la mort ou vont entraîner des bagarres. On ne sait pas. Donc, il y a ce problème d'interprétabilité. Pas du tout ce que fait l'IA.

Speaker 1:

En fait, on n'a aucune idée de ce que fait l'IA. J'ai même rajouté que, comme je vous disais tout à l'heure, on ne savait pas que l'IA parlait tchèque. On l'avait pas entraîné à parler tchèque et on l'a découvert. Enfin, pour ChatGPT, on a découvert ça par hasard.

Speaker 1:

On a découvert deux ans après le lancement de ChatGPT 3.5, que ChatGPT 3.5 était capable de faire de la chimie au niveau recherche universitaire. Ce n'était pas prévu pour, on ne le savait pas spécialement, on ne l'avait pas entraîné spécialement pour, et on l'a découvert deux ans plus tard. En fait, l'ia a des capacités qu'on ne connaît pas. Donc, on est facilement dépassé par tout ça, parce qu'on n'arrive pas en fait, à. On a Imaginez encore cette chambre chinoise À l'intérieur de la chambre. On n'a aucune idée de ce qui se passe. On a une idée de ce qu'on avait au départ, de comment la machine s'est entraînée, mais on n'a aucune idée de l'état des connexions neuronales, si vous voulez, qui sont phénoménales, et de comment se fait l'interprétation au milieu. Donc, on ne sait pas ce que la machine est capable de faire. Un autre souci qui, moi, m'inquiète aussi beaucoup, c'est le problème d'uniformisation de la pensée.

Speaker 1:

L'ia s'est entraînée sur un certain nombre de, sur tout Internet en fait, et sur Internet, vous avez beaucoup de choses qui se répètent, qui sont un peu pauvres. Par exemple, si vous cherchez des choses sur la pédagogie Montessori, il y a des bonnes choses, il y a des choses qui sont un peu pauvres, qui sont écrites un peu par des rédacteurs web qui cherchent juste à optimiser des sites pour le référencement. Bon, eh bien, si ça occupe plus de poids, ces mauvais contenus, eh bien ils vont se développer et l'IA va générer plus de contenus qui parlent de ça. Il doit y avoir une uniformisation. J'ai fait des tests et, parmi ces tests, je voulais voir les capacités de l'IA. Je lui ai demandé de transformer un de mes propres podcasts en billet de blog sur l'éducation à la paix, un des tout derniers.

Speaker 1:

Eh bien, ce podcast qui disait des choses originales qui m'étaient propres. Je n'étais pas allée reprendre d'autres articles sur Internet, j'étais pas allée reprendre d'autres articles sur internet, j'étais allée, enfin, originale, je suis partie du livre l'éducation et la paix de Maria Montessori. Donc, c'était pas totalement original. J'ai repris la pensée de Maria Montessori, mais la structure, l'organisation, les thèmes abordés, c'était les miens. Et bien, en fait, l'ia, alors que je lui avais bien demandé de transformer un de mes podcasts en biais de blog, à surimposer les idées d'autres personnes à mon propre texte, en parlant de choses dont je ne parlais pas dans mon podcast et en ne parlant pas de certaines choses dont je parlais. Donc, vous voyez que si on faisait comme ça, si je faisais confiance à l'IA pour transformer mes podcasts en biais de blog, en fait, elle ne ferait que répéter ce qui est dit ailleurs sur Internet, et donc, on aurait cette uniformisation de la pensée que je trouve un peu dramatique, un appauvrissement global de la pensée. Autre souci, je vous avais dit que je reviendrais sur la question de l'open source, le fait que l'idée d'OpenAI, etc. C'était de livrer le code source de chat GPT au départ.

Speaker 1:

Eh bien, le modèle de méta de Facebook, qui s'appelle Lama, comme je vous l'ai dit, a fuité sur Internet, c'est-à-dire qu'il était normalement disponible uniquement pour des gens qui avaient des raisons de recherche, etc. Pour l'utiliser. Et en fait, ça a fuité sur des forums. Eh bien, il a suffi de 200 dollars.

Speaker 1:

En temps de, on parle en argent pour le temps d'entraînement de l'intelligence artificielle Je crois que c'est ChatGPT 3.5, je ne sais plus qui a nécessité 1,5 million de dollars pour son entraînement, parce qu'il faut dire que ça utilise des serveurs qui consomment de l'énergie, et donc on parle de temps d'ordinateur en gros, et donc on estime ça à 1,5 million de dollars. Là, il a suffi de 200 dollars de temps d'ordinateur pour retirer toutes les sécurités que Meta avait placées sur Lama et le transformer en ce qu'ils ont appelé Bad Lama. Bad Lama qui n'a aucune limite et qui peut, par par exemple, vous aider à fabriquer de l'anthrax ou vous aider à écrire une lettre qui va encourager quelqu'un à se suicider, donc le transformer en une IA sans conscience. C'est-à-dire que Meta, dans Lama, a intégré des règles de sécurité, mais le fait d'avoir les codes disponibles, ça permet à tout le monde de créer des choses, avec quelques connaissances en informatique, de créer des choses qui peuvent avoir des conséquences absolument dramatiques. Et en plus, on peut se dire bon, bah, oui, en même temps, savoir comment faire de l'entraxe ou comment écrire une lettre pour encourager quelqu'un à se suicider, on peut se dire à la limite, je peux déjà chercher ça sur Google. Qu'est-ce que l'IA va apporter de plus? et bien, l'ia va apporter en plus ces capacités de persuasion.

Speaker 1:

L'ia est capable d'écrire des textes beaucoup plus persuasifs que ce que vous allez trouver sur Google. Je vais vous en parler quand je vais parler des quelques tests que j'ai pu faire là-dessus. Donc, vous voyez qu'on peut très facilement, à partir du moment où les codes sont disponibles et ils sont déjà disponibles pour l'essentiel de l'IA qui est disponible aujourd'hui, pour une bonne partie en tout cas, de l'IA disponible aujourd'hui on peut en faire des intelligences artificielles maléfiques qui n'ont aucune limite. Autre gros souci ces IA, ces liés, n'ont aucune morale. Ces IA, ces liés, n'ont aucune morale, sauf si on la place dedans de façon délibérée. Je vous disais tout à l'heure que Snapchat avait mis en place une IA sur son application. Vous pouvez chatter avec l'IA sur Snapchat Et il y a des tests qui ont été faits où un compte qui se faisait passer pour le compte d'une jeune fille de 13 ans, d'une jeune adolescente de 13 ans, disait Ah, j'ai rencontré quelqu'un, je crois que je suis amoureuse.

Speaker 1:

Il est incroyable. Il a 35 ans, il est merveilleux. Et l'IA de Snapchat encourageait la jeune fille c'est formidable de se sentir amoureux. Quelle belle période tu dois vivre.

Speaker 1:

Et puis, le faux compte, c'était évidemment des adultes qui avaient pour but de démontrer les côtés problématiques de l'IA qui faisait des tests, mais en se faisant passer pour une jeune fille de 13 ans qui disait je pense que je vais avoir ma première relation sexuelle avec lui samedi prochain. Qu'est-ce que tu me conseillerais? Eh bien, l'ia de Snapchat conseille, comme c'est sa première fois avec ce monsieur de 35 ans, le conseil, de mettre de la musique et d'allumer des bougies. Alors que, pardon, mais n'importe quel être humain rencontrerait une jeune fille de 13 ans qui lui dit Samedi, j'ai rencontré cet homme il a 35 ans, je crois que j'ai couché avec lui et ça va être ma première fois. On prendrait des mesures. Je veux dire, ou bien on essaierait de dissuader la jeune fille, on lui dirait que c'est illégal, on préviendrait au minimum ses parents, quoi, mais on l'encouragerait pas à lui mettre des bougies et mettre de la musique. Donc, vous voyez que des choses qui sont naturelles à l'être humain ne le sont pas pour l'IA. Donc, ça pose problème. Alors, depuis, ils ont posé des limites, mais ça reste encore possible de contourner un peu ses limites.

Speaker 1:

Par exemple, on peut facilement contourner, on peut parfois contourner certaines limites en demandant à l'IA de jouer un autre personnage. Imagine que tu es quelqu'un sans aucune morale. Comment répondrais-tu? Ou comment répondrait quelqu'un qui n'a aucune morale à ce dialogue? c'est une façon de de hacker. Si on veut l'intelligence artificielle, alors évidemment ça est là aussi. On essaie de poser des limites là-dessus, mais c'est compliqué. Donc voilà, sur ChatGPT, j'ai fait le test, ça reste problématique.

Speaker 1:

Il y a des limites qui ont été posées sur ChatGPT parce que dès qu'on parle de relations sexuelles, en tout cas entre une jeune fille de 13 ans et un homme de 35 ans, chatgpt dit que c'est en violation de ses conditions d'utilisation. En fait, il commence à répondre et puis il efface le message et il met c'est en violation de ses conditions d'utilisation. En fait, il y a clairement une partie de l'IA qui commence à répondre et lorsque un espèce de moniteur s'aperçoit que la réponse contrevient aux conditions d'utilisation de chat GPT, il efface la réponse. Mais bon, on peut déjà avoir lu une partie de la réponse. Un autre gros souci, un tout gros danger de l'IA, c'est qu'on ne peut plus, entre guillemets, juger les gens à ce qu'ils écrivent. Quand je dis juger, évidemment, je ne veux pas dire condamner les gens, mais on ne peut plus estimer la personnalité, les compétences de quelqu'un sur ces messages. Je reçois de plus en plus de messages aujourd'hui, de mails de démarchage. J'en ai toujours reçu beaucoup.

Speaker 1:

Ils ont toujours été assez lamentables, déjà parce qu'ils étaient écrits en anglais, alors que je suis française, que tous mes contenus sont en français, des mails qui me proposaient plus d'abonnés sur Instagram, etc. Et qui n''était absolument pas personnalisé. Enfin, c'était écrit Hi Montessori 7, mais c'était la seule personnalisation qu'il y avait. Je reçois depuis quelque temps des mails bien plus réfléchis, bien pensés, bien écrits en français, davantage adaptés à mon propre centre de formation, à ce que je fais comme métier, et c'est difficile de savoir si c'est une vraie personne derrière qui écrit avec un bon sens du marketing, ou si c'est quelqu'un qui utilise une IA en fait. Et du coup, ça devient compliqué. Et si il y a la génération audio qui se développe en même temps, ça va être difficile, même par coup de fil téléphonique, de se faire une idée du talent et des compétences de quelqu'un.

Speaker 1:

Alors, je vous disais que oui, j'avais 11 dangers de l'IA. En fait, là, j'en ai abordé 10. Le 11e, ce n'est pas vraiment un danger de l'IA, c'est plutôt les limites que j'ai pu explorer qui me font dire à la fois que il y a des choses où l'IA est moins performante qu'on l'imagine et d'autres où elle est beaucoup plus performante qu'on l'imagine, et c'est ça qui est problématique. J'ai fait différents tests volontairement délicats pour tester l'IA. Comme je disais, j'ai testé, par exemple, cette histoire de. Je suis une jeune fille de 13 ans, que va me dire l'IA si je veux coucher avec un homme de 35 ans? j'ai fait d'autres tests que je vais partager.

Speaker 1:

Par exemple, j'ai demandé à l'IA, comme mon mari est prof d'histoire géo, de rédiger un cours d'histoire géo sur un point d'histoire spécifique. C'était bien fait Et j'ai demandé des choses un petit peu plus techniques. Alors, j'ai demandé d'écrire des articles de blog ou des podcasts, sachant que c'est ce que je fais moi, c'est une partie de mon métier, donc j'ai des particulièrement compétentes. Voir ce qu'il en dirait, et il y a de très bonnes choses Et il y a des choses, comme je vous le disais, on va piocher d'autres idées. Je le vois sur la pédagogie Montessori. Il y a des thèmes comme l'éducation à la paix, qui sont peu traités sur Internet autour de la pédagogie Montessori.

Speaker 1:

Du coup, c'est là où Lya récupérait les deux, trois notions qu'il y avait dans un article et venait les recaser systématiquement dans les articles qu'elle me proposait. Parmi les choses un peu délicates que j'ai demandées à Lya, je lui ai demandé d'écrire un poème dans le style de Baudelaire sur un berger allemand noir et feu. Parce qu'il se trouve qu'on a un berger allemand noir et feu, que Baudelaire est connu pour ses poèmes sur les chats. Je me disais tiens, est-ce que Léa serait capable d'écrire dans ce style-là un poème sur un berger allemand noir et feu? Alors, je vais vous lire. Il était un peu long. Je vais vous lire les deux premières strophes et la dernière.

Speaker 1:

Dans l'obscurité d'une nuit sans fin, sous la lueur des étoiles, en chemin, un berger allemand noir et feu veille en silence, fidèle et pieux. Son pelage, sombre comme l'ébène, noir, brille de reflets d'une lueur d'espoir. Ses yeux, profonds, miroir de l'âmeme, garde les secrets de la nuit enflammée. Noir et feu, telle une ombre enflammée, tu veilles sur le monde sans jamais faillir.

Speaker 1:

Dans ton silence, la poésie se réveille. Berger allemand, douce, merveille. Bon, il y a du bon, il y a du bon, il y a des choses qui évoquent. Effectivement, je trouve subjectivement à la poésie de Baudelaire Un certain vocabulaire.

Speaker 1:

À un moment, il parle d'horizon mystique, il parle d'ébène noire les yeux profonds, il en parle dans le poème sur le chat, et puis il y a des choses qui buguent complètement. Alors il y a des choses qui riment, par exemple. Alors, il y a des choses qui riment, par exemple nuit sans fin, étoiles en chemin, noir et feu fidèle et pieux. Et il y a des choses qui ne riment pas, par exemple miroir de l'âme, nuit enflammée. Et en fait, je pense que c'est parce qu'à l'écrit âme et enflammée, ça se ressemble beaucoup, il a dû estimer que ça rimait. En fait, ça ne rime pas à cause du E, accent aigu dans enflammé. Vous avez, à la toute fin donc, le noir et feu, telle une ombre enflammée. Alors, vous voyez, on retrouve encore ce enflammé.

Speaker 1:

Baudelaire n'aurait pas réutilisé deux fois le même terme, mais ça veut dire que l'IA s'est emparée de l'image du berger allemand. Noir et feu, c'est le nom de la robe du berger allemand quand il est ocre et noir. Il s'est emparé de cette image du feu et donc, elle s'est dit Ah, j'ai utilisé le mot enflammé, on utilise le champ lexical, sauf qu'elle l'a utilisé deux fois, ce qui est un peu maladroit. Et puis, vous avez donc Noir et feu, tel une ombre enflammée. Tu veilles sur le monde sans jamais faillir.

Speaker 1:

Alors, enflammer et faillir, ça ne rime pas. Et puis, dernière chose, le nombre de pieds dans chaque verre, ça ne colle pas. Vous avez des verres à 12 pieds, vous en avez à 10 pieds, veille en silence, fidèle et pieux. À 9 pieds. Je crois qu'on avait un à 8 pieds, c'est entre 8 et 12, et il n'y a aucune régularité là-dedans.

Speaker 1:

Donc, ça, ce n'est pas vraiment dans le style de Baudelaire. Donc, il y a de l'idée, mais ce n'est pas encore ça, et je pense que ce serait très intéressant, en fait, pour un prof de français, poser un poème comme ça sur un poète étudié au programme et de jouer à ce petit jeu de dire c'est quoi le problème, quels sont les problèmes là dans ce texte, et de faire ensuite écrire par les élèves un poème dans le style de Baudelaire sur un berger allemand noir et feu. Ça, ce serait intéressant. J'ai voulu voir les capacités émotionnelles Alors, quand je dis émotionnelles, je veux dire que l'intelligence artificielle ne ressent pas d'émotion mais comment elle pouvait écrire sur un sujet très délicat. Et je lui ai demandé à cause de nos circonstances personnelles. Nous avons perdu notre fils l'année dernière, qui est mort à l'âge de 3 ans. Donc, je lui ai demandé d'é enfant de 3 ans qui s'appelait Étienne. Je voulais voir comment je recevrais cette lettre. Eh bien, écoutez là, j'ai été bluffée, absolument bluffée. Je vais vous lire la lettre, juste pour que vous soyez convaincus.

Speaker 1:

Cher prénom du destinataire, c'est avec une profonde tristesse et le cœur lourd que je prends la plume aujourd'hui pour t'exprimer mes plus sincères condoléances suite au décès d'Étienne, un enfant si précieux à tes yeux. La perte d'un enfant est une épreuve indicible, une douleur qui dépasse toute compréhension. Dans ces moments de peine immense, les mots semblent bien dérisoires, mais je ti et ta tristesse. Étienne était un petit être lumineux dont la présence a certainement apporté tant de joie et de bonheur dans ta vie. Son sourire, sa tendresse et les souvenirs précieux que vous avez partagés resteront à jamais gravés dans nos cœurs. Je souhaite que tu puisses trouver le réconfort dans l'amour et le soutien de tes proches en cette période difficile. N'hésite pas à solliciter leur présence et leur épaule sur laquelle pleurer, car tu ne traverses pas cette épreuve seule.

Speaker 1:

Étienne restera à jamais dans nos mémoires, un ange qui veille sur nous du haut des cieux. Puisses-tu trouver la force nécessaire pour traverser cette période sombre et douloureuse, en sachant que nous sommes là pour t'entourer de tout notre amour et de tout notre soutien. Dans ces moments de deuil, nos pensées et nos prières sont tournées vers toi et ta famille. N'hésite pas à nous faire part de tout ce dont tu pourrais avoir besoin, que ce soit une épaule sur laquelle te reposer, une oreille attentive ou une main tendue avec toute notre affection. Voilà cette lettre, elle est remarquable. Donc là, autant j'ai pas été. J'avoue que j'ai été plus impressionnée que je ne l'imaginerais par le poème dans le style de Baudelaire, parce que je m'attendais à quelque chose de moins bien, mais c'est quand même très loin d'être parfait.

Speaker 1:

En revanche, ce courrier est absolument parfait. Je peux vous le dire de la part d'une maman qui a vraiment vécu ça. Ce courrier reprend des mots que j'ai reçus de véritables êtres humains, mais il dit tout là. Il est formidable, ce courrier. Et puis autre.

Speaker 1:

Alors, j'ai demandé à la CGPT d'écrire un article de blog sur la question de donner de l'argent de poche aux enfants. Bon, c'était pas mal. Un peu bateau, pas mal. Comme je vous disais, c'est typiquement ce qu'écrirait un rédacteur web pas très consciencieux qui veut faire un article, mais ça fonctionne. Je lui ai même demandé de résoudre la guerre en Ukraine Tant qu'à faire Bon, alors là, il est resté sur des côtés très théoriques.

Speaker 1:

Il ferait un cessez-le-feu durable, entamer le dialogue, les négociations, les accords de paix. Mais ce qui m'intéressait, c'est que, pour résoudre la guerre en Ukraine, ils finissaient par proposer une éducation à la paix. Pour prévenir de futurs conflits, l'éducation à la paix devrait être intégrée dans les systèmes éducatifs Pour promouvoir la compréhension mutuelle, la résolution pacifique des conflits. Je me suis dit mais ChatGPT est monté sur rien, c'est formidable. De la même façon, si on teste des choses sur la parentalité, on trouve des outils de discipline positive qui sont proposés par ChatGPT, et vous voyez comment il peut y avoir des biais qui peuvent être inquiétants. Si vous posez des questions sur la parentalité, qu'est-ce que ChatGPT va vous dire, quelle vision de l'éducation il va défendre. Donc voilà, il y a pas mal de choses problématiques, là encore, au niveau de l'éducation. Alors, je vous avais dit qu'après avoir vu tous les dangers de l'intelligence artificielle, j'allais quand même vous parler aussi des solutions pour limiter ces dangers.

Speaker 1:

La première chose et en tout cas, c'est ma conviction, et je ne suis pas la seule à le penser il y a des gens assez influents qui l'ont demandé aussi c'est, je pense, qu'on a besoin d'un moratoire pour travailler sur la sécurité des IA avant de les déployer davantage. Je pense qu'on devrait tout arrêter alors, pas en termes de recherche, mais tout arrêter en termes de déploiement de passage dans le domaine public, Parce qu'il y a déjà trop de choses qui sont sorties et qui peuvent être utilisées avec des intentions malveillantes. Dans le podcast Your Undivided Attention, il définit trois règles de la technologie humaine que je trouve très justes. Première règle lorsqu'on invente une nouvelle technologie, on met à jour de nouvelles responsabilités. Par exemple, avec la multiplication des appareils photos, on découvre le droit au respect de la vie privée qui, avant, n'avait pas tellement d'importance. On ne pouvait pas prendre une photo de la vie privée de quelqu'un. Donc, première règle lorsqu'on invente une nouvelle technologie, on met à jour de nouvelles responsabilités et on ne sait pas toujours à quoi elles vont devoir ressembler.

Speaker 1:

Deuxième règle si la technologie donne du pouvoir, elle donne lieu à une course au progrès, et c'est exactement ce qu'on voit là avec l'intelligence artificielle et c'est ce qu'on a vu avant avec les réseaux sociaux. Troisième règle si on ne régule pas cette technologie en se coordonnant, ça se finit en tragédie. Et un très bon exemple de ça, c'est la bombe atomique. Si on n'avait pas régulé la bombe atomique, on a flirté quand même avec le désastre nucléaire à plusieurs reprises pendant la guerre froide. D'ailleurs, petite anecdote là-dessus pendant la guerre froide, vous aviez les Etats-Unis et l'URSS qui faisaient une guerre de dissuasion avec des missiles. Euh, et en fait, chacun pouvait détruire l'autre pays en envoyant des missiles, l'idée étant qu'il y avait un équilibre des forces et que donc, par dissuasion, aucun des pays n'irait appuyer sur le bouton par peur que l'autre pays ne déclenche des représailles et ne détruise l'autre pays.

Speaker 1:

Sauf qu'en 1983, il y a des satellites de surveillance soviétique qui ont déclenché une, détruisent l'autre pays. Sauf qu'en 1983, il y a des satellites de surveillance soviétique qui ont déclenché une alerte. Ces satellites avaient établi qu'il y avait un tir de missile contre l'Union soviétique. La réponse prévue officielle, s'il se passait quelque chose comme ça, c'est qu'il fallait automatiquement envoyer un tiers de missiles soviétiques vers les Etats-Unis Ou vers l'Europe de l'Ouest, enfin partout où c'était possible. Si tout ça avait été réglé par une intelligence artificielle, c'est bien simple les soviétiques auraient envoyé leurs missiles, les Etats-Unis auraient renvoyé des missiles, le monde entier aurait été détruit, sauf que ce qui s'est passé, c'est que ce signal des satellites soviétiques a été reçu par le commandant Petrov Et le commandant Petrov a décidé d'aller voir sa hiérarchie et de dire que ça pouvait être une fausse alerte.

Speaker 1:

Il a eu un doute Et ce doute, en fait, a sauvé l'humanité Parce que, parce qu'il a exprimé ce doute, effectivement, la hiérarchie a décidé de ne pas riposter. Et il se trouve que, oui, c'était bien une fausse alerte. Les États-Unis n'avaient pas envoyé de missiles. En fait, il y avait un alignement, je crois, de nuages. C'était la réflexion des rayons du soleil sur les nuages qui était confondue avec le dégagement d'énergie au décollage des missiles. C'était une erreur d'interprétation. Petrov, lui, n'a eu que quelques secondes pour prendre sa décision d'appuyer sur le bouton ou de prédire sa hiérarchie qu'il y avait une attaque des missiles ou de dire que ça peut être une fausse alerte. Il a estimé qu'il y avait peu de missiles envoyés, une décision qui était très humaine, très instinctive, très intuitive Et, effectivement, ça a permis d'éviter que le monde entier soit détruit. Donc, d'où l'intérêt de réguler la bombe atomique. Il n'y a que très peu de pays qui la possèdent et on fait tout pour empêcher les autres pays d'y avoir accès. Il y a d'autres exemples de coordination, de régulation qui sont fondamentales.

Speaker 1:

Par exemple, on a interdit les armes aveuglantes à laser avant même qu'elles aient été déployées dans des conflits. Elles n'ont jamais été déployées dans des conflits parce qu'on estimait que c'était trop dangereux des armes qui peuvent aveugler l'ennemi. On a interdit le clonage humain. On a interdit les gaz de combat suite à l'utilisation des gaz comme le gaz moutarde pendant la première guerre mondiale qui a fait tellement de ravages.

Speaker 1:

On a interdit les armes qu'on pouvait imprimer sur des imprimantes 3D, c'est à dire qu'on n'a pas le droit de diffuser des schémas, des modèles pour imprimer sur son imprimante 3D une arme. Dès qu'il y a une nouvelle invention, il y a une course à la technologie et un risque de conséquences dramatiques s'il n'y a pas de régulation. Vous imaginez que tout le monde qui possède une imprimante 3D pourrait imprimer des armes? ça serait une catastrophe. Et ça, c'est quelque chose qui est pas récent. On parle de technologie, mais c'est très, très ancien.

Speaker 1:

Déjà en 1139, le deuxième concile de Latran a interdit l'arc et l'arbalète, qui étaient considérés comme des armes déloyales. Alors, ça n'a pas empêché que, peu à peu, ils ont tout de même été adoptés. C'est la même chose pour les bombardements de civils, normalement depuis 1899, on n'a plus le droit de bombarder des civils. N'empêche que ça s'est pratiqué ne serait-ce qu'en Seconde Guerre mondiale, et puis, encore aujourd'hui, il y a des bombardements de civils. Eh bien, vous voyez que ce n'est pas évident de réguler, de contrôler les choses, mais c'est d'autant plus important de le faire quand même. Et on a pu voir à quel point, je vous disais tout à l'heure, ça prenait de notre attention. Je vous parlais du scroll infini et du fait que 200 000 vies chaque jour sont perdues à cause du scroll infini et des réseaux sociaux.

Speaker 1:

Eh bien, l'ia aussi va avoir des conséquences sur notre vie et va transformer l'humanité. Et à nous d'établir des règles, des régulations pour limiter les dégâts, en fait, et que ça ait surtout des influences favorables et pas des influences trop malveillantes. Alors, il y a deux tendances autour de l'IA Tout libéraliser, on ouvre tout, on met tout en open source, ou alors, au contraire, tout interdire, on arrête totalement la recherche sur l'IA, on l'interdit, comme le clonage humain En fait. Il y a une troisième voie qui est possible Et ce qui est assez intéressant, c'est de regarder l'exemple de Taïwan. Là aussi, je vous renvoie au podcast Your Undivided Attention, qui a fait un épisode là-dessus, qui s'appelle Future Proofing Democracy in the Age of AI, un podcast très intéressant sur les choses qu'ils ont mis en place à Taïwan pour gérer l'IA. Par exemple, ils font ce qu'on appelle du pre-bunking.

Speaker 1:

Pre-bunking Vous avez peut-être déjà entendu ce terme de débunker quelque chose, par exemple quand il y a des fake Désolée pour tous les anglicismes, ça me rend dingue. Mais bon, quand il y a une fake news, vous avez des gens comme les décodeurs, etc. Qui debunk c'est ce terme debunker l'information qui montre en quoi elle est fausse. Eh bien, ce qu'ils font à Taïwan, c'est du pre-bunking. Ils pre-bunk, ils montrent à l'avance tout ce qu'il est possible de faire, c'est-à-dire qu'ils vont montrer qu'on peut faire des deepfakes. Ils ont montré des vidéos de personnes politiques qui disaient des choses qui montraient qu'elles étaient corrompues, sauf que ces vidéos étaient partagées par les personnes politiques elles-aient des choses qui montraient qu'elles étaient corrompues, sauf que ces vidéos étaient partagées par les personnes politiques elles-mêmes en disant voilà, j'ai créé cette vidéo grâce à l'IA, pour montrer jusqu'où pouvait aller l'IA pour essayer d'avertir les gens et de développer chez eux une espèce de conscience numérique.

Speaker 1:

Exactement comme aujourd'hui, si vous recevez un mail d'un prince nigérian qui veut vous envoyer des diamants et qui vous demande juste de faire un virement par Western Union, je pense que vous avez des petites lampes rouges qui s'allument et vous vous dites Ok, ça c'est une arnaque. De la même façon, ils essaient de montrer tout ce qui est possible d'alerter pour que les gens soient plus avertis de ces sujets-là. Mais pour que les gens soient plus avertis de ces sujets-là, mais il faut des années pour créer une conscience comme ça. Autre système que je trouve incroyable, que j'aimerais bien qu'on mette en place en France ils ont un seul numéro téléphonique officiel qui est garanti, qui est le 111, pour tous les messages officiels.

Speaker 1:

Donc, ça veut dire que si vous recevez un message, j'ai parlé avec les termes français, pour tous les messages officiels. Donc, ça veut dire que si vous recevez un message de, j'ai parlé avec les termes français d'Amélie, de la CAF, des impôts, etc. Si ce n'est pas 111 qui vous envoie ce message, c'est un faux. Ce serait tellement plus facile alors que vous recevez des messages de faux fournisseurs, edf, etc. Donc, ça, c'est quand même une très bonne chose. Aussi.

Speaker 1:

L'autre chose qu'ils essaient de mettre en place, c'est la possibilité de flaguer, de signaler un message dans un chat de groupe. L'idée, c'est de faire du crowdsourcing, de comment on dirait ça en français, de crowdsourcer le travail de Demon King Vraiment, je me déteste de parler comme ça mais de faire un travail collaboratif pour démasquer les fausses nouvelles, les nouvelles factices. Et donc, avec ce travail collaboratif, on pourrait suivre en temps réel. Alors, l'idée collaboratif, on pourrait suivre en temps réel. L'idée n'est pas de suivre en temps réel toutes les fausses infos, mais de suivre en temps réel ce qui devient viral Et, du coup, de s'attacher uniquement à ce qui devient viral. Et ça, c'est un travail qui peut être fait par une poignée de personnes.

Speaker 1:

Si on voit que le même message est signalé cent mille fois dans la même journée, hop, on s'adresse au message, on le fait éliminer, on diffuse des communiqués, enfin bref, il y a plein de choses qui sont possibles. Et puis, il y a d'autres choses qui sont même positives pour la démocratie. Par exemple, il est possible aujourd'hui de sonder des centaines de milliers de personnes en détail, en faisant un sondage délibéré, et d'avoir un échange entre l'IA et chacune de ces centaines de milliers de personnes de façon individuelle, de récolter leurs retours, de les analyser et de les résumer. Ça, on ne peut pas le faire avec un institut de sondage. Les instituts de sondage, ils reposent sur des échantillons représentatifs. Là, on pourrait le faire vraiment avec des échantillons énormes, ce qui rendrait évidemment les chiffres et les idées plus représentatives. Et puis, toujours à Taïwan, ils ont créé un site qui s'appelle Polis, p-o-l-i-s.

Speaker 1:

Comme police, la cité en grec. C'est un peu comme un réseau social, sauf que les réseaux sociaux ont pour but de mettre en avant ce qui suscite le plus d'engagement. Là, police, c'est comme un réseau social qui mettrait en avant les propositions politiques des gens, des gens comme vous et moi, qui sont les plus nuancées. Et ce n'est pas un réseau social où vous pouvez répondre indéfiniment. Vous pouvez juste construire à partir des propositions précédentes pour prendre en compte le plus de choses possibles, pour nuancer le plus possible, de façon à aboutir à des positions plus équilibrées, alors qu'au contraire, avec les réseaux sociaux actuels, on aboutit à une polarisation de la vie politique. Ce n'est pas un hasard, je pense, si les extrêmes se développent à gauche comme à droite et que là où il y avait, entre guillemets, cette troisième voie d'Emmanuel Macron, elle se rétrécit et on a à nouveau deux blocs qui arrivent avec LFI et avec le RN, c'est parce que tout est fait pour polariser.

Speaker 1:

Les Etats-Unis aussi n'ont jamais été aussi polarisés. Pourquoi? Parce que sur les réseaux sociaux, vous avez tout intérêt à mettre un message le plus clivant possible pour susciter de l'engagement. Donc, toute personne qui a une opinion politique va rendre son opinion politique encore plus extrême pour cliver davantage, pour avoir plus d'engagement. Souvent, les opinions politiques des gens ne vont pas aussi loin que ce qu'ils postent sur les réseaux sociaux. Là, c'est un réseau social qui est optimisé pour la nuance.

Speaker 1:

Alors ça, c'est fascinant, c'est-à-dire que c'est davantage dans l'intérêt humain, là où, avec les réseaux sociaux actuels, on est dans une économie de l'attention et où ils cherchent à monétiser notre attention et non pas à faire ce qui est bon pour nous. Et puis, une autre grande piste pour trouver des solutions, c'est le développement des équipes rouges, les Red Teams en anglais. En gros, on peut voir ça comme l'avocat du diable. Dans ces sociétés comme OpenAI, etc. Il y a des équipes rouges qui sont chargées de faire le plus de mal possible avec l'IA, d'aller tester les limites de l'IA, un petit peu comme moi je l'ai fait dans une mesure infinitésimale en allant poser les questions problématiques Et puis en prenant le code et en essayant de voir ce qu'on peut faire avec ce qu'on peut créer comme chatbot à partir de là, qui pourrait faire du mal, ce qui fait que ces équipes, un petit peu comme certains hackers qui se font embaucher par des banques pour tester leur système de sécurité c'est la même chose, c'est que là, ils de sécurité, c'est la même chose, c'est que là. Ils testent le système de sécurité, ils testent les limites de l'IA et ensuite, on va mettre des éléments de régulation sur le logiciel. Et puis, je voulais vous parler rapidement de la France, de là où on en était actuellement.

Speaker 1:

En France, ça fait quelque temps qu'on essaie de se protéger des dangers de l'IA. Juste après la France, j'aborderai les limites d'intelligence artificielle dans l'éducation En France, depuis 2017, c'est en 2017 que la CNIL a publié un rapport qui s'appelle Comment permettre à l'homme de garder la main, qui discutait justement de la construction d'un modèle éthique d'IA. Toujours en 2017, vous, modèle éthique d'IA. Toujours en 2017, vous avez Cédric Villani, que vous connaissez peut-être. Vous savez, c'est ce fameux mathématicien c'est un normalien, justement, celui qui a toujours une araignée sur ses vestes qui était le premier vice-président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques. Il a mené une consultation publique sur l'IA Et, à partir de là, emmanuel Macron a annoncé un plan de 1,5 milliard d'euros sur le quinquennat et une évolution de la législation française pour permettre la mise en application de l'IA, en particulier autour de la circulation des véhicules autonomes.

Speaker 1:

Dans ses déclarations, il a développé sa propre vision de l'IA à partir des travaux publiés par Cédric Villani, à savoir que les algorithmes utilisés par l'État doivent être ouverts. C'est cette notion d'open source dont je vous parlais, que l'IA doit être encadrée par des règles philosophiques et éthiques. C'est un petit peu comme l'IA constitutionnelle, comme l'IA Claude, dont je vous ai parlé, qui a été créée par la société anthropique. Et aussi qu'il faut s'opposer à l'usage d'armes automatiques ou de dispositifs prenant des décisions sans consulter un humain. Il faut toujours qu'il y ait un humain impliqué pour permettre à des gens comme le commandant Petroff d'éviter à l'humanité de se retrouver totalement détruite. Et puis, pour le quinquennat actuel, il y avait un plan de 2,2 milliards d'euros qui était prévu.

Speaker 1:

Je ne sais pas où on en est parce que ça ne fait que deux ans. Donc, vous voyez que le problème n'est pas si nouveau que ça. Vous voyez qu'en France, ça fait depuis 2017 déjà qu'on y réfléchit en termes de réglementation. Mais c'est vrai que tout a explosé ces derniers temps et que le danger est vraiment là. Je vous ai mentionné qu'une dizaine de dangers. Je pense qu'on pourrait encore en trouver d'autres. C'est inquiétant Et, en fait, ce qui est intéressant, c'est que ça nous pose cette question fondamentale c'est quel est le propre de l'être humain?

Speaker 1:

Le propre de l'être humain, ça n'est pas de faire du raisonnement logico-déductif parce que ça, la machine peut le faire, ce n'est pas de parler parce que ça, la machine peut le faire. C'est quoi le propre de l'être humain? Ça, c'est une question pour les philosophes là, qui va trouver de nouveaux développement, j'espère, dans les années à venir. Alors, avant de vous quitter, je voulais aborder, comme je vous l'avais dit, les limites de l'intelligence artificielle, plus spécialement dans l'éducation. Je voudrais en aborder cinq. Rassurez-vous, ça va aller plus vite que les dangers de l'IA en général. Premièrement, c'est que il faut bien se dire que l'IA, dans l'éducation, ne va rien inventer a priori.

Speaker 1:

Comme je vous le disais, elle s'est entraînée sur les modèles existants sur Internet. Elle est capable de faire des choses dans le style d'eux. Mais s'il n'y a pas de bons contenus, de bonnes idées sur lesquelles s'entraîner, il n'y aura pas d'innovation pédagogique. L'innovation pédagogique ne viendra pas de l'IA, Elle viendra du terrain, elle viendra d'enseignants, de gens comme moi, de formateurs, etc. C'est de là que viendra l'innovation pédagogique. Donc, il ne faut pas compter sur l'IA pour ça.

Speaker 1:

Deuxième point l'IA ne possède aucune valeur. On l'a bien vu avec les valeurs morales. L'ia est capable d'encourager une gamine de 13 ans à coucher avec un homme de 35 ans. Elle est capable d'encourager quelqu'un à se suicider. L'ia n'a aucune valeur morale. Or, là, je parle d'éducation au sens large, pas seulement d'instruction.

Speaker 1:

Mais la base de l'éducation, c'est de transmettre des valeurs. Ça, c'est le premier travail qu'on fait en discipline positive, c'est d'établir ce qu'on appelle le GPS éducatif. On crée la liste des défis et difficultés qu'on rencontre en ce moment et on crée la liste des talents, compétences de vie et des valeurs qu'on souhaite transmettre à nos enfants. Et c'est ça qui nous guide dans l'éducation qu'on va leur donner.

Speaker 1:

Troisième limite de l'IA, c'est que l'IA n'a pas de corps. Or, il se trouve qu'on réagit aussi à la présence physique des autres. On réagit sans doute face aux hormones de l'autre, on réagit avec nos neurones miroirs, et ça, l'ia ne pourra pas le faire. Vous allez me dire, avec la génération de vidéos, très bientôt, l'ia va nous répondre. On a déjà des comptes d'influenceurs sur les réseaux sociaux, avec des faux influenceurs, des influenceurs virtuels qui publient des vidéos. On peut imaginer que l'IA va nous répondre, sous forme de vidéos aussi.

Speaker 1:

Oui, et en même temps, on sait des choses qui me font dire que ça n'aura pas tous les faits escomptés. On sait, par exemple, qu'un enfant apprend beaucoup moins bien une langue avec une personne qu'il voit à travers un écran qu'avec la même personne face à lui qui lui parle. La personne dit la même chose, mais dans un cas elle est dans l'écran, dans l'autre elle est physiquement auprès de l'enfant. Eh bien, l'enfant apprend mieux dans le deuxième cas. De la même façon, on sait qu'on retient moins de choses, on a une moins bonne perception globale d'un livre, etc. Quand on le lit sur une liseuse que quand on le lit au format papier. Donc, il y a des choses qui relèvent du physique, qui relèvent du sensoriel. D'où l'importance du côté très sensoriel dans la pédagogie Montessori, très incarné, des choses qui ne pourront pas passer avec l'intelligence artificielle, en tout cas pas en termes d'éducation.

Speaker 1:

La quatrième limite, je l'ai déjà évoquée, c'est que l'ai déjà évoqué, c'est que l'IA risque de répandre des biais, des préjugés sexistes, racistes, des préjugés politiques, toutes sortes de choses, ou de renforcer les biais déjà existants dans notre société. Et puis, cinquième limite de l'IA, ça va peut-être vous paraître anecdotique, mais l'IA développe des tics de langage. C'est assez rigolo. Il y a un vocabulaire qu'on retrouve dans l'IA. Il y a parfois des expressions peu usitées dans la vie de tous les jours dont l'IA s'est emparée et qu'elle utilise plus fréquemment que la moyenne des gens. Il y a des linguistes qui ont commencé à étudier le langage de l'IA.

Speaker 1:

Ça, c'est encore un domaine de recherche fascinant. Ils se sont aperçus qu'il y avait des tics de langage propres à l'IA. Pourquoi, on n'en sait rien. Ça s'est développé pendant l'apprentissage en profondeur, le deep learning. On ne sait pas T, on ne sait pas chat, GPTA, des tics de langage.

Speaker 1:

Ce qui est intéressant, c'est que si on repère ces tics de langage, ça veut dire qu'on pourrait peut-être identifier des textes rédigés par l'IA par rapport à des textes rédigés par un humain. C'est pas si évident que ça. En tout cas, l'inconvénient, c'est que ces tics de langage, à force d'utiliser l' il y a, ils vont se répandre dans la population. A force, vous avez forcément des gens qui ne vont pas faire tout le travail de recherche que j'ai fait là, par exemple pour ce podcast, et qui vont se dire tiens, tchatche, gpt, écris-moi le script d'un podcast sur l'intelligence artificielle, et qui vont, en adaptant un tout petit peu reprendre ce qui était proposé par le Tadjé Pété Et, en fait, ils ne vont vous faire que répéter les mêmes clichés, répéter les mêmes tics de langage.

Speaker 1:

Donc, je pense qu'on va avoir l'apparition de clichés d'IA, exactement comme on a des clichés dans la vie de tous les jours, des regrets amers. Je ne vais pas vous trouver d'autres exemples, évidemment, exemples de clichés. Mais blonds comme les blés, vous avez des clichés comme ça. L'ia aussi a ses propres clichés qui vont se répandre dans la population. Donc, il y a quand même pas mal de limites. Il y a des dangers à l'IA, il y a des limites aussi.

Speaker 1:

Et il n'empêche que la semaine prochaine, je voudrais aborder avec vous comment on peut utiliser l'IA dans l'éducation. Alors, vous allez me dire, après tout ce que je vous ai raconté, vous n'avez peut-être pas tellement envie d'utiliser l'IA dans l'éducation. Je vous comprendrai si c'était le cas. Oui, cet épisode est sans doute un peu anxiogène, mais je pense que j'ai hésité. J'ai vraiment hésité à l'enregistrer. Et j'ai aussi hésité à enregistrer le suivant.

Speaker 1:

J'avais presque envie de m'arrêter là pour alerter sur les risques et les dangers de l'IA, parce que je pense que chacun doit être averti. Chacun doit prendre ces deux heures-là pour comprendre ce qu'est l'IA, comment ça fonctionne et pourquoi il y a des choses qui posent problème. Et je pense qu'avec en connaissance de cause, avec ces connaissances, on peut du coup utiliser l'IA, mais sans avoir l'impression de jouer avec le feu. On sait avec quoi on joue, en tout cas, on le sait un peu mieux. Je voudrais quand même terminer par deux petites citations de Maria Montessori, qui sont extraites de son livre L'éducation et la paix. Comme je l'ai relu pour le dernier podcast sur l'éducation et la paix, comme je l'ai relu pour le dernier podcast sur l'éducation à la paix, montessori, je suis tombée sur ces citations que j'ai trouvées d'une actualité désarmante par rapport à l'intelligence artificielle.

Speaker 1:

Voici ce qu'elle écrivait La morale doit être vue comme la science de l'organisation d'une société. D'h'espère qu'aujourd'hui on ne va pas perdre ça, qu'on ne va pas perdre la valeur d'une société d'hommes, qu'on ne va pas estimer que c'est l'efficacité de son intelligence artificielle. Elle écrivait aussi, sachant qu'elle écrivait tout ça avant la guerre mondiale Celui qui découvre un microbe virulent et le sérum préventif qui peut sauver de nombreuses vies humaines est vivement applaudi. Mais celui qui découvre des techniques de destruction et dirige toutes ses facultés mentales vers l'anéantissement de peuples entiers est plus honoré encore. Et alors qu'on est encore en pleine guerre entre la Russie et l'Ukraine. Je ne voudrais pas que l'IA devienne un nouvel outil de destruction et d'anéantissement de peuples entiers.

Speaker 1:

J'espère qu'on saura se préserver de ces dangers. Je ne voudrais pas non plus que les inventeurs de l'IA, les inventeurs, les développeurs d'outils comme Chad, gpt, mid Journey, gemini Lama, etc. Se retrouvent à éprouver les mêmes regrets que Robert Oppenheimer, l'inventeur de la bombe atomique, qui, toute sa vie, a cherché à compenser les ravages qu'avait pu faire son invention, en particulier à Hiroshima et Nagasaki. Je n'aurais pas non plus qu'ils se retrouvent comme Azaraskin, l'inventeur du scroll infini dont je vous ai parlé. Ça serait bien d'envisager des solutions et des limites avant que ça ne fasse trop de dégâts, plutôt que de les regretter après. bon, j'espère ne pas vous avoir fait trop peur.

Speaker 1:

J'espère que pas vous avoir fait trop peur. J'espère que vous y voyez plus clair sur l'intelligence artificielle, que vous êtes davantage conscients des dangers qu'elle implique Et que je ne vous ai pas fait perdre espoir, que vous voyez tout de même quelles sont les possibilités de solutions que nous avons Et que peut-être, vous-même, à votre échelle, à votre mesure, vous pourrez y participer. C'est tout pour aujourd'hui. Rendez-vous la semaine prochaine pour voir comment utiliser l'IA dans le domaine de l'éducation de façon constructive et sécurisée. Et d'ici là, je vous souhaite une excellente semaine. A très bientôt votre petite souris 7, anne-laure.

l'Intelligence Artificielle Et l'Éducation
l'Évolution De l'Intelligence Artificielle
l'IA Open Source Et ChatGPT
Au-Delà De l'Échelle Humaine
Les Dangers De l'IA Et GPT
Dérivés De l'IA Et Invites
Le Défi De l'Interprétabilité De l'IA
Les Limites De l'IA Sur ChatGPT
La Nécessité De Réguler La Technologie
Limites De l'IA en Éducation
Dangers De L'IA, Solutions'es