Conférence de Luc Julia, le "papa" de Siri
Par AMO
Luc Julia nous donne, avec optimisme, sa vision sur le monde des IA.
L’intelligence artificielle n’existe pas, par Luc Julia
Sur la chaine YouTube de FUN-Mooc.
Notez la consommation d’énergie requise pour le jeu de GO: 440 000 watts pour l’IA, contre 20 watts pour l’humain…
Est-ce qu’il n’y aurait pas un “petit” sujet, là ?
Le résumé en 500 mots par Chat Mistral
Luc Julia, un expert en intelligence artificielle (IA), a donné une conférence dans laquelle il a expliqué que l’IA n’existe pas réellement telle qu’elle est présentée dans les médias. Il a clarifié que l’IA est plutôt une boîte à outils avec de multiples variétés, chacune étant hautement spécialisée dans son domaine respectif. Il a souligné que l’IA est puissante, utile et parfois dangereuse, mais qu’elle est fondamentalement différente de l’intelligence humaine.
Luc Julia a commencé par l’histoire de l’IA, remontant à 1956, lorsque le terme a été inventé. Il a expliqué comment les premières tentatives pour modéliser le cerveau humain en utilisant des réseaux de neurones ont échoué. Il a ensuite expliqué comment l’IA s’est développée au fil des décennies, passant de l’IA statistique à l’IA logique, puis à l’IA que nous connaissons aujourd’hui, qui est une combinaison des deux.
Il a souligné que l’IA est fondamentalement différente de l’intelligence humaine. Alors que l’IA excelle dans des tâches spécifiques et étroites, l’intelligence humaine est générale et adaptative. Il a utilisé l’exemple d’un enfant de deux ans reconnaissant un chat après avoir vu seulement deux images, alors qu’une machine d’apprentissage profond aurait besoin de centaines de milliers d’images pour accomplir la même tâche.
Luc Julia a également abordé la question de la peur de l’IA, qui est souvent présentée dans les médias comme une menace pour l’humanité. Il a souligné que ces peurs sont largement infondées et résultent d’une mauvaise compréhension de ce qu’est réellement l’IA. Il a conclu en disant que nous devrions plutôt considérer l’IA comme un outil puissant qui peut nous aider dans de nombreux domaines, mais que nous devons également être conscients de ses limites et de ses risques potentiels.
En résumé, Luc Julia a présenté une vision nuancée de l’IA, la décrivant comme un outil puissant mais limité, fondamentalement différent de l’intelligence humaine. Il a souligné la nécessité de comprendre l’IA et ses limites afin de l’utiliser efficacement et en toute sécurité.
Minutes de la conférence générées par Whisper
19: Applaudissements.
20: Merci beaucoup.
22: Alors effectivement, ça, c’est moi,
25: c’est le gars avec la chemise à moyenne.
26: Je vois que j’ai fait quelques émules aujourd’hui, c’est pas mal.
29: Mais vous y viendrez, je vous assure.
31: Donc, on va parler d’intelligence artificielle ce matin.
34: Et en fait, j’ai une nouvelle, parce que je vais vous raconter
38: que l’intelligence artificielle n’existe pas.
41: Alors, c’est dommage, moi, j’en fais depuis 30 ans, c’est un peu embêtant.
44: Mais bon, celle qui n’existe pas,
48: c’est celle dont on rebat les oreilles depuis une petite dizaine d’années,
51: mais surtout depuis six mois, avec la GPD.
55: Cette intelligence artificielle qu’on présente dans les médias
59: comme quelque chose de magique, ou qui fait peur, ou qui fait rêver,
1:02: ça dépend…
1:03: Moi, j’appelle ça l’intelligence artificielle de Hollywood.
1:05: Donc, celle effectivement qui est dans les films comme Terminator,
1:12: donc là, ça fait plutôt peur,
1:14: ou celle des films comme Her.
1:17: Il y en a qui ça fait envie, pas moi.
1:20: Donc, c’est celle-là qui n’existe pas,
1:23: cette intelligence artificielle qu’on nous présente.
1:25: D’ailleurs, ce n’est pas une intelligence artificielle,
1:27: il ne faudrait pas parler d’une intelligence artificielle,
1:28: et je pense que je vais vous expliquer ça ce matin.
1:32: Il faut parler d’intelligence artificielle ou plurielle,
1:35: parce qu’il y en a sur multiples évariers, il y en a plein.
1:39: Et si j’ai vraiment à donner une définition d’une intelligence artificielle,
1:45: je veux dire qu’une intelligence artificielle, c’est une boîte à outils.
1:49: Une boîte à outils dans laquelle vous avez plein d’outils, divers évariers,
1:51: et ce sont ça les intelligences artificielles, ce sont ces outils,
1:54: le marteau, la scie, le tournevis, etc.
1:57: Chacune de ces intelligences artificielles est très spécialisée,
2:00: elle est très forte dans le domaine particulier pour lequel elle a été fabriquée,
2:08: et par définition même de l’outil, elle est utile.
2:12: C’est-à-dire que ça marche très bien, ça marche mieux que nous,
2:14: un marteau, ça marche mieux que nous pour planter un clou.
2:19: Donc ces intelligences artificielles sont effectivement puissantes,
2:23: et on va y revenir, utiles et ou dangereuses.
2:30: Je vais commencer par 1956, c’est quand on a inventé le mot,
2:40: l’expression intelligence artificielle.
2:42: Donc ça ne date pas d’hier, ça ne date pas d’il y a 10 ans, ça ne date pas d’il y a 6 mois.
2:46: 1956, c’est quand une tripotée de scientifiques américains se sont réunis à l’université de Dartmouth
2:53: pour donner un nom au domaine sur lequel ils étaient en train de travailler,
3:01: et ils avaient défini mathématiquement un neurone.
3:07: C’est-à-dire qu’ils avaient défini une fonction, ils avaient dit que ça arrivait à la capacité d’un neurone.
3:13: Et donc on est capable de faire, en mathématiques, de modéliser un neurone.
3:18: Si on a un neurone, on peut modéliser un réseau de neurones.
3:20: Si on a un réseau de neurones, on peut modéliser le cerveau.
3:24: Si on a le cerveau, on peut modéliser l’intelligence.
3:27: Alors évidemment, le raisonnement que je viens de faire ici est complètement stupide,
3:30: et ça n’a pas marché, mais bon, je vais y revenir.
3:33: Mais c’est là que ça a démarré, mais si on réfléchit bien,
3:39: on fait ça depuis la nuit des temps.
3:41: On fait ça, on essaye de trouver des outils, de faire des machines, de faire des systèmes
3:47: qui vont faire des choses qui ressemblent à ce qu’on fait nous.
3:51: On essaie d’automatiser depuis la nuit des temps.
3:55: On peut certainement aller aux Grecs, aux Égyptiens, même peut-être avant.
4:00: Moi, comme je suis franchouillard de base,
4:03: je vais démarrer l’intelligence artificielle, ou ce qu’on peut appeler comme ça, en 1642.
4:11: Qu’est-ce qui s’est passé en 1642 ?
4:13: En 1642, le mathématicien et philosophe français Pascal a inventé la pascaline.
4:22: Et la pascaline, c’est quoi ? C’est la première machine à calculer.
4:25: C’est une machine à calculer qui faisait des additions et des soustractions.
4:28: Ou bien, c’est pas très intelligent de faire des additions et des soustractions.
4:32: Mais si je vous demande combien fait 649 plus 1884 ?
4:48: D’accord.
4:49: Il y a deux solutions où vous êtes complètement idiots.
4:51: C’est possible, vous pouvez dire comme ça.
4:53: Ou alors c’est pas intelligent de faire ça, je ne sais pas.
4:56: Mais en tout cas, la machine, la pascaline, aurait eu ces résultats en moins de 4 secondes.
5:03: Parce qu’il suffit de tourner les molettes.
5:05: Et en plus de ça, la machine, elle aurait eu juste.
5:08: Parce que là, personne ne me donne une réponse.
5:10: Mais si vous m’avez donné une réponse, il y avait à peu près 60% de chances qu’elle soit fausse.
5:15: Mais bon, ça c’est…
5:17: Ceci dit, c’est pour ça que ça fait très très longtemps qu’on essaie de créer des machines qui ont l’air intelligentes,
5:21: qui font des trucs qui ont l’air intellectuels.
5:25: Mais je reviens à mes amis de la 256 et je vous disais tout à l’heure que le raisonnement est stupide.
5:31: Et c’est embêtant parce qu’en plus de ça, non seulement ils ont donné le mauvais nom à cette intelligence artificielle,
5:38: enfin à ce domaine, mais en plus de ça, ils se sont attaqués au problème,
5:41: qui est certainement le problème le plus compliqué auquel on puisse s’attaquer,
5:45: puisqu’ils ont essayé de résoudre le langage naturel.
5:48: Alors, langage naturel, c’est quoi ?
5:50: C’est ce qu’on fait en ce moment, là.
5:51: Il y a un gars qui parle, il y a des mots, et puis vous vous rappelez les mots,
5:54: et puis vous essayez de faire… de comprendre le sens.
5:58: Bon, les mots, c’est relativement facile, le sens, c’est compliqué.
6:01: Et donc évidemment, en 1956, avec les méthodes qu’on utilisait à l’époque,
6:05: qui étaient donc ces méthodes statistiques, ils ont complètement échoué, ça n’a pas marché.
6:09: Et on est rentrés dans ce qui s’appelle le premier hiver de l’IA.
6:11: C’est quoi l’hiver de l’IA ? C’est un moment où on arrête de faire de l’IA parce qu’on donne plus de sous,
6:15: parce qu’on nous a menti.
6:17: On nous a menti, on nous a promis plein de choses, on ne l’a pas fait, etc.
6:21: Et il y en a eu plein d’hivers de l’IA après.
6:23: En fait, il y en a un autre qui nous prend au nez.
6:25: Si on continue à faire notre Laurent Alexandre et à raconter n’importe quoi,
6:31: on peut très bien arrêter l’IA.
6:36: C’est-à-dire qu’on a peur.
6:38: C’est ce qui se passe en ce moment avec Tchadjipiti, on a peur, vous avez peur.
6:43: On nous dit n’importe quoi, Laurent Alexandre.
6:46: Ou alors, on nous fait rêver et ça n’arrive pas.
6:50: Donc là, on est dans une période où il est très possible qu’à cause d’une de ces trois, quatre ou cinq raisons,
6:57: on arrête de travailler sur l’intelligence artificielle.
6:59: Ce serait dommage parce que dans les intelligences artificielles dont je parlais tout à l’heure,
7:03: il y en a plein qui sont excessivement utiles, qui sont très utiles.
7:06: Et il faut surtout continuer.
7:08: Il ne faut pas s’arrêter.
7:09: Mais il faut comprendre.
7:10: Il faut s’éduquer.
7:11: Il faut venir ici.
7:13: Alors, donc dans les années 60, il n’y a plus d’intelligence artificielle.
7:20: Enfin, début des années 60.
7:22: Du moins, il n’y a plus d’intelligence artificielle que je vais appeler statistique.
7:24: Donc celle qui essaie de modéliser les neurones.
7:28: Mais il y a un autre type qui apparaît.
7:30: C’est ce que je vais appeler les intelligences artificielles logiques.
7:36: On vous en a entendu parler, c’est ce qu’on appelle les systèmes experts.
7:39: Ces systèmes experts sont très à la mode dans les années 60, 70, 80, 90.
7:46: Et ça arrive à son apothéose en 1997, quand le championnement de déchecs,
7:52: Gary Kasparov, est battu par la machine d’Iblu, une machine d’IBM,
7:57: qui bat Kasparov aux échecs effectivement.
8:01: Et ça, c’est super impressionnant.
8:04: Parce que quand on joue aux échecs, on est intelligent.
8:10: Non.
8:12: En fait, non.
8:14: Les échecs, c’est rigolo, c’est un jeu.
8:17: Il y a des règles, ça tombe bien,
8:19: parce que là, quand on parle des systèmes experts, c’est des bases de règles.
8:22: Et donc, on rentre les règles du jeu dans la base.
8:26: Donc ça, c’est relativement simple.
8:28: Et en plus de ça, il se trouve qu’aux échecs, on sait exactement combien de coups,
8:31: 10, 149 coups.
8:33: Et on est capable de rentrer pas mal de coups dans la machine.
8:36: En 1997, il y a pas mal de mémoire.
8:38: On est capable de calculer relativement facilement,
8:41: parce qu’on a assez de puissance de calcul,
8:43: à n’importe quelle position gagnante.
8:45: Très facilement.
8:47: Et Kasparov, il n’est pas capable.
8:49: Kasparov, il a 20 coups d’avance.
8:51: Il est fort, moi j’ai 2 coups d’avance.
8:53: Donc, bon.
8:55: C’est relativement simple ce qui se passe.
8:59: Je ne sais pas si c’est de l’intelligence,
9:01: mais en tout cas, c’est impressionnant, c’est sûr.
9:03: Donc là, on est dans les années 90,
9:05: et dans les années 90, il se passe quelque chose d’autre, en fait,
9:08: qui fait que les intelligences artificielles statistiques,
9:11: qu’on avait abandonnées 30 ans plus tôt,
9:13: reviennent à la charge.
9:16: Pourquoi elles reviennent à la charge ?
9:18: Parce que c’est des statistiques.
9:20: Pourquoi c’est des statistiques ?
9:22: Je vais vous dire ça juste après.
9:24: On change de nom, quand même.
9:26: On appelle ça du machine learning maintenant.
9:28: C’est la machine qui va apprendre des trucs, ça va être sympa.
9:30: Et donc ce machine learning, pourquoi il arrive en force ?
9:32: Parce qu’en 90, vous vous rappelez peut-être,
9:34: enfin dans les années 90, au milieu,
9:36: il y a un truc qui arrive qui s’appelle internet.
9:38: Et internet, ça arrive avec beaucoup, beaucoup, beaucoup de données.
9:40: Et pour faire des statistiques,
9:42: il faut beaucoup, beaucoup, beaucoup de données.
9:46: Donc là, on est dans les années 2000.
9:50: On fait maintenant même du deep learning.
9:52: Donc on se contente pas d’une machine learning,
9:54: on fait du deep learning.
9:56: Deep learning, c’est exactement pareil, sauf qu’il y a encore plus de données.
9:58: De plus en plus de données.
10:00: Vous allez voir,
10:02: on va parler de Chodjipiti tout à l’heure,
10:04: il y a beaucoup, beaucoup de données.
10:06: Et donc,
10:08: dans les années,
10:10: dans les débuts des années internet,
10:14: parmi les gros, gros montants de données qu’il y a,
10:18: il y a beaucoup d’images de chats
10:20: sur internet.
10:22: Alors vous allez me dire, il a pété une diurite, le gars.
10:24: Non, non, mais il y a vraiment beaucoup
10:26: d’images de chats.
10:28: Et puis les images de chats
10:30: sont intéressantes pour les gens qui veulent faire des statistiques
10:32: parce qu’elles sont annotées.
10:34: C’est-à-dire que les gens, ils mettent des chats sur internet
10:36: et ils disent, c’est mon minou, c’est mon kitty,
10:38: c’est mon chaton, gna gna gna.
10:40: Et donc,
10:42: on a une base donnée de chats
10:44: relativement intéressante.
10:46: Et on dit, on va utiliser cette base donnée de chats
10:48: pour faire le premier reconnaisseur de chats.
10:50: Un truc super intelligent.
10:54: Et donc, on se rend compte que seulement
10:56: avec…
10:58: Comment on dit en français déjà ?
11:00: One hundred thousand.
11:02: Cent mille images de chats.
11:04: Avec cent mille images de chats,
11:06: je peux faire un reconnaisseur de chats
11:08: qui reconnaît les chats à 98 %.
11:10: Wow.
11:12: Alors là, on arrive au top de l’intelligence artificielle, quand même.
11:14: C’est le truc,
11:16: on se rend compte vraiment qu’on est capable de faire des machines intelligentes.
11:18: Si on est capable de faire des machines
11:20: qui reconnaissent les chats.
11:22: Et là, on se demande,
11:24: est-ce que c’est vraiment
11:26: un truc qui est intelligent, le machin-là ?
11:28: Parce qu’il faut quand même cent mille images de chats.
11:30: Cent mille images de chats, c’est beaucoup.
11:32: Surtout quand on se pose des questions,
11:34: et la question que j’ai posée à des gens,
11:36: à des psychologues, en l’occurrence,
11:38: je leur ai demandé, mais ma fille de deux ans,
11:40: combien d’images de chats lui faut-elle ?
11:42: Ou lui faut-il, je ne sais pas,
11:44: pour reconnaître les chats ?
11:46: Et la réponse des psychologues,
11:48: c’est deux.
11:50: D’accord ?
11:52: Donc,
11:54: ma fille de deux ans,
11:56: qui n’est pas forcément très intelligente,
11:58: enfin, d’après moi, elle est complètement con,
12:00: il lui faut
12:02: cent mille images,
12:04: il lui faut deux images de chats
12:06: pour reconnaître les chats à 100% quand même.
12:08: Et la machine qu’on est en train de fabriquer,
12:10: l’intelligence artificielle,
12:12: il lui faut cent mille images de chats.
12:14: Donc, on est en train de fabriquer des trucs
12:16: qui n’ont strictement rien à voir
12:18: avec notre cerveau, en fait.
12:20: Donc, c’est pour ça qu’il va falloir se calmer
12:22: un tout petit peu quand on va dire à un moment donné,
12:24: « ouais, attention, ça va nous remplacer, tout ça. »
12:26: Ça n’a strictement rien à voir.
12:28: OK ?
12:30: Parce qu’en plus, là, je vous ai dit,
12:32: cette machine qu’on a créée, elle reconnaît les chats
12:34: à 98%. Vous savez pourquoi ?
12:36: C’est qu’à 98% ?
12:38: Parce que ma fille, elle reconnaît à 100% parce qu’elle reconnaît même
12:40: les chats dans la pénombre.
12:42: Mais les chats dans la pénombre, il n’y en a pas dans la database.
12:44: Parce que personne n’a posté de chat dans la pénombre.
12:46: Parce qu’on ne les voit pas.
12:48: Donc, ça ne sert à rien. Et si on ne les voit pas,
12:50: on ne les reconnaît pas.
12:52: OK ?
12:54: Donc, ces systèmes ont des limites aussi,
12:56: des data,
12:58: des données qui sont disponibles
13:00: pour pouvoir reconnaître
13:02: ce qu’ils sont censés faire.
13:04: OK ? Bon, ça, c’est réglé.
13:06: On a parlé des données, on a parlé des systèmes
13:08: qui sont idiots et qui ont besoin
13:10: beaucoup de données et qui n’ont strictement rien à voir
13:12: avec notre cerveau. Mais pour
13:14: amplifier encore là-dessus, on va passer en 2016,
13:16: maintenant. Et on va aller,
13:18: cette fois-ci, à la machine qui a battu
13:20: la championnée mondiale de Go.
13:22: Alors ça, c’était effectivement… Le Go, c’est rigolo.
13:24: Le Go, c’est un peu plus compliqué que les échecs.
13:26: Je vous ai dit tout à l’heure, 10 puissance 49
13:28: coups aux échecs. Le Go, si vous demandez
13:30: au mathématicien combien il y a de coups, ils vont vous dire
13:32: qu’il y a entre 10 puissance 200
13:34: et 10 puissance 600 coups.
13:36: Donc, en gros, ce que je suis en train de dire, c’est qu’on n’en sert à rien.
13:38: OK ?
13:40: Mais ce qu’on sait, c’est que c’est beaucoup.
13:42: Et récemment, là, j’ai donné cette
13:44: conf dans un lycée.
13:46: Et il y a un gars qui m’a dit, bah, finalement,
13:48: 10 puissance 200, c’est seulement
13:50: 4 fois plus 10 puissance 49.
13:56: C’est beaucoup, beaucoup plus, on est d’accord ?
13:58: On est d’accord ?
14:00: Il y a beaucoup, beaucoup de zéro derrière.
14:02: OK. Donc,
14:04: c’est impossible d’utiliser les méthodes
14:06: de logique
14:08: qu’on avait utilisées en 1997.
14:10: Donc là, on va utiliser des méthodes statistiques.
14:12: Effectivement, on va utiliser du deep learning.
14:14: C’est DeepMind, une boîte
14:16: de Google,
14:18: finalement, qui fait ça.
14:20: On va pas s’intéresser à l’algorithme, on s’en fiche, mais on va s’intéresser à la machine.
14:22: Donc,
14:24: DeepMind,
14:26: qui fait tourner AlphaGo, le programme qui joue au Go.
14:28: Cette machine,
14:30: elle n’est pas vraiment comme ça, ça c’est un dessin que j’ai fait.
14:32: On ne sait jamais.
14:34: Et donc, on va ouvrir
14:36: ces entrailles. Et quand on ouvre ces entrailles,
14:38: on va voir qu’il y a à l’intérieur 1500
14:40: CPUs. Les CPUs, c’est les chips, c’est les
14:42: plus d’ordinateurs.
14:44: Donc, 1500 plus d’ordinateurs.
14:46: Il y a 300 GPUs. Les GPUs,
14:48: c’est encore des GPUs qui font du Graphical
14:50: Processing Unit. C’est des machines qui font du
14:52: calcul matriciel, très intéressant pour faire du machine learning.
14:54: Et
14:56: il y a encore un autre type de puce qui est nouveau
14:58: à ce moment là, qui s’appelle des TPUs,
15:00: Tensor Processing Unit. C’est pour faire
15:02: du Tensor Flow. Tensor Flow, c’est une méthode
15:04: de Deep Learning. Très bien.
15:06: Donc, c’est 2000 ordinateurs, le machin.
15:08: 2000 ordinateurs pour jouer au Go.
15:10: D’accord ? 2000 ordinateurs,
15:12: c’est un petit data center.
15:14: Un petit data center, ça fait 440
15:16: kilowatts. 440
15:18: kilowatts pour jouer au Go.
15:20: Alors là, il y a une autre question
15:22: qu’il faut se poser. C’est le petit courant de 18
15:24: ans, c’est bien fait pour sa gueule qu’il soit fait
15:26: entatiné d’ailleurs parce qu’il est infect.
15:28: Mais lui, il a
15:30: 18 ans, et il a
15:32: ça.
15:34: Et ça, en watts.
15:36: Est-ce que vous avez une idée de ce que c’est ?
15:38: D’accord ?
15:40: Alors pas tous, et surtout ce matin.
15:42: Mais, en général,
15:44: ça,
15:46: c’est à peu près 20 watts.
15:48: Donc là, on est en train de créer
15:50: une machine qui pète 440
15:52: kilowatts pour jouer
15:54: à un jeu que le champion
15:56: du monde est capable de jouer
15:58: avec 20 watts.
16:00: D’accord ? Bon, il est champion du monde,
16:02: mais il était pas loin de battre la machine.
16:04: Il l’a battue quelques fois, elle l’a battue
16:06: plus, et plus, et plus. Bon. Mais
16:08: on est encore une fois
16:10: en train de créer des trucs qui n’ont exactement rien à voir
16:12: avec notre intelligence, avec notre cerveau,
16:14: qui utilise beaucoup, beaucoup
16:16: plus d’énergie,
16:18: beaucoup, beaucoup plus de données. Mais
16:20: dans l’énergie, ce qui est marrant aussi, c’est que
16:22: cette machine, AlphaGo,
16:24: elle fait que jouer au go.
16:26: Le petit
16:28: coréen, lui, il sait faire
16:30: la cuisine, il sait parler,
16:32: langage naturel, vous savez, le truc compliqué là.
16:34: Il sait faire plein de trucs avec ses 20 watts.
16:36: Ça, ça ne fait
16:38: que jouer au go. Si je veux que ça joue
16:40: aux dames, faut tout refaire.
16:42: OK ?
16:44: Donc, encore une fois,
16:46: respirons, d’accord ?
16:48: Ces machines n’ont strictement rien à voir
16:50: avec notre cerveau, avec notre
16:52: intelligence. On n’aurait jamais dû
16:54: appeler ça intelligence artificielle.
16:56: Donc, comme j’ai dit, il y a beaucoup, beaucoup de données
16:58: dans ces systèmes. Il faut utiliser énormément
17:00: de données, c’est les statistiques,
17:02: on les utilise de plus en plus. On parle de tchadjipiti,
17:04: tchadjipiti aujourd’hui, ce n’est pas 100 000
17:06: morceaux de données,
17:08: comme c’était pour les premiers reconnaisseurs de chats
17:10: dans les années 90-2000.
17:12: On parle de 175 milliards
17:14: de morceaux de données.
17:16: On parle entre 1000 et
17:18: 2000 milliards
17:20: de mots qui sont
17:22: ingurgités par la machine, d’accord ?
17:24: C’est beaucoup, hein ? En gros, c’est l’internet.
17:28: Et donc, ces données,
17:30: malheureusement,
17:32: quand il y en a beaucoup comme ça,
17:34: elles sont souvent, elles sont toujours
17:36: biaisées.
17:38: Je ne sais pas si on vous a dit, mais sur internet,
17:40: il n’y a pas que des trucs vrais.
17:42: Si vous avez…
17:44: Et donc, du coup,
17:46: comme la machine a ingurgité des trucs qui sont
17:48: pas vrais, enfin pas vrais sur certains de nos standards,
17:50: par exemple,
17:52: la terre, c’est pas plat,
17:54: a priori, mais sur internet,
17:56: on trouve que la terre est plate,
17:58: des fois. Donc, du coup,
18:00: Chagipiti, si vous insistez vraiment, il va vous dire
18:02: que la terre est plate, parce qu’il va vous
18:04: rendre les données qui sont sur internet.
18:06: Et donc,
18:08: les données sont biaisées, les données sont fausses.
18:10: Et malheureusement,
18:12: ça donne des systèmes de temps en temps qui…
18:14: où ça va se voir.
18:16: D’accord ? Enfin, ça va se voir tout le temps, et ça se voit
18:18: de plus en plus justement avec Chagipiti, parce que comme tout le monde
18:20: utilise n’importe comment,
18:22: effectivement, on peut faire des grosses, on peut dire
18:24: des grosses bêtises. Mais je vais vous prendre un exemple
18:26: de 2016 aussi, qui est un exemple
18:28: d’un chatbot, déjà,
18:30: c’était pas de Chagipiti, mais c’est un chatbot de Microsoft
18:32: aussi qui s’appelait Tai.
18:34: Tai, il est sorti
18:36: en 2016,
18:38: et
18:40: c’était un chatbot
18:42: qui était censé, sur Twitter,
18:44: interagir avec les gens
18:46: pour promouvoir les produits Microsoft,
18:48: donc l’idée était très bonne, certainement.
18:50: Donc, ils ont mis
18:52: des mois à développer le machin.
18:54: Mais ils ont été élusés de débrancher au bout de 16 heures d’opération.
18:58: Parce qu’au bout de 16 heures d’opération,
19:00: Tai était devenu le plus raciste et sexiste
19:02: de chatbot, de l’humanité.
19:04: Bon, il y en avait pas beaucoup à l’époque, mais
19:06: c’était quand même assez grave, donc
19:08: ils l’ont débranché. Alors évidemment,
19:10: ils voulaient pas le débrancher, évidemment, ils avaient pas fait tout ce travail
19:12: pour rien, enfin, il y avait quelque chose qui allait pas,
19:14: donc les scientifiques se sont penchés
19:16: sur le problème, ils se sont demandés pourquoi,
19:18: qu’est-ce qui s’est passé ? Ça n’a strictement aucun sens.
19:20: On va pas créer ces trucs
19:22: pour juste les débrancher juste après.
19:24: Et donc, il y a deux bugs qui ont été
19:26: identifiés. Le premier bug, on va appeler un bug
19:28: de logique, donc il n’y a rien à voir avec l’intelligence
19:30: artificielle, mais qui m’amuse, donc je vais vous le dire.
19:32: Le premier bug, quand on crée un système d’interaction
19:34: comme ça, on a un petit
19:36: slider, un petit
19:38: potentiomètre, je sais pas comment vous le dites,
19:40: qui va
19:42: regarder
19:44: comment on va s’adapter, c’est un slider
19:46: d’adaptabilité au public
19:48: auquel on s’adresse. Donc là,
19:50: le slider était un peu trop haut, c’est-à-dire qu’il s’est
19:52: adapté au public auquel il s’adressait,
19:54: et le public ici c’était Twitter,
19:56: donc comme vous savez certainement, sur Twitter, au bout de deux
19:58: trois interactions, on s’insulte. Donc là,
20:00: le truc, au bout de deux trois interactions,
20:02: il insultait les gens.
20:04: Alors ça, la bonne nouvelle, c’est que c’est assez facile
20:06: à fixer le machin, vous
20:08: descendez slider, vous récupérez
20:10: la façon dont vous interagissez avec les gens
20:12: et vous contrôlez le dialogue globalement, et donc, ce
20:14: problème disparaît. Fastoche.
20:16: L’autre bug était beaucoup plus insidieux,
20:18: beaucoup plus compliqué, c’est un bug
20:20: de data justement. Donc ça
20:22: veut dire quoi un bug de data ? C’est-à-dire que les data étaient
20:24: mauvaises.
20:26: Alors, quand on fait un système d’interaction,
20:28: il faut donc trouver des dialogues,
20:30: c’est des dialogues, il faut trouver des dialogues.
20:32: Les dialogues, on ne les trouve pas sur internet
20:34: comme on trouve des chats.
20:36: Donc il faut aller les chercher ailleurs, il y a des systèmes,
20:38: il y a en fait des bases de données, de dialogues,
20:40: il y en a une qui s’appelle Switchboard, qui est très connue,
20:42: qui est une énorme base de données avec des millions et des millions
20:44: de conversations, des conversations qui sont
20:46: enregistrées, qui sont
20:48: retranscrites,
20:50: et qui sont
20:52: annotées. Donc on dit, le gars, là,
20:54: il a téléphoné pour sa machine à laver, il était pas
20:56: content, etc. Donc c’est une énorme base
20:58: de données qui est magnifique pour les gens
21:00: qui font des systèmes d’interaction, et donc
21:02: qui permettent de comprendre
21:04: un peu les structures des dialogues.
21:06: Donc,
21:08: moi, j’imagine le gars, là, chez
21:10: Microsoft, on lui dit, bah,
21:12: il faut que tu fasses le système, là,
21:14: tu te débrouilles, tu prends
21:16: un Switchboard et tu nous fais
21:18: le système. Et le gars, il dit,
21:20: bah, ok, d’accord, il y a des millions de conversations,
21:22: je vais pas,
21:24: je vais pas pouvoir tout prendre, je vais prendre
21:26: un sous-ensemble, j’ai besoin que quelques dizaines de milliers
21:28: de trucs pour créer mon modèle.
21:30: Allez, je vais prendre le début
21:32: de la base,
21:34: Alabama, année 50.
21:38: Bah ouais.
21:40: Donc, bah, Alabama, année 50,
21:42: vous imaginez, enfin, ceux qui ont fait
21:44: Arara, que c’était un peu
21:46: biaisé. Je pense que les Blacks,
21:48: ils étaient dans une situation un peu délicate,
21:50: un peu plus délicate qu’aujourd’hui, peut-être.
21:52: Et donc, du coup,
21:54: bah, la base de données
21:56: étant biaisée, le modèle était
21:58: biaisé, et il a fallu une petite
22:00: étincelle pour qu’elle devienne complètement
22:02: raciste et qu’elle
22:04: détruise, en fait, les Noirs dans les
22:06: interactions
22:08: de dialogue. Donc,
22:10: il faut faire super attention. Alors, je n’ai pas forcément
22:12: la solution, mais
22:14: vous allez me dire, bah, c’est fastoche, il suffit
22:16: de regarder bien toutes les données, et
22:18: puis d’enlever les trucs qui sont un peu limites.
22:20: Il y a eu le problème avec ça.
22:22: Le premier problème, c’est que bon,
22:24: quand on a 100 000 images de chats, on peut peut-être
22:26: trouver deux, trois images de chiens et les enlever.
22:28: Très bien. Fastoche, ça.
22:30: Mais quand on a 175 milliards
22:32: de morceaux de données, ça commence
22:34: à être un peu plus délicat d’aller chercher les machins qui vont pas.
22:36: Parce qu’il y en a beaucoup.
22:38: Et l’autre truc, c’est
22:40: quand je vais commencer à balancer les
22:42: data, à dire, voilà, je vais choisir les
22:44: data. Ce que je viens de dire ici,
22:46: choisir les data, ça veut dire que quelque part,
22:48: je rentre mon propre biais.
22:50: Et quand je rentre mon propre biais, qui dit
22:52: qu’éthiquement, c’est moi qui ai raison ?
22:54: Je sais pas. D’accord ? Donc, c’est un problème
22:56: excessivement délicat. Dès qu’on commence à faire des statistiques,
22:58: il y a
23:00: des choses qui sont
23:02: certainement fausses. Et moi, ce que je veux dire, c’est que
23:04: toutes les bases de données sont fausses. Et donc,
23:06: ces systèmes, il faut douter.
23:08: Mais bon, ça, j’espère que
23:10: cette population ici,
23:12: on est persuadé.
23:14: Bref, ça, c’était mon ami Chatbot
23:16: tout sur Twitter,
23:18: qui a vécu 16 heures.
23:20: Tiens, un autre truc
23:22: qu’on dit souvent, on dit, bah, d’assom, oui,
23:24: il faut douter, il faut faire attention.
23:26: Ces intelligences artificielles
23:28: sont
23:30: des boîtes noires. D’accord ?
23:32: C’est trop compliqué. C’est trop compliqué.
23:34: On ne peut pas comprendre ce que ça fait.
23:36: Et donc, c’est des boîtes noires.
23:38: Il ne faut pas leur faire confiance.
23:40: Alors moi, je vais modérer un tout petit peu.
23:42: Je vais modérer. Je ne sais pas si on dit ça.
23:44: Je vais pas dire exactement ça.
23:46: Je vais vous dire que,
23:48: bah oui, il faut douter ça.
23:50: Je vais vous le répéter tout le temps.
23:52: Mais par contre,
23:54: de tout un temps, on peut faire confiance à ces boîtes noires.
23:56: Parce que ce n’est pas des boîtes noires,
23:58: en fait. C’est des boîtes transparentes,
24:00: si on prend le temps de les expliquer.
24:02: Il n’y a pas d’inexplicabilité en IA.
24:04: Souvent, on dit comme c’est inexplicable,
24:06: blablabla.
24:08: Comme toutes les sciences nouvelles,
24:10: comme tous les trucs nouveaux qui arrivent,
24:12: c’est compliqué.
24:14: Ça a l’air compliqué. Mais des fois,
24:16: il suffit de quelques petites choses
24:18: pour expliquer correctement et pour que
24:20: tout le monde comprenne.
24:22: Pour ça, je vais vous raconter une histoire
24:24: familiale. Je parlais tout à l’heure de ce bras de Gaston Julien,
24:26: qui n’est pas mon grand-père d’ailleurs,
24:28: mais qui est un grand-oncle. Mais ce n’est pas trop grave.
24:30: Et donc ce bras de Gaston, il a effectivement inventé
24:32: les fractales. Il a découvert
24:34: une équation particulière
24:36: qu’on a appelée les fractales,
24:38: qui est un logarithme.
24:40: Il a fait ça en 1915.
24:42: 1914 exactement. Le papier est publié
24:44: en 1915. La communauté mathématique
24:46: regarde cette équation
24:48: et est absolument
24:50: superbement surprise par le machin.
24:52: C’est super. Mais c’est une équation
24:54: mathématique pour le commun et mortel,
24:56: complètement incompréhensible.
24:58: C’est un log, machin, blabla, on ne comprend que dalle.
25:00: C’est une boîte noire
25:02: pour la plupart des gens,
25:04: mais c’est une boîte transparente pour
25:06: Julien lui-même qui a inventé le truc,
25:08: a découvert le truc, donc il est capable
25:10: d’expliquer ce que c’est.
25:12: Il est capable d’expliquer à ses collègues qui eux comprennent,
25:14: et les mathématiciens comprennent,
25:16: mais c’est vrai que la plupart des gens comprennent pas
25:18: forcément la mathématique qui est derrière
25:20: cette équation.
25:22: 1955, Julien est prof à Polytechnique,
25:24: 40 ans plus tard. Et il a
25:26: comme élève un garçon qui s’appelle Benoit Mandelbrot.
25:28: Benoit Mandelbrot
25:30: part aux Etats-Unis,
25:32: chez IBM. Il a un des
25:34: premiers ordinateurs à sa disposition.
25:36: Il rentre l’équation Julia dans l’ordinateur.
25:38: Il en profite pour l’appeler
25:40: l’équation de Mandelbrot, on va pas se gêner.
25:42: Et donc
25:44: apparaît à l’écran, quand il
25:46: l’affiche, cette équation, apparaît
25:48: à l’écran, cette magnifique fougère, pour ceux
25:50: qui savaient ce que c’était qu’une
25:52: fractale,
25:54: cette magnifique fougère, qui quand on la regarde,
25:56: on voit qu’à chaque niveau de la
25:58: fougère, c’est la même fougère, et la même fougère,
26:00: et la même fougère. Et donc
26:02: cette propriété exceptionnelle,
26:04: quand on est fractale, c’est la
26:06: recursivité. Et la recursivité
26:08: devient complètement en transparence
26:10: pour n’importe qui. N’importe qui est capable
26:12: de comprendre juste en regardant l’image.
26:14: Et donc la boîte
26:16: noire est devenue une boîte transparente,
26:18: grâce à cette image.
26:20: Pour ceux qui n’ont toujours pas compris,
26:22: la recursivité, c’est comme la vache
26:24: qui rit là.
26:26: C’est pas grave.
26:28: Allez,
26:30: tant que je suis dans les trucs qui m’énervent là,
26:32: je vais vous parler de la voiture autonome.
26:34: D’accord, alors la voiture autonome,
26:36: Elon Musk.
26:38: Allez.
26:40: 2015, Elon Musk
26:42: nous dit, la voiture autonome, c’est pour
26:44: demain. Super.
26:46: 2018, la voiture autonome,
26:48: c’est pour demain.
26:50: 2021, voiture autonome,
26:52: c’est pour demain.
26:54: 2023, voiture autonome, c’est pour demain.
26:56: Elon Musk raconte n’importe quoi,
26:58: je pense que vous le savez à maintenant.
27:00: Quand il parle de voiture autonome, et quand je parle de voiture autonome,
27:02: on parle de voiture autonome niveau 5.
27:04: D’accord ? Donc le niveau
27:06: ultime de l’autonomie.
27:08: Il y a évidemment
27:10: 0, 1, 2, 3, 4 avant.
27:12: Aujourd’hui, on est à peu près
27:14: à 2,5. Les Tesla sont à
27:16: 2,5. Il y a certains
27:18: qui déclarent qu’ils sont presque à 3. Donc je pense qu’on est presque à 3,
27:20: effectivement.
27:22: Mais on est loin de 4, on est très très loin de 5.
27:24: On est d’autant plus loin de 5, qu’aujourd’hui,
27:26: je vous annonce officiellement que 5 n’existera jamais.
27:28: Il n’existera jamais
27:30: comme dans Ja et Mais, en fait.
27:32: Jamais.
27:34: Mais je vais vous le prouver, je ne vais pas juste vous le dire,
27:36: je vais vous le prouver. Et donc, du coup,
27:38: ces voitures autonome,
27:40: quand elles seront
27:42: au niveau 4, elles vont nous permettre
27:44: d’être beaucoup plus
27:46: sûres dans les voitures et ça va être absolument extraordinaire.
27:48: Et on y arrivera. D’accord ? Donc on va arriver
27:50: au niveau 4. Mais on ne peut pas dire
27:52: qu’on aura un jour
27:54: la full autonomie. Et pour ça, je vais vous donner
27:56: deux exemples. Un exemple qui est pour les Français
28:00: qui s’appelle
28:02: la Place de l’Étoile à 18 heures.
28:06: Place de l’Étoile à 18 heures, vous collez les voitures autonome
28:08: sur une des avenues là, qui est là.
28:10: La voiture autonome,
28:12: elle va être comme ça.
28:16: Parce que la voiture autonome,
28:18: elle a une propriété extraordinaire,
28:20: elle respecte le code de la route.
28:24: Ce que vous, quand vous êtes sur la Place de l’Étoile,
28:26: vous ne faites pas. Vous avez
28:28: un truc en plus
28:30: qui s’appelle le pouvoir de négociation
28:34: ou le pouvoir de négociation.
28:38: Et donc,
28:40: ça c’est un peu compliqué à expliquer
28:42: aux voitures, à expliquer
28:44: aux systèmes autonomes. Donc,
28:46: ça c’était pour les Français.
28:48: La version officielle pour les Américains et les autres,
28:50: c’est une voiture
28:52: qui roule dans les rues de Mountain View.
28:54: Mountain View, c’est là où il y a Google.
28:56: Et donc, ces vidéos ont été d’ailleurs
28:58: données par une compagnie qui s’appelle Wemo,
29:00: qui est une compagnie de Google, qui travaille depuis 10 ans sur l’autonomie.
29:02: Et le CIO a dit,
29:04: j’en ai marre d’entendre ce que j’entends,
29:06: je vais faire don de toutes mes data
29:08: que j’ai depuis 10 ans. Je donne 10 millions
29:10: de miles de vidéos
29:12: de routes qui ont été prises en vidéo
29:14: pour pouvoir apprendre,
29:16: faire apprendre au système.
29:18: Et donc, il a donné ça
29:20: et dans des gens comme moi, ils allaient voir les vidéos, évidemment.
29:22: Et il m’a fallu à peu près
29:24: une heure pour trouver une pépite,
29:26: et puis après j’en ai trouvé plein. Ce que j’appelle une pépite,
29:28: c’est un truc qui dit que j’ai raison.
29:30: Et donc, cette pépite là, on voit une voiture
29:32: qui roule dans les rues de Mountain View. Mountain View,
29:34: c’est chiant comme la mort, il ne se passe rien.
29:36: Et là d’un coup, au milieu de rien, la voiture
29:38: s’arrête. Elle attend 2-3 secondes,
29:40: la voiture fait 2-3 mètres et s’arrête.
29:42: 2-3 secondes, la voiture fait 2-3 mètres et s’arrête.
29:44: 2-3 secondes, la voiture fait 2-3 mètres et s’arrête.
29:46: Elle fait ça 5-6 fois, et là on voit
29:48: sur la caméra, parce qu’on voit les mains sur le volant,
29:50: on voit que le safety driver, il y a toujours quelqu’un
29:52: qui est dans la voiture, prend la voiture
29:54: et puis démarre et s’en va.
29:56: Parce que derrière, le mec, comment ça
29:58: s’énerver, il dit, mais qu’est-ce qu’il fout le gars à s’arrêter
30:00: tous les 2-3 mètres ? Ça n’a aucun sens.
30:02: Ça n’a aucun sens jusqu’à ce qu’on regarde la vidéo
30:04: Un peu plus près, on voit 2 gars qui marchent sur le trottoir.
30:06: 2 gars qui marchent sur le trottoir.
30:08: Le gars qui est le plus près, dans la même direction
30:10: de la voiture, le gars qui est le plus près
30:12: de la route, donc qui marche aussi dans la même
30:14: direction comme ça avec son pote, mais lui,
30:16: sur son épaule, il a un panneau stop.
30:22: Alors vous, tous là, vous voyez
30:24: un connard sur le bord de la route,
30:26: avec un panneau stop sur l’épaule qui marche dans la direction
30:28: de la voiture, vous, vous
30:30: vous n’arrêtez pas. Parce que vous, vous avez
30:32: vu, il y a un connard sur le bord de la route qui marche
30:34: avec un panneau stop.
30:36: La voiture autonome, elle voit un
30:38: panneau stop, et puis elle
30:40: voit un panneau stop, et puis elle
30:42: voit un panneau stop.
30:44: Ça n’existe pas ce cas.
30:46: Ça n’existe pas. C’est pas possible.
30:48: C’est un truc qu’on a jamais vu. On n’a même pas imaginé.
30:50: D’accord ?
30:52: Bah nous, quand on voit un truc comme ça,
30:54: nous, humains, on voit un truc comme ça.
30:56: On fait un truc extraordinaire.
30:58: Que les IA sont incapables de faire.
31:00: On invente.
31:02: On s’adapte. On crée.
31:04: D’accord ?
31:06: Quand on vous parle des IA génératives aujourd’hui,
31:08: les IA génératives, les Tchadjipiti,
31:10: les machins et tout ça, il y a une chose
31:12: qui est bien dans ces choses là,
31:14: c’est qu’on ne s’est pas trompé de nom.
31:16: On n’a pas appelé ça IA créative.
31:18: On a bien appelé ça IA générative.
31:20: Ça génère des trucs qui arrivent de
31:22: 675 milliards de données, d’accord ?
31:24: Mais ça ne crée rien.
31:26: C’est vous qui avez le pouvoir de création, c’est vous qui le gardez.
31:28: C’est vous qui avez la possibilité
31:30: de créer à travers le prompt.
31:32: C’est-à-dire que c’est vous qui allez dire à la machine
31:34: « dessine-moi une vache verte
31:36: sur la Tour Eiffel ».
31:38: La créativité, elle est là.
31:40: Et dans l’image mentale que vous avez de la vache verte
31:42: sur la Tour Eiffel. Oui, ça va vous générer plein de vaches vertes
31:44: sur la Tour Eiffel, mais c’est vous qui avez l’idée.
31:46: C’est toujours vous qui avez la main.
31:48: Et d’ailleurs, en parlant de main, je passais vite fait
31:50: sur le fait que j’appelle ça
31:52: l’intelligence en montée IA,
31:54: au lieu d’appeler ça intelligence artificielle,
31:56: parce que ces outils, ils nous augmentent, nous.
31:58: Ils augmentent notre intelligence.
32:00: Ces outils, on s’en sert comme tous les outils
32:02: de la boîte outil dont je parlais tout à l’heure.
32:04: Et j’adore comparer une intelligence artificielle
32:06: avec un marteau, parce que c’est exactement la même chose.
32:08: Un marteau, ça va planter un clou
32:10: bien mieux que mon poing.
32:12: Donc c’est hyper utile, c’est hyper puissant.
32:14: Le marteau, si j’utilise la bonne science, c’est super.
32:16: Je peux l’utiliser à mauvaises échéances
32:18: pour taper sur la tête du monsieur.
32:20: Et ça,
32:22: on a décidé collectivement que c’était pas bien.
32:24: Et on l’a décidé collectivement.
32:26: On a dit que c’est pas bien de taper sur la tête du monsieur.
32:28: Parce qu’à la fin,
32:30: celui qui tient le manche du marteau,
32:32: c’est moi.
32:34: C’est moi qui décide.
32:36: C’est nous qui décidons.
32:38: Les IA, c’est exactement la même chose.
32:40: C’est nous qui tenons le manche du marteau.
32:42: C’est nous qui décidons de comment on l’utilise.
32:44: Et c’est nous qui décidons de réguler ou pas.
32:46: On va dire que c’est hors la loi de taper sur la tête du monsieur
32:48: avec le marteau.
32:50: Des fois, il y en a qui vont le faire. Et non, il y en a qui vont le faire.
32:52: Mais on décide collectivement que c’est pas bien.
32:54: Et après, on agit comme on peut.
32:56: Mais ces outils sont excessivement puissants.
32:58: Ils sont très très puissants.
33:00: Comme le marteau, il est très très puissant.
33:02: Allez, je sais combien.
33:04: Trois minutes ? Une minute ? Deux minutes ?
33:06: Allez.
33:08: Je vais vous faire un truc extraordinaire.
33:10: Vous allez sortir de là, vous allez être illuminés.
33:12: Je sais pas si on dit ça.
33:14: Je vais vous faire une
33:16: démonstration de ce que c’est que l’intelligence.
33:18: Parce que j’ai parlé beaucoup d’intelligence.
33:20: Je vais vous montrer l’intelligence humaine.
33:22: En mathématiques.
33:24: C’est peut-être pas votre tasse de thé, mais vous allez voir,
33:26: c’est pas très compliqué. En fait, je vais projeter en deux
33:28: dimensions les intelligences.
33:30: Il y a plein de gens, il y a les philosophes, il y a les psychologues.
33:32: Il y a plein de gens qui définissent l’intelligence.
33:34: Moi, je vais vous le définir mathématiquement.
33:36: Et vous allez tout comprendre. Et vous allez comprendre pourquoi
33:38: l’intelligence artificielle n’a strictement rien à voir
33:40: avec l’intelligence humaine.
33:42: L’intelligence humaine, je vais la projeter sur ce graph en deux
33:44: dimensions.
33:46: En ordonnées, vous avez le niveau d’intelligence,
33:48: déyalé bas pour Donald Trump,
33:50: jusqu’à 100, un génie.
33:52: Ok, très bien.
33:54: Et en principio各 development hé Oxi-道, ici, on va avoir
33:56: les domaines d’intelligence. Tous.
33:58: Il y a n’importe quoi. Donc on projette друзья tout ça
34:00: dans toutes les dimensions qu’il y a.
34:02: On projette ça sur cette dimension.
34:04: Voilà, ça c’est moi.
34:06: Intéressé.
34:08:ات�들,ismus, Beauty same, suis-je-même, un peu plus en
34:16: intelligence humaine.
34:18: Continue, mathématiquement parlant, continue.
34:20: Et, infini.
34:22: On voit un connard sur le bord de la route avec un panneau stop,
34:24: on est capable de s’adapter.
34:26: On a la vrôte.
34:28: Continue, infini, intelligence humaine.
34:30: Intelligence artificielle.
34:32: Les échecs, c’est pas mal, ça marche.
34:34: Si vous jouez aux échecs avec une machine
34:36: et que vous gagnez, c’est que vous l’avez mis au niveau 2.
34:38: Vous n’avez exactement aucune chance.
34:40: Échec, c’est un génie.
34:42: Go, c’est plus qu’un génie, parce qu’il y a tellement de coupes
34:44: possibles et inimaginables qu’ils dépassent l’humanité.
34:46: Bref, on va pas rentrer dans l’infini, on s’en fout.
34:48: La voiture autonome.
34:50: Niveau 4.
34:52: Bien mieux que nous.
34:54: Là, j’ai dessiné mon fils, là.
34:56: Il boit un petit coup, il joue un peu sur son téléphone pendant qu’il conduit.
34:58: Pas bon.
35:00: La voiture sera meilleure que nous.
35:02: Mais, des fois, il faudrait l’aider.
35:04: Ça, on va en prendre à plus tard.
35:06: N’importe quoi, n’importe quelle domaine,
35:08: on va en prendre à plus tard.
35:10: Et, on va en prendre à plus tard.
35:12: N’importe quoi, n’importe quel domaine,
35:14: n’importe quel truc que vous pouvez imaginer,
35:16: des trucs en médecine, des trucs en ressources humaines,
35:18: des trucs en n’importe quoi,
35:20: on peut avoir un outil, si on a envie,
35:22: qui sera meilleur que nous
35:24: dans ce domaine particulier.
35:26: Des fois, on peut décider de ne pas utiliser l’outil,
35:28: parce qu’il n’est pas utile, et en ce moment, c’est pas un outil.
35:30: Mais, voilà. Ça, c’est les intelligences artificielles.
35:32: C’est quoi, en mathématiques, ce que je viens de faire, là ?
35:34: Ce sont des lignes discrètes, on dit.
35:36: Allez, la question qui tue.
35:38: Combien de lignes discrètes nous faut-il
35:40: pour atteindre la continuité ?
35:42: L’infini.
35:44: Voilà. L’infini, c’est compliqué.
35:46: C’est beaucoup.
35:48: Et donc, du coup, il faudrait avoir,
35:50: pour pouvoir matcher l’intelligence humaine,
35:52: il faudrait avoir une infinité d’intelligence artificielle.
35:54: Et ça, c’est pas possible, parce que c’est beaucoup.
35:56: Allez, un petit truc vite fait, là,
35:58: on finit là-dessus. Là, on dit, des fois,
36:00: bah ouais, mais en fait, il y a des trucs
36:02: qui se ressemblent, il y a des trucs qui sont contiguous, là.
36:04: Donc, on peut faire du transfert learning
36:06: entre deux domaines, et donc, par capillarité,
36:08: on pourrait imaginer qu’on va pouvoir couvrir
36:10: tout le spectre de l’intelligence humaine.
36:12: C’est pas une mauvaise idée,
36:14: de faire de ça, que ça permet de pas avoir
36:16: à refaire des bases de 2D et tout ça,
36:18: c’est pas une mauvaise idée. Le problème, c’est que
36:20: qu’est-ce qu’il y a entre deux lignes contiguous ?
36:24: Ah, purée, encore ce truc-là.
36:26: L’infini. L’infini, c’est compliqué,
36:28: encore une fois. Bon, bref.
36:30: Donc, du coup, c’est pas possible. Allez, puis, tiens,
36:32: le truc qu’on a inventé tout à l’heure, là, vite fait,
36:34: elle est où, l’intelligence artificielle ?
36:36: L’intelligence artificielle, si on l’a inventé tout de suite,
36:38: l’intelligence artificielle, elle est nulle part.
36:40: Parce qu’elle n’a pas le temps d’avoir les données,
36:42: elle a pas le temps d’avoir les règles, donc elle n’a pas le temps
36:44: de la faire encore. L’intelligence artificielle
36:46: est toujours derrière nous, c’est nous qui décidons,
36:48: c’est nous qui avons le manche. Merci.
36:50: On a un peu perdu, hein, parce que
36:52: on a…
36:54: Bon, on s’informe sur Twitter
36:56: beaucoup pour l’IA.
36:58: Ah, là, bah, ça commence mal.
37:00: On n’a pas le choix.
37:02: C’est, c’est.
37:04: Du coup, ce qu’on essaie de comprendre,
37:06: c’est que d’un côté, on a ceux qui nous disent
37:08: il y a l’émergence, on va augmenter
37:10: les noms de paramètres,
37:12: on va allumer tout ça, ça va faire des chocs à pics.
37:14: Et de l’autre côté, on a ceux qui nous disent
37:16: eh ben, en fait, on a juste modélisé
37:18: le langage, mais c’est pas grave,
37:20: on va rajouter une vision du monde,
37:22: on va rajouter la planification,
37:24: enfin, je pense que vous voyez
37:26: de qui je parle dans les deux cas, et
37:28: il y a sûrement plein de choses entre les deux,
37:30: mais c’est quoi la situation ?
37:32: Ce que je vous ai raconté aujourd’hui,
37:34: c’est que là, on est très, très, très loin
37:36: de l’intelligence humaine, en fait,
37:38: on n’y arrivera jamais, donc rajouter des trucs,
37:40: c’est un peu la capillarité dont je parlais ici,
37:42: donc on pourrait dire, on peut rajouter…
37:44: Déjà, est-ce qu’on a modélisé le langage humain ?
37:46: Je suis pas sûr, donc je suis pas sûr
37:48: qu’on ait encore réussi, mais
37:50: si on parle spécifiquement de ces
37:52: IA génératives qui ont l’air
37:54: de faire des trucs intelligents,
37:56: c’est basé sur la complétion de trous.
37:58: Alors, ça veut dire quoi, ce que
38:00: je suis en train de dire ? Ça veut dire que
38:02: toutes ces IA génératives, elles sont basées
38:04: sur la complétion de ce
38:06: qui a déjà été fait avant.
38:08: Ça veut dire que, par exemple, quand vous
38:10: posez une question comme
38:12: donne-moi la biographie de Marie Curie,
38:14: en fait, la biographie de Marie Curie,
38:16: elle est quelque part,
38:18: et il y a une certaine variabilité
38:20: qui fait que je vais pas toujours aller chercher
38:22: au même endroit, mais je vais aller
38:24: sortir ces données qui sont quelque part,
38:26: parce qu’encore une fois, dans 175 milliards de données,
38:28: et donc, ces machins-là,
38:30: ça va générer, ça va remplir
38:32: les trous qui sont,
38:34: vous, vous, rentrez des machins, et ça va aller
38:36: compléter ce qu’il y a autour.
38:38: C’est ce que font,
38:40: c’est vraiment simplifier la logique
38:42: de ces IA génératives. Donc,
38:44: ça veut dire quoi ? Ça veut dire que quelqu’un
38:46: un jour qui a parlé, qui a dit
38:48: un truc comme ça, on le sait, et donc,
38:50: on va le remettre, on va
38:52: vous le montrer. Et donc, ça a l’air
38:54: d’être humain, parce que
38:56: c’est humain, parce que ça a été déjà dit.
38:58: Mais il y a deux petits problèmes
39:00: dans ces IA génératives.
39:02: Le premier problème, c’est
39:04: qu’elles sont programmées pour vous donner
39:06: une réponse de toute façon. Donc, des fois,
39:08: on ne retrouve pas le truc,
39:10: et donc, si elles ne le trouvent pas,
39:12: elles l’inventent. C’est ce qu’on appelle les hallucinations.
39:14: Et donc, le truc, il va faire,
39:16: il va statistiquement trouver des trucs qui pourraient
39:18: être ça, à peu près, et donc, il va
39:20: vous pondre n’importe quoi, et surtout des références
39:22: en général. Quand vous allez dire,
39:24: « Faites-moi un papier scientifique avec ça », il va vous prendre un tas de références
39:26: de bouquins qui n’ont jamais existé,
39:28: avec des pages qui n’ont jamais existé,
39:30: et donc, ça, c’est
39:32: les trucs qui sont embêtants, parce qu’effectivement,
39:34: là, c’est les hallucinations. Donc, ça,
39:36: c’est le premier problème. — Embêtant si on ne le sait pas, déjà.
39:38: — Pardon ? — C’est encore plus embêtant
39:40: si on ne le parie, quoi. — Ah, bah oui. Bah oui,
39:42: c’est pour ça qu’il faut s’éduquer, ce truc-là, pour
39:44: comprendre qu’il y a ces hallucinations qui sont possibles.
39:46: Le deuxième problème, c’est le problème dont je parlais tout à l’heure,
39:48: qui est le problème des trucs
39:50: faux. Parce que dans les 115 milliards
39:52: de trucs, il y a des trucs faux, d’accord ?
39:54: Et donc, du coup, si vous lui dites,
39:56: « Écris-moi un
39:58: papier sur le fait que
40:00: la Terre est plate », il va vous écrire un papier
40:02: qui est parfait, qui existe déjà, d’ailleurs. Il va
40:04: vous pondre le machin, il va faire donc…
40:06: En plus de ça, il va prendre l’IP quelqu’un,
40:08: il va copier, hein, donc, c’est copyright-wise,
40:10: c’est pas terrible, et donc, ça va vous pondre
40:12: un papier. Donc, il peut vous pondre des trucs
40:14: faux, et il peut vous pondre des trucs
40:16: inventés.
40:18: Et le vrai chiffre qu’il faut donner,
40:20: enfin, la chose qu’il faut dire ici, c’est
40:22: quelle est la pertinence de Tchadjipiti ?
40:24: Dans les médias, nulle part, on vous dit
40:26: quelle est la pertinence de Tchadjipiti ?
40:28: Bah, parce qu’il faut un petit peu de temps
40:30: pour faire l’étude,
40:32: et cette étude, elle a été faite
40:34: trois mois plus tard, donc, c’est sorti
40:36: en novembre 2022 Tchadjipiti,
40:38: en février 2023,
40:40: il y a l’Université de Hong Kong qui a sorti un papier
40:42: qui est sur la pertinence de
40:44: Tchadjipiti, sur 24 bases
40:46: de faits, 24 bases de faits de millions de faits,
40:48: de faits vrais,
40:50: parce que ça veut dire, mais bon, c’est comme ça,
40:52: et donc, sur des millions et des millions de faits, à la fin
40:54: du papier de 24 pages,
40:56: il y a le chiffre de 64 %.
40:58: C’est pertinent
41:00: à 64 %. C’est bien, c’est pas bien,
41:02: vous décidez, mais il faut le savoir.
41:04: Donc, 64 %,
41:06: ça veut dire qu’il y a 36 % de merde.
41:08: — Ouais. Mais ça,
41:10: ça peut quand même servir à quelque chose, ça peut aider
41:12: si on est au courant. Vous l’utilisez au quotidien ?
41:14: — Évidemment que j’utilise. — Au quotidien.
41:16: — Je l’utilise tous les jours, oui, évidemment. — Tchadjipiti.
41:18: — Tchadjipiti, mid-journée, tous les machins. Moi, je suis nul en dessin.
41:20: Mid-journée, ils m’aident beaucoup.
41:22: Super, la vache verte sur la Tour Eiffel,
41:24: c’est moi qui l’ai faite.
41:26: Et donc,
41:28: évidemment qu’il faut l’utiliser, l’outil,
41:30: évidemment qu’il faut pas faire ce qu’a fait Sciences Po,
41:32: interdire l’outil.
41:34: — Je voulais pas les nommer, mais j’ai vraiment… — Mais évidemment qu’il faut pas faire ça.
41:36: Parce que c’est une bêtise
41:38: inconstable. C’est exactement si, en 1842,
41:40: vous aviez
41:42: interdit l’Orcyclopédie Universalis.
41:44: C’est la même chose. Il faut juste
41:46: comprendre l’outil et l’utiliser à bonne émission.
41:48: Il faut en fait enseigner l’outil.
41:50: Il faut en fait
41:52: expliquer… — Il faut déjà le comprendre
41:54: soi-même. — Oui, mais il faut comprendre.
41:56: — C’est pour ça qu’on est là aussi.
41:58: — Oui, on est là pour ça.
42:00: Justement, il y a un exercice qui est super à faire
42:02: pour les enseignants en général, et pour comprendre comment on va
42:04: enseigner l’outil.
42:06: Le truc à faire, là, c’est de dire
42:08: les gars, là, les élèves,
42:10: vous leur dites, ben, on va écrire un papier
42:12: avec Tchadjipiti.
42:14: Donc on va donner un prompt,
42:16: on va dire, « Écris-moi un papier sur
42:18: Premier Homme sur la Lune »,
42:20: punque, d’accord ? Le machin va
42:22: générer le papier, on lui demande un papier de 5 pages,
42:24: d’accord ? Génère le papier de 5 pages
42:26: avec les références et tout ça.
42:28: Et après, nous, enseignants,
42:30: là, on va aller étudier ce papier.
42:32: Parce que ce papier, il est extraordinaire.
42:34: Il y aura au moins une
42:36: ou deux erreurs factuelles, il y aura
42:38: au moins une ou deux hallucinations.
42:40: Et donc c’est en regardant le papier qu’on va dire,
42:42: tiens, regarde, sa hallucination,
42:44: sa erreur, elle en reste pas mal.
42:46: Ce qui est vraiment énorme, enfin, je sais pas si vous avez
42:48: la même expérience, mais moi, j’ai des ados à la maison,
42:50: ils sont bien plus préparés que les adultes
42:52: pour ça. C’est-à-dire que
42:54: ma fille, des fois, elle
42:56: faisait une enreda et je lui dis, mais
42:58: pourquoi tu t’aides pas de jet-gpT ? Je me suis dit,
43:00: c’est l’occasion de lui le montrer. Elle me dit,
43:02: OK, alors elle le fait.
43:04: Et elle demande du rewarding, elle demande
43:06: des idées. J’étais surpris.
43:08: Parce que dans une grande
43:10: université parisienne,
43:12: le directeur de l’université qui
43:14: faisait le mot d’introduction dit,
43:16: bah moi, j’ai tapé mon nom, c’est
43:18: de la merde. Il dit, j’ai tapé avec
43:20: jet-gpT4, c’est encore plus de la merde.
43:22: Et donc on est…
43:24: Est-ce que finalement, la nouvelle
43:26: génération… Bon, je ne connais pas assez, mais
43:28: c’est évident
43:30: qu’il y a de toute façon quelque chose
43:32: à apprendre. Et il y a de toute façon
43:34: quelque chose pour utiliser ces outils.
43:36: Et franchement, il y a deux directions
43:38: pour ces outils dans l’avenir.
43:40: Il y a la première direction, où il y a zéro régulation,
43:42: il ne se passe rien et tout ça. On laisse les outils vivre.
43:44: Et puis du coup, comme ils vont générer de
43:46: plus en plus de caca, ils vont s’alimenter
43:48: avec du caca et ils vont devenir de plus en
43:50: plus non pertinent.
43:52: Et donc ils vont mourir de belles
43:54: mortes. On peut considérer qu’aujourd’hui, on est
43:56: en train de monter ou on est en haut de la curve
43:58: de Gardner. Je ne sais pas.
44:00: Moi, je ne suis pas Elon Musk, je ne donne pas de date.
44:02: Et donc, on va arriver
44:04: en haut de la courbe à un moment de Gardner
44:06: et ça va retomber d’un coup et ça va retomber d’un coup
44:08: pour deux choses, soit parce que c’est plus
44:10: pertinent du tout, d’accord ? Soit
44:12: parce qu’il y a tellement de problèmes avec le copyright
44:14: qu’on va s’apercevoir qu’ils volent un peu
44:16: des trucs, le machin. D’accord ? Donc,
44:18: voilà. Mais en tout cas, ce qui est sûr, c’est que
44:20: il y a ce premier chemin où ça va se nourrir
44:22: de tellement de caca que ça va être complètement
44:24: du caca. Ok ? Bon.
44:26: J’espère que ce ne sera pas la deuxième raison qu’il faudrait qu’on arrête.
44:28: Oui, ça, ça en verra.
44:30: Mais en tout cas, ça, c’est s’il n’y a pas de régulation.
44:32: Deuxième, deuxième
44:34: chemin, il y aura un peu
44:36: de régulation. La vérité, c’est que
44:38: le vrai chemin, ça sera celui du milieu.
44:40: Ça sera le hybride. Mais bon, il y aura de la régulation.
44:42: On va dire tout ce qui est généré par les idées génératives,
44:44: on va les marquer au fer rouge
44:46: d’une manière ou d’une autre. Et donc, on ne va pas les utiliser
44:48: dans les modèles qu’on va créer après. Donc,
44:50: on va utiliser que les faits vrais.
44:52: Encore une fois, avec tous les guillemets qui vont bien. Et donc,
44:54: du coup, ça va devenir de plus en plus pertinent.
44:56: Donc, ça, c’est possible. C’est un chemin possible.
44:58: Par contre, moi, ce que je crois, et c’est pour ça que je crois que c’est le chemin du milieu,
45:00: on va utiliser
45:02: ces idées génératives de plus en plus
45:04: dans des domaines particuliers, comme j’ai fait ici
45:06: les IA aujourd’hui. De toute façon,
45:08: elles sont de plus en plus pertinentes
45:10: dans des domaines particuliers. Mais une IA
45:12: générale, ce qu’on appelle les GIs,
45:14: Artificial General Intelligence, qui va
45:16: couvrir n’importe quoi, n’importe quel domaine,
45:18: ça, ça va pas être possible.
45:20: On a vu les…
45:22: On voit les effets des réseaux sociaux
45:24: d’un temps plus tard ?
45:26: Donc, IA, est-ce que finalement,
45:28: c’est pas ça le plus gros risque, c’est que
45:30: on se rend pas compte de…
45:32: Parce que vous parlez du marteau, on va réguler le marteau.
45:34: Bon, le marteau,
45:36: ça a donné des maillets, ça a donné des trucs
45:38: pour jouer au polo.
45:40: C’est pas un potentiel de disruption massif.
45:42: Ah bah quand même, ça fait mal, hein.
45:44: Ça peut faire mal.
45:46: Mais IA, c’est plus sur noix.
45:48: Et est-ce qu’on est capable
45:50: de réguler si on voit pas le truc…
45:52: Les réseaux sociaux, on n’en parle que récemment
45:54: des dangers.
45:56: Oui, bah c’est un excellent parallèle.
45:58: On a régulé,
46:00: on a commencé à réguler les réseaux sociaux
46:02: il y a exactement 5 ans,
46:04: c’était avec RGPD,
46:06: mai 2018.
46:08: Et c’était trop tard, mais la régulation est toujours
46:10: de retard sur l’innovation, d’accord ?
46:12: Mais on a commencé à réguler ça
46:14: avec RGPD, donc,
46:16: et les gens ont commencé à comprendre que l’RGPD
46:18: a servi strictement à rien pour les réseaux sociaux
46:20: et même, mais a servi pour éduquer les gens.
46:22: La régulation a parfois une vertu éducative
46:24: et donc ça a permis aux gens de comprendre.
46:26: Ils se sont demandés pourquoi il y a une régulation,
46:28: pourquoi, et ils se sont dit, bah ouais, effectivement,
46:30: se foutre à poil sur Internet, c’est comme se foutre à poil.
46:32: On a plus ou moins, il y en a qui ont compris.
46:34: C’est vrai.
46:36: Et donc, du coup,
46:38: la régulation est importante quand même,
46:40: mais c’est vrai qu’elle arrive un peu en retard. Là, aujourd’hui, il y a
46:42: l’AI Act qui est en train d’être fait à Bruxelles
46:44: pour réguler les IA.
46:46: Ça va prendre un petit peu de temps, surtout qu’il n’y avait pas
46:48: les IA génératifs dans les premiers bouillons, hein.
46:50: Mais la chose essentielle, c’est l’éducation, encore une fois.
46:56: Si on ne s’éduque pas, on ne peut pas réguler.
46:58: Si je ne comprends pas le truc, je ne vais pas réguler.
47:00: Mais il n’y a pas un danger de la régulation
47:02: que l’Europe passe à côté.
47:04: Parce que Jean-Paul Smit,
47:06: j’ai vu une interview sur Smart TV
47:08: où il dit, il y a acte, c’est une catastrophe.
47:10: On ne peut plus faire open source.
47:12: Justement, c’est pour ça qu’il faut que les spécialistes
47:14: maintenant arrivent et expliquent,
47:16: parce que malheureusement, le régulateur
47:18: est parfois pas informé.
47:20: Et il a une vision théorique du machin
47:22: et pas pratique.
47:24: Et donc, il fait des petites bêtises dans la régulation.
47:26: Bon, donc c’est là où les spécialistes,
47:28: c’est là où les gens, quand ils sont éduqués
47:30: et qu’on a des conférences comme aujourd’hui,
47:32: doivent aller demander à leurs représentants
47:36: de faire en sorte qu’on puisse utiliser le machin ou pas.
47:38: C’est là où les élèves de Sciences Po
47:40: doivent aller voir leur directeur en disant,
47:42: écoute, c’est complètement idiot
47:44: de ne pas pouvoir utiliser ça.
47:46: – Et puis, ils le font quand même.
47:48: – Évidemment qu’ils le font.
47:50: C’est pour ça que c’est impossible de toute façon d’interdire.
47:52: Mais il faut que les gens
47:54: s’approprient le machin à un moment donné
47:56: et se disent, ben voilà, je suis éduqué,
47:58: je m’éduque de plus en plus.
48:00: Quand je dis éduqué, je ne dis pas
48:02: qu’il faut que chacun devienne un data scientifique,
48:04: que chacun devienne des gens
48:06: spécialistes en sciences scientifiques.
48:08: Il faut s’éduquer sur les applications
48:10: et quelles sont leurs conséquences.
48:12: Donc, être assez ouvert d’esprit pour pouvoir comprendre ça
48:14: et pour pouvoir après en discuter
48:16: et discuter et disputer.
48:18: – Oui. On peut en parler pendant une heure.
48:20: Je crois que vous avez un agenda serré.
48:22: Et du coup, je propose
48:24: qu’on prenne des questions de la salle s’il y en a.
48:26: Alors, levez la main si vous voulez un micro.
48:28: – Bonjour.
48:30: Béatrice Rousset de l’Université de Lille.
48:32: Tchadjé Pété,
48:34: en fait, le problème, puisqu’il se soulève
48:36: depuis sa parution, est arrivé
48:38: comme si on mettait des voitures
48:40: à disposition de tous citoyens
48:42: sans permis de conduire.
48:44: Et on n’a pas non plus de moniteurs auto-écoles
48:46: qui se sont formés puisqu’ils les découvrent
48:48: en même temps.
48:50: Du coup, on ne peut pas interdire
48:52: parce qu’on mesure tout de suite le potentiel.
48:54: Et en termes d’éducation,
48:56: les jeunes générations en savent beaucoup plus
48:58: que leurs enseignants.
49:00: Du coup, quelles recommandations
49:02: est-ce qu’on doit vraiment le réguler
49:04: ou est-ce que ce n’est pas
49:06: une obligation de changer
49:08: nos pédagogies en même temps que le système ?
49:10: Oui, il faut le réguler.
49:12: Mais pour le réguler, comme j’ai dit,
49:14: il va falloir comprendre.
49:16: Les gens qui régulent, il va falloir
49:18: qu’ils écoutent un peu les gens qui savent.
49:20: Mais il y en a quelques-uns, quand même.
49:22: Mais oui, il faut aussi être agile
49:24: dans les méthodes d’éducation.
49:26: Et donc, pas faire un programme
49:28: qui va être appliqué dans cinq ans,
49:30: mais un programme qui est appliqué il y a dix ans.
49:32: Donc, en gros, ce que je dis,
49:34: c’est qu’il faut être super agile
49:36: et qu’il faut effectivement pas hésiter
49:38: à ce qu’on a et les distribuer
49:40: dans l’immédiat.
49:42: Donc, on est plus dans l’immédiateté.
49:44: Alors, ce n’est peut-être pas formaté comme il faut
49:46: et ça ne suit pas tous les machins qui vont bien
49:48: et ça n’a pas été tamponné au ministère
49:50: par dix-huit personnes.
49:52: Des fois, il faut respirer un peu
49:54: et puis il faut faire ce qu’on pense
49:56: en tant qu’enseignant qui est le meilleur
49:58: pour nos progenitures.
50:00: Bonjour, Anna Samalotova.
50:02: J’ai une question sur tous les outils
50:04: qui émergent, notamment
50:06: le programme de Microsoft
50:08: et d’autres à qui on pourra
50:10: sous-traiter plein de tâches
50:12: chronophages dans nos vies professionnelles.
50:14: Il y a beaucoup de chiffres
50:16: qui circulent sur l’optimisation
50:18: de productivité égale,
50:20: l’optimisation de rentabilité
50:22: et donc toutes les questions
50:24: éthiques, philosophiques que les entreprises doivent se poser.
50:26: Est-ce que vous pensez
50:28: qu’il faut réagir
50:30: très rapidement et revoir
50:32: les organisations et les systèmes
50:34: de métiers,
50:36: les compétences, ou est-ce qu’il faut laisser
50:38: faire de manière organique ?
50:40: Il y a un peu des deux.
50:42: Encore, c’est toujours hybride.
50:44: En l’occurrence,
50:46: on dit beaucoup
50:48: que les IAG vont nous remplacer,
50:50: vont remplacer des métiers.
50:52: Déjà, c’est très compliqué de dire ça.
50:54: Il ne faut pas vraiment dire ça.
50:56: Il faut plus se parler en termes de tâches
50:58: que de métiers. Dans des métiers, il y a plein de tâches.
51:00: Il y a des tâches qui vont être remplacées.
51:02: Les plus répétitives, les moins intéressantes,
51:04: ça va être remplacé par ces outils
51:06: qui sont très puissants pour ça.
51:08: Mais il y a toujours une tâche qui est rajoutée.
51:10: C’est la tâche de l’utilisation de l’outil.
51:14: Parce que si je rajoute ça…
51:16: Et il faut regarder la balance.
51:18: Si l’utilisation de l’outil prend plus de temps
51:20: que ce que je faisais avant sans l’outil,
51:22: l’outil, ça n’a rien.
51:24: Il y a certains métiers dans lesquels
51:26: ces outils ne vont pas être intéressants,
51:28: mais il y a plein de métiers dans lesquels ils vont être intéressants.
51:30: Et c’est le but du jeu.
51:32: On est fondamentalement fainéants.
51:34: On veut essayer de faire en sorte
51:36: que quelques autres fassent le boulot à notre place.
51:40: Mais ce qui est intéressant, c’est que
51:42: dans ces tâches, dans les métiers,
51:44: les tâches qui vont être les plus difficiles à remplacer,
51:46: ces tâches qui sont fondamentalement humaines,
51:48: elles vont être encore plus valorisées.
51:50: Et du coup, ce que je pense,
51:52: et parce que je suis optimiste de base,
51:54: je pense qu’effectivement, il y a beaucoup de tâches
51:56: à l’intérieur des métiers qui vont être remplacées.
51:58: C’est très rare.
52:00: On voit ça depuis la nuit de l’humanité,
52:02: depuis le début de l’humanité.
52:04: Mais il y en a qui vont être remplacées.
52:06: Par exemple, aujourd’hui, je ne sais pas si vous savez
52:08: ce que c’est qu’un charron, mais il y a peu de charron
52:10: depuis 1890.
52:12: Mais c’est comme ça.
52:14: Mais c’est rare.
52:16: Maintenant, quand je parle de tâches qui vont être remplacées,
52:18: je parle aussi de tâches qui vont être glorifiées.
52:20: Et donc, les tâches glorifiées,
52:22: ça va être la substance même de l’humanité.
52:24: Et c’est ce qui est important.
52:26: La substance même de l’humanité
52:28: et qui va faire en sorte que
52:30: en gros, tous, petit à petit,
52:32: on va être encore plus valorisés dans nos métiers
52:34: parce que ce qu’on peut faire,
52:36: c’est ce que peuvent pas faire les machines.
52:38: Trouver que le panneau stop,
52:40: c’est qu’un panneau stop
52:42: sur l’épaule d’un gars.
52:44: Donc, je pense vraiment
52:46: que ça va se passer comme ça.
52:48: Par contre, il faut que les RH,
52:50: les ressources humaines, nous préparent.
52:52: C’est-à-dire qu’il faut anticiper le machin
52:54: un tout petit peu. Donc, on peut le faire un peu à l’arrache
52:56: comme on a dit tout à l’heure, là,
52:58: et puis le faire très très agile.
53:00: Mais c’est pas compliqué non plus,
53:02: surtout dans les entreprises d’aujourd’hui,
53:04: quand on parle de copilote ou d’autres choses comme ça,
53:06: d’anticiper l’arrivée de ces outils.
53:08: Parce que copilote, aujourd’hui, dans les entreprises,
53:10: il faut surtout pas l’utiliser parce que
53:12: ça veut dire qu’on donne tout à Monsieur Open AI aujourd’hui.
53:14: Donc, il faut faire super attention à comment les choses sont faites.
53:16: Mais le jour où ça sera plus sécurisé,
53:18: on pourra l’utiliser.
53:20: Mais d’ici là, on a le temps de comprendre comment ça va être utilisé.
53:22: On a le temps aussi de former les collaborateurs
53:24: à otage d’utilisation de l’outil
53:26: et à d’autres tâches
53:28: qui vont être les tâches spécifiques
53:30: dans lesquelles on va pouvoir les glorifier, justement.
53:32: Est-ce qu’il faut un LLM français ?
53:34: Est-ce qu’il faut un LLM ? LLM, Large Angle Model,
53:36: c’est ce qu’on appelle aussi les IA génératives.
53:38: Donc, oui,
53:40: il faut un LLM européen, il faut des balances.
53:42: On parlait d’open source rapidement tout à l’heure.
53:44: L’open source est important,
53:46: en fait, pour pouvoir
53:48: vérifier les sources,
53:50: d’une part. Donc ça, ce n’est pas une mauvaise idée.
53:52: Mais vérifier, ça veut dire quoi ? On a vu que c’est compliqué,
53:54: parce qu’il y en a beaucoup. Bref.
53:56: Mais avoir des balances
54:00: au niveau du monde,
54:02: avoir des différentes versions, visions du monde,
54:04: ce n’est pas mal non plus.
54:06: Est-ce qu’on a les moyens de le faire ?
54:08: Oui, on a les moyens de le faire. Alors déjà, pour commencer,
54:10: il faut arrêter de se flageller, surtout nous ici en France.
54:12: Il faut se dire qu’on est les meilleurs du monde.
54:14: On ne le dit pas assez, moi je le répète tout le temps.
54:16: Donc on est les meilleurs du monde.
54:18: C’est comme ça. Et ça, c’est prouvé.
54:20: Il y a ce qui s’appelle les médailles Fields qui le montrent.
54:22: On est les meilleurs du monde depuis 300 ans à peu près.
54:24: En cette année ?
54:26: Tout le temps. On est tous le temps dans les meilleurs.
54:28: Et donc, on est les meilleurs.
54:30: Il faut arrêter de se flageller.
54:32: Et la preuve, une des preuves, par exemple, dans la Silicon Valley,
54:34: alors oui, vous allez me dire, ils sont dans la Silicon Valley,
54:36: mais dans la Silicon Valley,
54:38: tous les chefs de l’IA sont français.
54:40: Dans toutes les grosses boîtes que vous pouvez imaginer, Facebook, Google,
54:42: machin, blablabla. OK ?
54:44: Et donc, on est les meilleurs. On n’est pas les meilleurs.
54:46: On est les meilleurs, par contre, en business.
54:48: On pourrait certainement se valoriser plus.
54:50: Mais c’est une des raisons pour les qualités flagelles, d’ailleurs.
54:52: C’est un cercle vicieux.
54:54: Donc il faut apprendre à dire qu’on est bon.
54:56: Et puis il faut apprendre à se vendre un peu mieux.
54:58: Et après, on est OK.
55:00: Est-ce qu’on a les moyens financiers ?
55:02: Les moyens financiers, ils sont si on en a vraiment envie.
55:04: Si on en a vraiment envie, on les a.
55:06: La vérité, c’est qu’aujourd’hui,
55:08: on n’a pas, dans les ventures capitalistes,
55:10: les gens qui donnent des sous aux startups, par exemple,
55:12: on n’a pas de vrais ventures capitalistes.
55:14: Ils sont des capitales risqueurs.
55:16: Donc le risque,
55:18: mais ça, c’est notre…
55:20: C’est nous aussi.
55:22: On n’aime pas le risque.
55:24: Le risque…
55:26: On fait porter par la BPI 20 %.
55:28: Oui, mais la BPI, c’est juste au début.
55:30: C’est super, la BPI.
55:32: Mais au lieu d’un million, il faut passer à 100 millions.
55:34: Et ce risque, nous, en Europe,
55:36: nous, en France en particulier,
55:38: on déteste le risque.
55:40: On déteste l’échec.
55:42: C’est une partie importante du risque.
55:44: Et l’échec doit être glorifié.
55:46: Dans la Silicon Valley, j’habite dans la Silicon Valley,
55:48: le risque est glorifié.
55:50: Et l’échec est glorifié.
55:52: Si on s’est planté, c’est-à-dire que la prochaine fois,
55:54: on ne fera pas la même erreur qu’on a fait quand on s’est planté.
55:56: Et donc ces cicatrices, elles sont importantes.
55:58: Et nous, ici, l’échec,
56:00: on le stigmatise.
56:02: On dit, tu as échoué, tu es nul dehors.
56:04: Merci beaucoup.
56:06: 29. On est bon.
56:08: Merci à vous.
56:12: Sous-titrage ST'501