Guillaume Leboucher coordonne les activités stratégiques en data et en intelligence artificielle de la filiale numérique du groupe La Poste, Docaposte. Parallèlement engagé dans l’éducation, il est fondateur de L’IA pour l’École. Il a répondu à nos questions sur le nouvel équilibre à trouver entre le monde éducatif et de nouveaux outils numériques devenus omniprésents comme les « agents conversationnels ».
L’intelligence artificielle peut être la meilleure chose au monde, le numérique en général, mais l’IA particulièrement. Pour détecter les ouragans, détecter les tremblements de terre, les feux de forêt, les crises climatiques, les famines… L’IA participe aujourd’hui à nourrir 8 milliards de personnes.
Mais l’intelligence artificielle peut aussi être une catastrophe.
Je m’aligne avec l’astrophysicien Stephen Hawkins qui annonçait que « la création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime ». Avec l’IA on a malheureusement créé une économie de l’attention, générée par les BigTech, qui attire l’attention de nos jeunes : ils jouent, se mettent en réseau, regardent TikTok et développent peut-être moins d’attention pour écouter à l’école. ChatGPT prend beaucoup de place aujourd’hui, mais c’est « simplement » un coût marketing extraordinaire de Microsoft et l’entreprise OpenAI sur Google et Facebook. Les Chatbots en général n’ont rien de neuf et sont même en plein développement. L’IA générative, les LML ont des capacités incroyables, on entre dans une ère technologique fascinante, il est temps de le savoir.
Inverser le rapport
Les dangers de l’hyperpersonnalisation sont encore trop méconnus, le numérique propose en effet aujourd’hui d’« invidualiser » l’information, de vous donner au quotidien ce que vous souhaitez, qui que vous soyez… selon vos goûts, selon la façon dont vous aimez vous habiller, ce que vous aimez manger. Le risque de cela est une question d’ordre philosophique : on ne sait pas ce que peut devenir une société à qui un appareil renvoie chaque jour ce dont elle a envie, façon « Miroir mon beau miroir, dis-moi donc qui est la plus belle ? », on n’en mesure pas le danger.
Je pense qu’on est allés trop loin là-dessus à cause du modèle des réseaux sociaux, des BigTech et qu’on ne va pas assez loin sur les sujets essentiels au service du bien commun.Les Machine learning et les algorithmes, mis au service d’une réponse à la crise économique, ou de l’adaptation des parcours routiers et maritimes, seraient une vraie avancée pour l’Homme. Notamment pour imposer des baisses de consommation de CO2, de carburants, etc. Ce serait un outil extraordinaire au service de la planète. Oui, il faut instituer des garde-fous très forts sur l’économie de l’attention et l’individualisation qui sont un business à part entière, représentent des milliards et des milliards.
Je crois qu’il faut inverser le rapport : déplacer l’énergie mise au service de l’individualisation vers le fait de faire travailler les gens ensemble, de réduire la pauvreté dans le monde, œuvrer pour nos bilans carbones, etc.
Du côté de l’éducation
Je suis convaincu que l’intelligence artificielle est un outil prodigieux pour redonner une place à la relation professeurs-élèves. Cela met en résistance et en tension le concept même d’institution, je le dis de l’éducation, je le dis aussi du journalisme.Toutes les formes d’institutions sont ainsi ébranlées par les différentes formes de technologies (médias, politique, religions…).
Le statut du professeur comme « sachant » est remis en cause : comprenons bien que certains professeurs n’ont pas bien intégré depuis 10 ans ce qu’est un élève qui a Wikipédia entre les mains, ce qu’est un élève qui a accès à une connaissance partagée sur toute la planète. Il faut faire jaillir un nouveau rôle de l’enseignant, celui de devenir le premier de la classe en se demandant régulièrement « Que vais-je faire d’autant de technologies au service de l’apprentissage ? ».
« L’intelligence artificielle convoque le « retour » de l’intelligence humaine. »
Aujourd’hui l’apprentissage n’est plus d’apprendre par cœur, c’est davantage de développer son esprit critique. La technologie peut permettre d’apprendre mais on n’a jamais eu autant besoin de philosophes, de journalistes, d’esprit critique. L’intelligence artificielle convoque le « retour » de l’intelligence humaine.
Nous devons comprendre les capacités et limites de la technologie, mais aussi réfléchir à comment faire grandir notre intelligence humaine. Michel Authier, mathématicien, philosophe et sociologue proche de Michel Serres, disait en conclusion des assises de la fondation L’IA pour l’École « Faisons confiance à l’esprit critique des jeunes ».
J’observe avec délectation Stanford concevoir des « barrières » à ChatGPT… De quel droit on priverait les jeunes d’un accès au savoir, d’utiliser des technologies d’aujourd’hui et de demain ? S’ils s’abaissent à faire faire leurs devoirs par un algorithme je suis d’accord que ce n’est pas intelligent, mais le vrai propos est d’ouvrir son intelligence, de savoir être critique. Quand je lis un article de presse le sujet n’est pas que je sois d’accord avec ce qui est écrit, mais que ce qui est écrit m’initie à une liberté plus grande, je crois que c’est pareil avec la technologie.
Le sujet n’est pas de savoir si un élève copie ou non, c’est qu’il soit libre d’apprendre. S’il triche, il en sera sanctionné un jour. Les professeurs doivent plutôt transmettre l’idée que si l’on pense réussir en trichant on n’ira pas loin, dire « oui, ces algorithmes sont des techniques qui peuvent se rapprocher de ce qu’écrit un humain mais l’esprit humain reste au-dessus ». Je ne crois pas que l’intelligence humaine, la créativité, seront bridées par le numérique, au contraire, il fallait être très inventif pour créer ChatGPT.
Ce qui m’intéresse c’est que ces technologies soient bien prises en compte dans l’apprentissage, pas niées ou écartées. L’école devra intégrer ces outils de gré ou de force. Pourquoi les élèves ne veulent pas faire leurs devoirs, pourquoi est-ce contraignant selon eux ? Peut-être que le professeur ne donne pas envie ? Si vous passez deux heures fantastiques aidées par des outils numériques comme avec un parcours de réalité virtuelle sur un thème historique, ce sera différent. Les nouveaux enjeux de l’éducation sont aussi là.
Limites et garde-fous éthiques
Le vrai sujet éthique est la régulation mondiale des usages du numérique, l’alignement des visions canadienne, européenne et américaine, la surveillance des développements israéliens et chinois, pas l’interdiction de ChatGPT. Personnellement, j’aurais souhaité qu’on créé un Collège scientifique, comme pour le Covid-19, pour se donner trois mois avant de tout autoriser. Pour tester en expérimentant avec 300 médias experts de l’IA, des métavers et de l’éducation. C’est ce que je ferais si j’avais un rôle politique. Oui à l’innovation, mais incubée dans un laboratoire, testée et approuvée. Hélas, on créé des commissions partout sans toujours voir leurs effets.
Il serait éthique de discerner l’intention d’une start-up ou d’une méga-puissance comme OpenAI, un logiciel comme ChatGPT, qui comportent des biais énormes sur le racisme, le genre… On est responsables en France et en Europe des domaines internet, on a ainsi freiné l’arrivée de Netflix. C’est toute l’hypocrise qu’il y a sur la question de la liberté d’accès à de la pornographie par exemple : cela prend 5 minutes à interdire.
L’école a le rôle de former à l’esprit critique, pas d’interdire. Pour cela il faut que l’enseignement transmette l’idée que tout savoir est critiquable, qu’il forme chacun à discerner ce qu’est un énoncé stable de ce qui est une philosophie, faire prendre conscience que 80 % du web est du contenu généré par des robots. Le professeur doit retravailler, ré-apprendre sur ces enjeux-là.
« Rien n’est à craindre, tout est à comprendre » disait Marie Curie. Derrière ChatGPT il y a 200 personnes qui ne veulent pas mettre à mal l’humanité, il y a simplement un travail à produire pour « faire avec », rester libre de ses choix. C’est si on ne comprend plus comment sont conçus les outils numérique qu’on rentre dans une addiction potentielle, et dangereuse.
Guillaume Leboucher
PDG d’Openvalue, entrepreneur dans le domaines des technologies, il est membre du ComEx de Docaposte, filiale numérique de La Poste, dont il est responsable du positionnement stratégique et des activités data et IA.
Engagé dans le domaine de l’éducation, Guillaume a fondé en 2017 L’Intelligence artificielle pour l’École, fondation abritée à l’Institut de France et qui a pour objectifs de créer de nouveaux espaces d’échanges entre les acteurs de l’IA et le monde de l’éducation, de permettre des lieux d’innovations, de partage, de développement de l’esprit critique. Il est membre du Conseil d’Administration de UP for Humanness.
Pour accéder gratuitement à la suite de cet article, abonnez-vous à la newsletter de UP
Tous les mois, on vous prépare le meilleur contenu pour vous informer et vous inspirer !
Bravo, votre souscription à la newsletter est validée !
Tous les mois, on vous prépare le meilleur contenu pour vous informer et vous inspirer !
Bravo, votre souscription à la newsletter est validée !
Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.