Inverser le rapport
Les dangers de l’hyperpersonnalisation sont encore trop méconnus, le numérique propose en effet aujourd’hui d’« invidualiser » l’information, de vous donner au quotidien ce que vous souhaitez, qui que vous soyez… selon vos goûts, selon la façon dont vous aimez vous habiller, ce que vous aimez manger. Le risque de cela est une question d’ordre philosophique : on ne sait pas ce que peut devenir une société à qui un appareil renvoie chaque jour ce dont elle a envie, façon « Miroir mon beau miroir, dis-moi donc qui est la plus belle ? », on n’en mesure pas le danger.
Je pense qu’on est allés trop loin là-dessus à cause du modèle des réseaux sociaux, des BigTech et qu’on ne va pas assez loin sur les sujets essentiels au service du bien commun. Les Machine learning et les algorithmes, mis au service d’une réponse à la crise économique, ou de l’adaptation des parcours routiers et maritimes, seraient une vraie avancée pour l’Homme. Notamment pour imposer des baisses de consommation de CO2, de carburants, etc. Ce serait un outil extraordinaire au service de la planète. Oui, il faut instituer des garde-fous très forts sur l’économie de l’attention et l’individualisation qui sont un business à part entière, représentent des milliards et des milliards.
Je crois qu’il faut inverser le rapport : déplacer l’énergie mise au service de l’individualisation vers le fait de faire travailler les gens ensemble, de réduire la pauvreté dans le monde, œuvrer pour nos bilans carbones, etc.
Du côté de l’éducation
Je suis convaincu que l’intelligence artificielle est un outil prodigieux pour redonner une place à la relation professeurs-élèves. Cela met en résistance et en tension le concept même d’institution, je le dis de l’éducation, je le dis aussi du journalisme. Toutes les formes d’institutions sont ainsi ébranlées par les différentes formes de technologies (médias, politique, religions…).
Le statut du professeur comme « sachant » est remis en cause : comprenons bien que certains professeurs n’ont pas bien intégré depuis 10 ans ce qu’est un élève qui a Wikipédia entre les mains, ce qu’est un élève qui a accès à une connaissance partagée sur toute la planète. Il faut faire jaillir un nouveau rôle de l’enseignant, celui de devenir le premier de la classe en se demandant régulièrement « Que vais-je faire d’autant de technologies au service de l’apprentissage ? ».
« L’intelligence artificielle convoque le « retour » de l’intelligence humaine. »
Aujourd’hui l’apprentissage n’est plus d’apprendre par cœur, c’est davantage de développer son esprit critique. La technologie peut permettre d’apprendre mais on n’a jamais eu autant besoin de philosophes, de journalistes, d’esprit critique. L’intelligence artificielle convoque le « retour » de l’intelligence humaine.
Nous devons comprendre les capacités et limites de la technologie, mais aussi réfléchir à comment faire grandir notre intelligence humaine. Michel Authier, mathématicien, philosophe et sociologue proche de Michel Serres, disait en conclusion des assises de la fondation L’IA pour l’École « Faisons confiance à l’esprit critique des jeunes ».
J’observe avec délectation Stanford concevoir des « barrières » à ChatGPT… De quel droit on priverait les jeunes d’un accès au savoir, d’utiliser des technologies d’aujourd’hui et de demain ? S’ils s’abaissent à faire faire leurs devoirs par un algorithme je suis d’accord que ce n’est pas intelligent, mais le vrai propos est d’ouvrir son intelligence, de savoir être critique. Quand je lis un article de presse le sujet n’est pas que je sois d’accord avec ce qui est écrit, mais que ce qui est écrit m’initie à une liberté plus grande, je crois que c’est pareil avec la technologie.
Le sujet n’est pas de savoir si un élève copie ou non, c’est qu’il soit libre d’apprendre. S’il triche, il en sera sanctionné un jour. Les professeurs doivent plutôt transmettre l’idée que si l’on pense réussir en trichant on n’ira pas loin, dire « oui, ces algorithmes sont des techniques qui peuvent se rapprocher de ce qu’écrit un humain mais l’esprit humain reste au-dessus ». Je ne crois pas que l’intelligence humaine, la créativité, seront bridées par le numérique, au contraire, il fallait être très inventif pour créer ChatGPT.
Ce qui m’intéresse c’est que ces technologies soient bien prises en compte dans l’apprentissage, pas niées ou écartées. L’école devra intégrer ces outils de gré ou de force. Pourquoi les élèves ne veulent pas faire leurs devoirs, pourquoi est-ce contraignant selon eux ? Peut-être que le professeur ne donne pas envie ? Si vous passez deux heures fantastiques aidées par des outils numériques comme avec un parcours de réalité virtuelle sur un thème historique, ce sera différent. Les nouveaux enjeux de l’éducation sont aussi là.
Limites et garde-fous éthiques
Le vrai sujet éthique est la régulation mondiale des usages du numérique, l’alignement des visions canadienne, européenne et américaine, la surveillance des développements israéliens et chinois, pas l’interdiction de ChatGPT. Personnellement, j’aurais souhaité qu’on créé un Collège scientifique, comme pour le Covid-19, pour se donner trois mois avant de tout autoriser. Pour tester en expérimentant avec 300 médias experts de l’IA, des métavers et de l’éducation. C’est ce que je ferais si j’avais un rôle politique. Oui à l’innovation, mais incubée dans un laboratoire, testée et approuvée. Hélas, on créé des commissions partout sans toujours voir leurs effets.
Il serait éthique de discerner l’intention d’une start-up ou d’une méga-puissance comme OpenAI, un logiciel comme ChatGPT, qui comportent des biais énormes sur le racisme, le genre… On est responsables en France et en Europe des domaines internet, on a ainsi freiné l’arrivée de Netflix. C’est toute l’hypocrise qu’il y a sur la question de la liberté d’accès à de la pornographie par exemple : cela prend 5 minutes à interdire.
L’école a le rôle de former à l’esprit critique, pas d’interdire. Pour cela il faut que l’enseignement transmette l’idée que tout savoir est critiquable, qu’il forme chacun à discerner ce qu’est un énoncé stable de ce qui est une philosophie, faire prendre conscience que 80 % du web est du contenu généré par des robots. Le professeur doit retravailler, ré-apprendre sur ces enjeux-là.
« Rien n’est à craindre, tout est à comprendre » disait Marie Curie. Derrière ChatGPT il y a 200 personnes qui ne veulent pas mettre à mal l’humanité, il y a simplement un travail à produire pour « faire avec », rester libre de ses choix. C’est si on ne comprend plus comment sont conçus les outils numérique qu’on rentre dans une addiction potentielle, et dangereuse.
Guillaume Leboucher
PDG d’Openvalue, entrepreneur dans le domaines des technologies, il est membre du ComEx de Docaposte, filiale numérique de La Poste, dont il est responsable du positionnement stratégique et des activités data et IA.
Engagé dans le domaine de l’éducation, Guillaume a fondé en 2017 L’Intelligence artificielle pour l’École, fondation abritée à l’Institut de France et qui a pour objectifs de créer de nouveaux espaces d’échanges entre les acteurs de l’IA et le monde de l’éducation, de permettre des lieux d’innovations, de partage, de développement de l’esprit critique. Il est membre du Conseil d’Administration de UP for Humanness.