Daniel Andler est mathématicien et philosophe des sciences. Ses travaux soulignent la complexité du concept d’intelligence artificielle. À l'occasion de sa venue aux Champs Libres, le 14 octobre 2023, pour une rencontre avec Laurent Sadin sur l’intelligence artificielle, des étudiants de Science Po ont pu s'entretenir avec lui.
Pourquoi considérez-vous qu'il faudrait renoncer au terme d'intelligence artificielle ?
Daniel Andler : Il faut déjà distinguer la numisphère dans son ensemble (tout ce qui est connecté, relié à internet, etc.) de l'intelligence artificielle en elle-même. L'IA, c'est un programme beaucoup plus précis - beaucoup plus intéressant aussi - qui hérite de la cybernétique, dont l’objectif est de rendre une machine intelligente, au sens humain du terme.
C'est cette notion d'intelligence qui pose problème selon vous ?
Daniel Andler : Parler d'intelligence peut induire en erreur. C’est pourquoi je préfère parler de Système Artificiel Intelligent (SIA). On aurait pu garder l’expression de “traitement complexe de l’information”, employée par Herbert Simon en 1956, mais c’est un peu long et compliqué. Alors que “intelligence artificielle” ça frappe un grand coup, c’est bien plus vendeur.
Mais cela renvoie à une notion très complexe…
Daniel Andler : Oui, car si on veut dire les chose simplement, l’IA, ce serait faire faire à des ordinateurs, plus largement des systèmes artificiels, des tâches qui chez l’humain exigent de l’intelligence. Cela soulève en effet un autre problème très compliqué qui est de savoir ce qui chez l’humain exige de l’intelligence, et qu’on appelle intelligence ?
Si demain l'IA est en capacité de réaliser du travail produit aujourd'hui par des humains, quels impacts cela peut-il avoir sur le monde du travail ?
Daniel Andler : Il y a des travaux sur l’impact de l’IA sur les différentes professions, notamment depuis ChatGpt. On se rend compte que beaucoup d’emplois qu’on pensait protégés ne le sont en fait pas, notamment les professions intellectuelles intermédiaires, qui fabriquent du texte, des plans, tous ces métiers de rédaction. Il existe beaucoup de cabinets et de consultants qui ont essayé d’évaluer le nombre de métiers qui vont être affectés, soit complètement éliminés, soit déplacés. Je ne suis pas un expert de ces questions- là, mais il n’y a pas de doute que les modifications seront significatives.
Le 5 octobre, le gouvernement a lancé une phase d’expérimentation de l’intelligence artificielle à disposition des agents publics, notamment pour alléger leur charge de travail. Comment voyez-vous cette initiative ?
Daniel Andler : Il faut entendre de quelle rationalisation l’on parle. Rationaliser, c’est permettre aux fonctionnaires de travailler dans de meilleures conditions, avec plus d’autonomie, moins de tâches répétitives. Ce n’est pas rendre le travail inhumain et encore plus pénible.
À la lumière de ces risques, entre autres pour l’emploi, un moratoire de six mois a été demandé par certains scientifiques, chercheurs et acteurs privés, pour pouvoir mieux estimer les menaces potentielles de l’IA. Pourquoi avez-vous fait part de vos réserves sur ce moratoire ?
Daniel Andler : Cela permet à un certain nombre de leaders de la profession d’indiquer que la situation était grave : pourquoi pas. L’IA aujourd’hui ce n’est pas “business as usual”.
Mais sur le plan de l’efficacité, c’est un peu un coup d’épée dans l’eau. Premièrement, six mois c’est beaucoup trop court. Ensuite parce qu’il n’allait pas du tout être suivi d’effets. Les États, les entreprises sont dans une compétition féroce, aucune d'entre elles n’allait accepter de ralentir, même pendant six mois.
Mais alors pourquoi avoir lancé cet appel ?
Daniel Andler : Je crois qu'il y avait un effet “éthique washing”, de la part des grandes entreprises de la tech. L’idée était de montrer un souci du bien public, de l’éthique, essentiellement pour faire preuve de bonne volonté et éviter une trop forte régulation de la part des pouvoirs publics. En ce sens, je pense que ce moratoire était un peu ridicule.
Quelles sont les solutions de régulation à mettre en œuvre alors selon vous ?
Daniel Andler : On sent qu’il y a un vrai effort de régulation européenne qui est fourni. Même si pour l’instant ce n’est pas suffisant, je pense qu'il faut le poursuivre. Malgré tout ce qu’on dit, je pense qu’on peut arriver à domestiquer l’IA. Si je prends l’exemple de la guerre, à certains moments, on parvient à la domestiquer. Le droit de la guerre, les crimes de guerre, tout cela constitue une sorte de domestication, même si ces législations n'empêchent pas les crimes d'être commis. Mais c’est mieux que rien du tout. C’est pourquoi il faudrait inventer la notion de crimes de l’IA.
Vous pensez donc que l'IA peut être dangereuse ?
Daniel Andler : Je pense qu'effectivement, l'IA présente des dangers tout particuliers en raison de son caractère immatériel, reproductible, insaisissable. Il va être très difficile d'empêcher d'utiliser des outils de guerre par exemple. Je ne suis pas du tout rassuré sur tout ça, je suis tourmenté. Mais là où je pense qu'on peut être raisonnablement optimiste, c'est que je pense que l'humanité, et c’est peut-être un peu béat, comme je dis, l'humanité va quand même créer des anticorps à la "déspiritualisation", la déshumanisation portée par l'intelligence artificielle.
Vous avez écrit dans votre livre que les Systèmes Artificiels Intelligents (SAI) ne pourront jamais être intelligents au sens humain du terme. Est-ce qu’à l’inverse la présence croissante de ces systèmes dans nos quotidiens pourrait nous rendre, nous humains, moins intelligents ?
Daniel Andler : Je vais prendre l’exemple de ChatGPT. Il y a beaucoup de débats pour savoir s’il faut interdire l'interdire à l’école, l’autoriser ou encadrer son utilisation. Je pense que pour certaines tâches, il ne faut pas du tout utiliser ChatGPT.
Mais quelles seraient les bonnes et les mauvaises tâches pour utiliser ChatGPT ?
Daniel Andler : J’aime beaucoup l’exemple du premier jet, d’une dissertation, d’un powerpoint, d’un programme de cours, quoi que ce soit. Pour ce travail-là, préliminaire, il ne faut surtout pas utiliser de l’IA. Si on empêche les gens de faire ce geste-là, en leur permettant d’utiliser ChatGPT pour trouver les premières idées, on va les mutiler, les empêcher de se développer. Le passage d’une pensée désordonnée, incohérente à une première expression écrite, c’est un effort intellectuel essentiel.
En quoi cette idée d'effort intellectuel est-elle si importante pour vous ? En quoi l'aide de l'IA peut-elle poser problème ?
Daniel Andler : Je trouve que cette tendance à faire faire à d’autres, et notamment aux machines ce qu’on peut faire soi-même, participe d’une sorte de maladie, qui consiste à dire qu’il faut tout faciliter. Dans ce cas-là, il faut savoir ce que l’on facilite. Faciliter la vie d’une personne à mobilité réduite à Rennes par exemple, c’est formidable, rendre accessible les transports, les bâtiments, etc. On n’arrête pas de créer des choses qui facilitent la vie dans le bon sens. Mais faciliter en soi, faciliter tout et n’importe quoi, ce n’est pas du tout une bonne idée, surtout sur le plan intellectuel et de la réflexion.
Vous appelez pourtant à prendre en compte l'IA et à ne pas complètement lui tourner le dos…
Daniel Andler : S'il ne faut pas tout faciliter, il faut quand même faire avec les nouvelles technologies. J'ai donc développé une autre idée, celle d'un enseignement que j'appelle bilingue. Ça ne veut pas dire français-anglais ou français-arabe. Ça veut dire travailler avec des instruments digitaux comme ChatGPT. Ils doivent apprendre notamment que c'est parfois une bonne chose de se faciliter la vie avec l'IA. Mais ils ne devraient pas l'utiliser tout le temps. Il me semble important d'avoir un régime avec les technologies et un régime sans : faire en sorte qu'au cours de leur éducation, depuis la maternelle jusqu'à plus tard, ils travaillent avec et sans ces technologies.
Les enfants vont grandir dans un monde qui sera de plus en plus affecté, pénétré par ces technologies. Le plus tôt ils les connaîtront, le plus tôt ils apprendront leurs limites.
Pensez-vous qu’actuellement on assiste à une période d'accélération du progrès technologique concernant l’IA, qui sera suivi d’une phase de creux, comme c’était le cas dans l’histoire de la discipline, ou a-t-on passé un cap, un point de non-retour ?
Daniel Andler : Je dirais entre les deux : on a effectivement franchi un cap de non-retour. Il me semble assez invraisemblable que du jour au lendemain les agences étatiques, les laboratoires, les entreprises de la tech’ se disent qu’il s’agit finalement d’une fausse bonne idée, qu’on va couper les investissements et que l’IA redeviendra une simple branche de l’informatique avancée.
En revanche, je ne pense pas qu’on restera dans l’exponentiel, c’est-à-dire que tous les cinq ans, on fera dix fois mieux que GPT-4. Certes il y a des perfectionnements, une amélioration continue, un déploiement de plus en plus efficace et intelligent de l’IA. Un exemple d’échec de l'IA, ce sont les véhicules autonomes. On pourra peut-être le mettre en place dans certains endroits, dans certaines conditions assez particulières, mais on ne sera pas sur une universalisation de ce mode de transport, comme les industriels de la tech et de l’automobile nous l’avaient promis il y a presque dix ans.