La nature a placé l’humanité sous l’empire de deux maîtres souverains: la douleur et le plaisir. C’est à eux seuls qu’il appartient de nous indiquer ce que nous devons faire, ainsi que de déterminer ce que nous ferons.
– Jeremy Bentham
C’est par ces mots que Jeremy Bentham, le philosophe utilitariste du XVIIIe siècle, a jeté les bases de son éthique. Aujourd’hui, nous nous trouvons face à une question similaire : que devrions-nous faire avec l’intelligence artificielle (IA) ?
Avant de plonger plus profondément dans cette question, permettez-moi de vous présenter brièvement Bentham.
Jeremy Bentham: un penseur avant-gardiste pour son époque
Jeremy Bentham, né en 1748 et décédé en 1832, était un philosophe et réformateur social britannique. Il est surtout connu pour avoir développé l’utilitarisme, une philosophie éthique qui suggère que la moralité d’une action est déterminée par sa contribution au bonheur général. Il a postulé que le « plus grand bonheur du plus grand nombre » devrait être la mesure guidant les actions humaines et les lois.
L’IA s’est imposée presque inopinément dans notre vie quotidienne. ChatGPT, développé par OpenAI, a ouvert la voie à cette nouvelle ère, il y a huit mois, et depuis, l’accélération a été fulgurante.
Des bouleversements inattendus et déconcertants #Disruption
Les enseignants ne souhaitaient pas voir les devoirs de leurs élèves résolus instantanément par une machine. Les employeurs n’aspiraient pas à ce que des tâches à haute valeur ajoutée, qui prennent leur sens uniquement lorsqu’elles sont réalisées par des humains (évaluations de performance, rapports), soient effectuées par des machines. Les officiels gouvernementaux n’avaient pas prévu qu’un système de désinformation parfait serait mis à disposition sans aucune contre-mesure efficace.
L’IA a été lancée sans manuel d’instruction. Personne ne sait vraiment de quoi ces outils sont pleinement capables. Le monde est devenu beaucoup plus étrange, très rapidement.
La résistance à l’étrangeté de l’IA: une mission vaine?
Il n’est donc pas surprenant que tant de gens cherchent à empêcher l’IA de devenir bizarre. Partout où je regarde, je vois des politiques mises en place pour éliminer la perturbation et l’étrangeté que l’IA apporte. Ces politiques ne vont pas fonctionner. Et, pis encore, les avantages substantiels de l’IA vont être grandement réduits en essayant de prétendre qu’elle est juste comme les précédentes vagues de technologie.
Il est donc temps de se débarrasser de l’idée que l’IA générative est la prochaine itération des vagues de technologies du web3/crypto/NFT/VR/Métaverse dont nous avons tous été témoins au cours de la dernière décennie. Chacune de ces technologies était une promesse de potentiel futur, requérant des investissements massifs et une bonne dose de chance pour avoir un impact majeur.
Les grands modèles de langage : un tournant décisif
Les grands modèles de langage sont déjà là. Dans leur forme actuelle, ils montrent une capacité immense à impacter de nombreux domaines de travail et de vie. Et, même s’ils ne s’améliorent jamais, même si les IA futures sont hautement régulées (deux scénarios hautement improbables), les IA que nous avons aujourd’hui vont apporter beaucoup de changements.
Pour beaucoup de personnes, c’est un problème.
Quand l’IA rencontre l’immobilisme des organisations
Dans mes discussions avec des institutions éducatives et des entreprises, j’ai vu des leaders tenter désespérément de faire en sorte que l’IA ne change rien. Je crois que non seulement c’est futile, mais cela comporte aussi ses propres risques. Alors, parlons-en.
Ignorer, bannir, centraliser: les trois étapes de l’adoption de l’IA
De nombreux leaders d’organisations ne comprennent pas encore l’IA, mais ceux qui voient une opportunité sont désireux de l’embrasser… tant qu’elle ne rend pas les choses trop étranges. Je vois trois étapes dans l’adoption de l’IA, mais toutes ont leurs propres défauts.
- L’ignorer. Ignorer l’IA ne la fait pas disparaître. Au lieu de cela, les employés individuels trouveront des moyens d’utiliser l’IA pour améliorer leurs propres emplois. Ils ne parleront pas à leurs leaders de ce qu’ils font, de peur d’être punis ou que leur travail soit dévalorisé. Ce sont les cyborgs secrets dont j’ai déjà parlé.
- La bannir. Ceci est généralement en réponse à des opinions juridiques bien intentionnées, mais parfois techniquement incorrectes. Lorsque l’IA est interdite, vos cyborgs secrets continuent à l’utiliser sur leurs téléphones et ordinateurs à domicile. Et ils ne vous disent toujours pas ce qu’ils font.
- La centraliser. De plus en plus, je vois de grandes entreprises construire leurs propres ChatGPT internes, en utilisant généralement les API d’OpenAI, mais en les enveloppant dans leur propre logiciel pour être « sûres » et contrôlables. En faisant cela, ils prennent aussi des décisions sur la meilleure façon d’utiliser l’IA, en optimisant leur logiciel personnalisé pour un cas d’utilisation qui est décidé du haut vers le bas, basé sur peu d’expérience et de connaissances.
La centralisation est ce à quoi les organisations sont habituées lorsqu’elles sont confrontées à une nouvelle technologie. Centraliser le courrier électronique, les logiciels de vidéoconférence, la messagerie instantanée, les navigateurs – ainsi, l’entreprise peut surveiller une utilisation inappropriée, sécuriser ses données et assurer une expérience homogène pour tous les employés. Cependant, avec l’IA, cela pourrait s’avérer contre-productif. Centraliser l’IA pourrait limiter l’exploration des diverses applications de l’IA, en particulier celles qui sont spécifiques à des postes de travail individuels ou à des domaines d’expertise. Par conséquent, cela pourrait entraver l’innovation et ralentir l’adaptation à l’ère de l’IA.
Comment l’IA devrait être adoptée: une approche benthamiste
Cela me ramène à Bentham. En tant que philosophes, nous devrions nous demander: comment pouvons-nous maximiser le plaisir (le bonheur, le bien-être, l’utilité) pour le plus grand nombre grâce à l’IA ? Et comment pouvons-nous minimiser la douleur (le mal, les inconvénients, les risques) qui pourrait en résulter ?
Dans le contexte de l’IA, je pense que cela signifie embrasser l’étrangeté de l’IA, plutôt que de la rejeter. Il s’agit de laisser chaque employé explorer l’IA et l’adapter à ses propres besoins, plutôt que de contrôler de manière centralisée son utilisation. Il s’agit de discuter ouvertement de l’IA, de ses avantages et de ses risques, plutôt que de l’ignorer ou de la bannir.
L’IA comme un écosystème dynamique
Plutôt que de voir l’IA comme une technologie monolithique, nous devrions la considérer comme un écosystème complexe. Dans cet écosystème, il y a de nombreuses variantes d’IA, chacune avec ses propres forces et faiblesses, ses propres avantages et risques. Et chaque utilisateur d’IA – que ce soit un employé, un chef d’entreprise, un enseignant, un étudiant, un gouvernement – peut choisir la variante qui correspond le mieux à ses besoins, tout en étant conscient de ses risques.
Cela signifie que nous devons construire des systèmes de gouvernance de l’IA qui soient aussi diversifiés et dynamiques que l’IA elle-même. Ces systèmes doivent permettre à chaque utilisateur d’IA de comprendre les avantages et les risques de l’IA, de prendre des décisions éclairées sur son utilisation, et de partager ses expériences avec les autres.
Dans un monde où l’IA est devenue omniprésente, où elle a le potentiel de transformer tous les aspects de notre vie, nous devons la voir pour ce qu’elle est vraiment : une opportunité et un défi. Pour faire face à ce défi, nous devons adopter une approche benthamiste, qui cherche à maximiser le bien-être pour le plus grand nombre, tout en minimisant les risques.
L’IA est étrange, et c’est une bonne chose. L’étrangeté est un signe de nouveauté, d’innovation, de potentiel. Si nous acceptons cette étrangeté, si nous apprenons à travailler avec l’IA plutôt que contre elle, nous pourrons débloquer ce potentiel et créer un avenir meilleur pour tous.
Après tout, comme l’a dit Bentham, « la plus grande félicité du plus grand nombre » devrait être notre guide. Et cela inclut l’adoption de l’IA.