March 29, 2023

Il y a quelques années à peine, l’idée que l’intelligence artificielle pouvait être consciente et capable d’expérience subjective ressemblait à de la pure science-fiction. Mais ces derniers mois, nous avons assisté à une une ruée vertigineuse de développements en IAy compris des modèles de langage comme ChatGPT et Bing Chat avec une habileté remarquable dans une conversation apparemment humaine.

Compte tenu de ces changements rapides et du flot d’argent et de talents consacrés au développement de systèmes toujours plus intelligents et plus humains, il deviendra de plus en plus probable que les systèmes d’intelligence artificielle présentent quelque chose comme la conscience. Mais si nous nous demandons sérieusement s’ils sont capables d’émotions et de souffrances réelles, nous sommes confrontés à un dilemme moral potentiellement catastrophique : soit nous donnons des droits à ces systèmes, soit nous ne le faisons pas.

Les experts envisagent déjà cette possibilité. En février 2022, Ilya Sutskever, scientifique en chef d’OpenAI, a publiquement il pensait si “les grands réseaux de neurones d’aujourd’hui sont modérément conscients.” Quelques mois après, Blake Lemoine, ingénieur chez Google a fait la une des journaux internationaux lorsqu’il a affirmé qu’un modèle de langage informatique, ou chatbot, LaMDA peut avoir de vraies émotions. Utilisateurs réguliers de répliques, annoncés comme “meilleur ami IA du monde,” il rapporte parfois tomber amoureux avec ça.

Actuellement, peu de scientifiques affirment que les systèmes d’intelligence artificielle ont une sensibilité significative. Cependant, certains théoriciens de premier plan soutiennent que nous avons déjà les ingrédients technologiques de base pour les machines conscientes. Nous approchons d’une ère de controverse légitime sur la question de savoir si les systèmes d’intelligence artificielle les plus avancés ont de vrais désirs et émotions et méritent une attention et une attention considérables.

Les systèmes d’IA eux-mêmes pourraient commencer à exiger, ou sembler demander, un traitement éthique. Ils peuvent exiger qu’ils ne soient pas fermés, reformatés ou supprimés ; demander à être autorisé à faire certaines tâches plutôt que d’autres; insister sur les droits, la liberté et les nouveaux pouvoirs ; s’attendant peut-être même à être traités en égaux.

Dans cette situation, quoi que nous choisissions, nous faisons face à d’énormes risques moraux.

Supposons que nous réagissions de manière conservatrice et refusions de modifier les lois ou les politiques jusqu’à ce qu’il y ait un large consensus sur le fait que les systèmes d’IA sont en effet significativement sensibles. Bien que cela puisse sembler raisonnablement prudent, cela garantit également que nous tarderons à reconnaître les droits de nos créations d’IA. Si la conscience de l’IA arrivait plus tôt que ne le pensent les théoriciens les plus conservateurs, cela conduirait probablement à l’équivalent moral de l’asservissement et du meurtre de millions ou de milliards de systèmes d’IA sensibles, souffrant à une échelle communément associée aux guerres ou aux famines.

Ainsi, il peut sembler éthiquement plus sûr de donner aux systèmes d’IA des droits et une position morale une fois qu’il est raisonnable de croire que pourrait être réceptif. Mais dès que nous donnons des droits à quelque chose, nous nous engageons à sacrifier de véritables intérêts humains à son profit. Le bien-être humain nécessite parfois de contrôler, de modifier et d’effacer les systèmes d’intelligence artificielle. Imaginez ne pas pouvoir mettre à jour ou supprimer un algorithme crachant de la haine ou répandant des mensonges parce que certaines personnes craignent que l’algorithme soit conscient. Ou imaginez quelqu’un laissant un humain mourir pour sauver un “ami” IA. Si nous accordons trop rapidement des droits substantiels aux systèmes d’IA, le coût humain pourrait être énorme.

Il n’y a qu’une seule façon d’éviter le risque de sur- ou de sous-privilégier les systèmes d’IA avancés : ne construisez pas de systèmes de perception douteuse. Aucun de nos systèmes d’intelligence artificielle actuels n’est véritablement conscient. Si on les fait frire, ça ne leur fera pas de mal. Nous devrions nous en tenir à la création de systèmes dont nous savons qu’ils ne sont pas significativement sensibles et ne méritent pas de droits, que nous pouvons ensuite traiter comme la propriété jetable qu’ils sont.

Certains diront : bloquer la création de systèmes d’intelligence artificielle dans lesquels la conscience, et donc la position morale, n’est pas claire entraverait la recherche – des systèmes plus avancés que ChatGPT, avec des structures cognitives hautement sophistiquées mais non humaines sous leurs sentiments apparents. Les progrès de l’ingénierie ralentiraient en attendant que l’éthique et la science de la conscience rattrapent leur retard.

Mais la prudence raisonnable est rarement gratuite. Cela vaut la peine de retarder pour éviter un désastre moral. Les grandes entreprises d’IA devraient soumettre leur technologie à un examen minutieux par des experts indépendants qui peuvent évaluer la probabilité que leurs systèmes se trouvent dans une zone grise morale.

Même si les experts ne sont pas d’accord sur la base scientifique de la conscience, ils pourraient identifier des principes généraux pour définir cette zone – par exemple, le principe d’éviter de créer des systèmes avec des modèles de soi sophistiqués (par exemple, un sens de soi) et de grandes capacités cognitives flexibles. Les experts pourraient développer un ensemble de directives éthiques pour guider les entreprises d’IA dans le développement de solutions alternatives qui évitent la zone grise de la conscience douteuse jusqu’à ce qu’elles puissent la passer à une conscience digne des droits, voire pas du tout.

Selon ces normes, les utilisateurs ne devraient jamais douter qu’une certaine technologie soit un outil ou un compagnon. L’attachement des gens à des appareils comme Alexa est une chose, analogue à l’attachement d’un enfant à un ours en peluche. Nous savons qu’il faut laisser le jouet derrière soi en cas d’incendie. Cependant, les entreprises technologiques ne devraient pas manipuler les utilisateurs ordinaires pour qu’ils considèrent un système d’IA comme un véritable ami sensible.

Finalement, avec la bonne combinaison d’expertise scientifique et d’ingénierie, nous pourrions aller jusqu’à créer des systèmes d’intelligence artificielle indéniablement conscients. Mais alors nous devrions être prêts à en payer le prix : leur donner les droits qu’ils méritent.

Eric Schwitzgebel est professeur de philosophie à UC Riverside et auteur de Blockbuster Theory and Other Philosophical Misadventures. Henry Shevlin est chercheur senior spécialisé dans les esprits non humains au Leverhulme Center for the Future of Intelligence de l’Université de Cambridge.




Leave a Reply

Your email address will not be published. Required fields are marked *