La conscience artificielle

20 MOTS DE L’IA FORMATIVE, LE PETIT TEMNA EXPLIQUE

La conscience artificielle fait partie des mythologies de la technologie. Déjà dans la Bible, l’homme donnait naissance au golem, né de la matière inerte, la terre glaise. L’homme lui a donné la vie pour en faire un assistant à son créateur pour l’aider dans son quotidien. Il n’est pas étonnant que les LLM assistant numérique revisitent ce mythe ancien pour penser la nouveauté.

L’homme démiurge, peut donner la vie et la conscience, grâce au numérique, un Frankenstein numérique (Frankenstein ou le Prométhée moderne, Mary Shelley, 1818).

Cette interrogation métaphysique trouve une actualité surprenante avec l’expérience de Blake Lemoine, qui sera reproduite par la suite.

Blake Lemoine était un ingénieur chez Google spécialiste de l’IA, il publie le 11 juin 2022 son retour d’expériences après ses conversations avec LAMDA le LLM de Google : « LAMDA, est-elle sensible ? » (https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917). Sa prise de position a fait résonance dans la monde entier, lorsqu’il parle d’une forme de préconsciente qui permet d’associer à chaque situation des valeurs positive ou négative.

Il pousse le raisonnement jusqu’au bout : si la machine a une conscience, il est indispensable de défendre cette conscience contre « l’intolérance hydrocarbure », nouvelle forme de racisme contre les machines.

La communauté scientifique a arbitré.

Il s’agirait d’un simulacre de conscience.

Google l’a licencié.

Mais cela montre aussi une attente sociétale, un vieux rêve plus ou moins conscient.

Que faut-il en penser ?

Les LLM simulent des états de conscience humaine comme la peur de la mort, l’empathie, grâce à son entraînement. A partir de textes écrits par l’homme, la machine peut donner l’impression d’avoir une conscience.

Ce que le psychiatre Serge Tisseron appelle l’empathie numérique (Vivre dans les nouveaux mondes virtuels, concilier empathie et numérique, 2022).

Si la machine n’a pas de conscience, l’homme n’en a pas toujours conscience et cela a des conséquences.

« L’IA consciente n’est plus une utopie » disait Jérôme Béranger spécialiste en éthique numérique (2024).

Quel est le problème ?

Ce qui pose problème, c’est de définir scientifiquement la conscience… pour l’homme.

La notion de conscience est un concept en construction.

La conscience artificielle souffre de l’absence d’un référent humain solide.

La conscience humaine est une expérience subjective de ce que chacun vit.

Elle permet de ressentir l’émotion de l’autre, tout en sachant que ce n’est pas la sienne.

Or, une subjectivité par définition, n’est pas objective. Autrement dit, une personne ne peut pas ressentir réellement les émotions de l’autre, au mieux, il peut imaginer à sa place les émotions qu’il pourrait ressentir.

Comment connaître un ressenti subjectif ?

Par la verbalisation, mettre des mots sur des émotions, les mots pour le dire. Mais s’agit-il de sincérité ou de verbalisation sociale ?

Les mots sont aussi des simulacres sociaux du réel.

Il devient alors difficile d’appréhender la subjectivité de la conscience humaine. Alors la conscience numérique…

En 2023, un collectif de 17 chercheurs dont des neuroscientifiques et des experts de l’IA proposent une synthèse sur le sujet (https://arxiv.org/abs/2308.08708).

Sans reprendre toutes 6 théories en présence, la plus sollicitée par communauté scientifique est la théorie de l’espace de travail global. La conscience serait une zone du cerveau qui sélectionne les informations pertinentes pour en faire profiter l’ensemble du cerveau et lui permettre ainsi de se mobiliser (Stanislas Dehaene, Le code de la conscience, 2014).

Ce qui est intéressant dans la modélisation, en général, de la conscience humaine, c’est qu’elle permet un progrès dans la modélisation de la conscience artificielle.

Pour faire simple, la compréhension de la conscience humaine permettra sans doute sa reproduction avec la conscience numérique.

Le numérique permet à l’homme de mieux se connaître, d’être plus humain.

Et avoir conscience qu’il ne faut pas confondre le savoir et le réel.

Fait à Paris, le 14 novembre 2024

@StephaneDIEB pour vos commentaires sur X