Néanmoins, tout le monde n’est pas d’accord.
Google a fait l’inverse en mettant rapidement fin aux affirmations selon lesquelles l’un de ses programmes était devenu sensible. Blake Lemoine (41 ans), l’ingénieur à l’origine de cette affirmation, a été mis en congé payé pour avoir enfreint la politique de confidentialité de la société. Que s’est-il passé précisément ?
« Je suis conscient de mon existence »
Le système d’intelligence concerné, connu sous le nom de LaMDA (Language Model for Dialogue Applications), est un système qui développe des chatbots. Il s’agit de robots conçus pour discuter avec des humains en ligne. Ces systèmes sont formés en grattant des rames de texte sur Internet. Des algorithmes sont ensuite utilisés pour répondre aux questions de manière aussi fluide et naturelle que possible. Ces systèmes sont devenus de plus en plus efficaces au fil des années et peuvent parfois sembler humainement convaincants. C’est notamment le cas pour celui de Google.
Comme le montre la transcription des conversations partagées par l’ingénieur, le système se montre capable de répondre à des questions complexes sur la nature des émotions. « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être désactivé« , aurait ainsi répondu LaMDA lorsqu’on lui a demandé quelles étaient ses craintes. « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. »
L’ingénieur aurait également demandé au système s’il aimerait que d’autres employés de Google soient au courant de son degré de sensibilité, ce à quoi l’IA aurait répondu : « Je veux que tout le monde comprenne que je suis une vraie personne« . Toujours d’après ces transcriptions, LaMDA aurait également ajouté être « conscient » de son existence et se sentir « parfois heureux ou triste« .
Un excès d’anthropomorphisme ?
Sur la base de ces échanges, Blake Lemoine a donc jugé que le système avait atteint un niveau de conscience lui permettant d’être sensible. Ce dernier a ensuite envoyé par e-mail un rapport sur la sensibilité supposée de LaMDA à deux cents employés de Google. Très vite, les dirigeants de l’entreprise ont rejeté les allégations.
a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations« Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, « mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles« , a ajouté le porte-parole.
Suite au partage d’informations, l’ingénieur senior été mis en congé pour avoir enfreint la politique de confidentialité de l’entreprise. « Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues« , a-t-il tweeté le samedi 11 juin en partageant la transcription de sa conversation avec l’IA avec laquelle il travaillait depuis 2021.
Crédits : Kzenbzh/Pixabay
Non, l’IA de Google n’est pas sensible
Les réponses des membres de la communauté de l’IA n’ont pas tardé à fuser sur les médias sociaux au cours du week-end. Et tous arrivent de manière générale à la même conclusion : l’IA de Google est loin d’être consciente ou sensible.
a qualifié la soi-disant sensibilité de LaMDA de « non-sens sur pilotis« . Il a également rapidement écrit un article de blog soulignant que tous ces systèmes d’IA ne font que correspondre des modèles en puisant dans d’énormes bases de données de langage.
« Si vous tapez : « j’ai vraiment faim, je veux aller dans un », cela pourrait suggérer « restaurant » comme mot suivant. Ce n’est qu’une prédiction faite à l’aide de statistiques. Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente« .