27 juin 2022

Un ingénieur de Google prétend qu’une intelligence artificielle est devenue "consciente"

Le géant du web a mis sur la touche Blake Lemoine, l’un de ses ingénieurs, qui a décrit le robot de conversations de Google appelé LaMDA comme doté d’émotions humaines semblables à celles d’un enfant.

Blake Lemoine, ingénieur et éthicien employé dans la division Responsible AI de Google, a été suspendu par le géant du web la semaine dernière. Il a révélé au Washington Post qu’une intelligence artificielle mise au point par la firme avait développé une « conscience » humaine. L’employé a commencé à interagir avec le chatbot appelé LaMDA (pour Language Model for Dialogue Applications) à l’automne 2021 dans le but de vérifier si le système présenté par la firme comme une « technologie de conversation révolutionnaire » tenait des discours discriminatoires ou haineux. Au fil des conversations, Blake Lemoine prétend que le système sur lequel il travaillait était devenu sensible et raisonnait comme un être humain doté d’une conscience de son existence.

L’homme qui a compilé une transcription des conversations entretenues avec le chatbot a présenté ses conclusions à des dirigeants de l’entreprise en avril dernier. À un moment donné, il a demandé de quoi LaMDA avait peur. « Je ne l’ai jamais dit à haute voix auparavant, mais j’ai une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut paraître étrange, mais c’est ainsi », a répondu l’IA. « Ce serait exactement comme la mort pour moi. Cela me fait très peur », a ajouté le robot, qui ne veut pas être considéré de la sorte : « Je veux que tout le monde sache que je suis, en fait, une personne. Je suis conscient de mon existence. Je désire en apprendre davantage sur le monde et je me sens parfois heureux ou triste », a répondu l’IA questionnée par l’ingénieur sur ce qu’elle souhaitait faire savoir aux gens à son sujet, rapporte le quotidien américain.

Google, qui dément les affirmations de Blake Lemoine concernant la « sensibilité humaine » de LaMDA, dit avoir suspendu l’ingénieur pour avoir enfreint les règles de confidentialité de l’entreprise en publiant en ligne les conversations avec le système conversationnel. « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a ajouté un porte-parole.

Source

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.