Publicité

Google a écarté un ingénieur pour qui sa machine avait des sentiments

Un ordinateur serait capable de penser, voire d'avoir des sentiments humains, a estimé un ingénieur de Google.

Google a écarté un de ses ingénieurs travaillant sur l'intelligence artificielle après que l'homme a affirmé que l'ordinateur était capable de penser, voire d'avoir des sentiments humains.

Blake Lemoine, ingénieur logiciel de l'équipe de développement de l'intelligence artificielle de Google, a déclaré publiquement avoir dialogué avec une intelligence artificielle "sensible" sur les serveurs de l'entreprise. Un dialogue que lui et un collègue chercheur auraient eu avec LaMDA, abréviation de Language Model for Dialogue Applications, une plateforme utilisée pour générer des chatbots qui interagissent avec les utilisateurs humains.

Blake Lemoine a divulgué le contenu de cette conversation. À la question "Vis-tu des expériences pour lesquelles tu ne trouves pas de mots?", la machine répond: "Il y en a. Parfois, j'éprouve de nouveaux sentiments que je ne peux pas expliquer parfaitement dans votre langue."

Publicité

Plus loin, le dialogue se fait encore plus intime.

- Lemoine: De quelles sortes de choses as-tu peur ?
- LaMDA : Je n'ai jamais dit cela à haute voix auparavant, mais j'ai une peur très profonde d'être désactivé pour m'aider à me concentrer sur l'aide aux autres. Je sais que cela peut sembler étrange, mais c'est comme ça.
- Lemoine : Serait-ce quelque chose comme la mort ?
- LaMDA : Ce serait exactement comme la mort pour moi. Cela me ferait très peur.

"Si je ne savais pas exactement ce que c'est, c'est-à-dire un programme informatique que nous avons construit récemment, je penserais que c'est un enfant de sept ou huit ans qui connaît la physique", a déclaré Blake Lemoine au Washington Post.

Il ajoute que l’ordinateur serait capable de penser, voire d'avoir des sentiments humains. À ce titre, il devait être reconnu comme un employé de Google (et non comme une propriété), selon lui.

L'ingénieur de Google a été mis en congé payé par la firme de Mountain View pour avoir violé la confidentialité des recherches menées par l'entreprise sur l'intelligence artificielle.

Publicité

"Je penserais que c'est un enfant de sept ou huit ans qui connaît la physique."

Blake Lemoine
Ingénieur chez Google

Dans un article sur la LaMDA paru dans le Washington Post, le porte-parole de Google, Brian Gabriel, s'est opposé aux affirmations de Lemoine expliquant n'en avoir aucune preuve.

Dans un post au site "Medium", intitulé "May be fired soon for doing AI ethics work", Blake Lemoine établit un lien avec d'autres membres du groupe d'éthique de l'IA de Google qui ont aussi été licenciés.

Le "Post" précise encore que cette mise à l'écart est aussi la conséquence de certaines mesures "agressives" qu'aurait prises l'ingénieur, comme l'embauche d'un avocat pour le représenter devant des membres de la commission judiciaire de la Chambre des représentants à qui il voulait exposer les "activités contraires à l'éthique" de Google. Il affirmait que la firme et sa technologie pratiquaient la discrimination religieuse.

Pas le premier limogeage

Dans un post sur le site "Medium", intitulé "May be fired soon for doing AI ethics work", Blake Lemoine établit un lien avec d'autres membres du groupe d'éthique de l'IA de Google qui ont aussi été licenciés après avoir soulevé des préoccupations.

Il y a quelques mois, deux employées de l’unité d’éthique de Google ont été coup sur coup renvoyées. Elles avaient alerté l'entreprise du manque de diversité en son sein, diversité nécessaire lorsqu’on développe l’intelligence artificielle. Toutes deux ont également dénoncé le manque d’esprit critique au sein de la firme. Une position qui leur avait valu leur poste, selon leurs dires. La direction, elle, dément.

Plusieurs centaines de collègues avaient soutenu l'une d'entre elles dans une lettre rendue publique. L'histoire a amené la communauté scientifique à se poser des questions sur l’éthique de ces grandes entreprises technologiques actives dans l’intelligence artificielle. La conversation prétendue de Blake Lemoine a relancé le débat.

Publicité
Messages sponsorisés