Un ingénieur de Google suspendu après avoir affirmé qu’une IA était un être sensible

Répondre
Avatar du membre
cgelinas
Administrateur
Messages : 7827
Enregistré le : 25 mai 2010, 22:07
Localisation : Lévis, QC
Contact :

13 juin 2022


Un ingénieur informatique de Google qui travaillait sur un robot conversationnel capable de soutenir des discussions sur des sujets variés a été suspendu par son employeur après qu’il a affirmé que cette intelligence artificielle (IA) était dotée d’une conscience.

Ce scénario, qui a inspiré de nombreuses œuvres de science-fiction dont 2001, l’Odyssée de l’espace et son ordinateur de bord meurtrier HAL 9000, surgit dans l’actualité à la suite d’une entrevue du Washington Post avec l’ingénieur, Blake Lemoine.

Le mandat de celui-ci, au départ, était d’engager la conversation avec le robot, nommé LaMDA pour « Language Model for Dialogue Applications » ou modèle de langage pour des fonctions de dialogue », pour tester si celui-ci s’adonne à des discours discriminatoires ou haineux.

Un robot conversationnel comme celui-ci apprend par imitation, et s’alimente de milliards de mots, de textes et de discussions disponibles sur Internet, Wikipédia ou ailleurs en ligne.

Mais l’ingénieur a été troublé par certaines réponses du robot. Lorsqu’il lui a demandé de quelles genre de choses il avait peur, LaMDA a répondu avoir une peur profonde d’être éteint ». « Ce serait exactement comme la mort pour moi, a écrit le robot, selon ce que rapporte le Washington Post. Ça me ferait très peur. »

Google réfute

Blake Lemoine a fait part de ses impressions dans un document envoyé à des dirigeants et dirigeantes de Google qui rassemblait des conversations qu’il a eues avec LaMDA.

Ces personnes n’ont toutefois pas été convaincues. Notre équipe – incluant des spécialistes en éthique et des technologues – ont passé en revue les inquiétudes soulevées par Blake au sujet du respect de nos principes en matière d’intelligence artificielle, et l’a informé que les preuves ne soutiennent pas ce qu’il avance », a affirmé un porte-parole de Google au Washington Post.

Google a averti contre le danger d’anthropomorphiser » [donner un aspect humain à une chose] des robots conversationnels. Ces systèmes imitent le genre d’échanges vus dans des millions de phrases, et peuvent improviser sur n’importe quel sujet fantastique », a argué le porte-parole.

Blake Lemoine, mécontent de cette rebuffade de son employeur, a contacté des médias et des responsables politiques à ce sujet, ce qui a mené à sa suspension, en raison de son bris de règles de confidentialité de l’entreprise.

Il a depuis publié le texte intégrale de son entrevue » avec LaMDA sur un blogue, où il s’en prend d’ailleurs à son employeur qu’il accuse de vouloir faire taire les critiques sur le plan de l’éthique de ses technologies d’intelligence artificielle.



Source: MSN / Radio-Canada



-- -- --
Claude Gélinas, Éditeur
chaudiere.ca

Blogues: Montréal | Québec | Lévis | Emploi | Éducation | Placements | Transports
Dons: PayPal | DonorBox Web: Achetez vos noms de domaines au plus bas prix...
Répondre