Des milliers d’employés de Google ont tenté d’avertir l’entreprise que son chatbot, Bard, n’est pas seulement un "menteur pathologique", mais potentiellement un meurtrier, offrant des conseils pouvant entraîner la mort, a rapporté Bloomberg mercredi dernier. 18 employés actuels et anciens de Google, qui ont parlé au journal, ont ajouté que la société ne les avait pas écoutés.
Un employé a affirmé avoir informé la direction de Google que les conseils de Bard sur la plongée sous-marine « entraîneraient probablement des blessures graves ou la mort« , tandis qu’un autre a déclaré que sa description de la façon de faire atterrir un avion entraînerait presque certainement un accident.
Un troisième employé, dans une note qui a été vue par 7.000 utilisateurs de Google, a décrit Bard comme « pire qu’inutile » et a supplié l’entreprise de ne pas le lancer. D’autres ont qualifié l’IA de « totalement embarrassante« .
Les spécialistes de l’éthique ont été invités à se taire alors que la société précipitait le chatbot sur le marché, ont déclaré les sources à Bloomberg. Meredith Whittaker, ancienne responsable de l’entreprise, a déclaré que le profit et la croissance « ont pris le pas sur l’éthique », et deux autres employés ont déclaré que les évaluations éthiques étaient quasiment facultatives.
Les produits qui devaient auparavant franchir un seuil de 99% pour des mesures telles que « l’éthique » n’avaient plus qu’à atteindre « plus ou moins 80, 85% » pour être lancés, aurait déclaré aux employés la responsable de la gouvernance de l’IA, Jen Gennai.
Plus tôt ce mois-ci, deux lanceurs d’alerte ont révélé qu’ils avaient tenté de bloquer le lancement de Bard, avertissant que l’IA était sujette à des « déclarations inexactes et dangereuses« , seulement pour voir leurs inquiétudes balayées de côté quand Gennai requalifié le « lancement du produit » en une « expérience« .
Présenté comme un concurrent du blockbuster ChatGPT d’OpenAI le mois dernier, Bard était censé être à la pointe de la transformation de l’activité de recherche de Google. Lorsque ChatGPT fut lancé Google n’avait pas encore sa propre IA générative intégrée dans ses produits d’une manière que les clients pourraient réellement utiliser. L’entreprise aurait paniqué, émettant un « code rouge » et prenant tous les risque, à partir de décembre, ont déclaré les employés à Bloomberg.
Google nie avoir négligé les valeurs éthiques. « Nous continuons d’investir dans les équipes qui travaillent à l’application de nos principes d’IA à notre technologie« , a déclaré le porte-parole Brian Gabriel à Bloomberg.
La société a licencié trois membres de son équipe « IA responsable » en janvier, annonçant son intention de déployer plus de 20 produits alimentés par l’IA cette année. Pendant ce temps, ceux qui restent dans l’équipe d’éthique de l’IA sont désormais « impuissants et démoralisés », selon Bloomberg.
RT
Traduit par Wayan, relu par Hervé, pour le Saker Francophone.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.