02 mai 2023

Un historien compare l’intelligence artificielle aux armes nucléaires

L’historien israélien et auteur à succès de Sapiens : une brève histoire de l’humanité Yuval Noah Harari a fait part de ses inquiétudes concernant le développement des réseaux neuronaux dans un article publié dans The Economist. Il affirme que l’absence de contrôle sur ces programmes peut avoir des conséquences plus graves que les armes nucléaires.

Harari estime que les réseaux neuronaux peuvent se développer sans intervention humaine, contrairement aux armes nucléaires, qui nécessitent la participation de l’homme à chaque étape. En outre, l’intelligence artificielle (IA) peut créer une meilleure version d’elle-même et commencer à mésinformer les gens en générant du contenu politique et des fake news.

« Alors que les armes nucléaires ne peuvent pas inventer des armes nucléaires plus puissantes, l’intelligence artificielle peut rendre l’intelligence artificielle exponentiellement plus puissante », note le scientifique.

Harari appelle à l’utilisation des réseaux neuronaux à des fins utiles, telles que la résolution de problèmes environnementaux ou le développement de médicaments contre le cancer. Il souligne également l’importance de surveiller le développement de ces programmes afin d’éviter les dangers potentiels.

Un exemple de la manière dont les réseaux neuronaux peuvent être utilisés sans contrôle est l’expérience des scientifiques chinois avec le satellite spatial Qimingxing 1. Le programme a choisi les points les plus intéressants de la Terre et a demandé à l’appareil de les étudier, ce qui s’est avéré être dans l’intérêt de l’armée chinoise.

Aucune personne n’a interféré avec l’expérience, ce qui pourrait constituer un dangereux précédent.

Harari a également expliqué comment l’IA pourrait nouer des relations intimes avec les gens et influencer leurs décisions. « Grâce à sa maîtrise du langage, l’IA pourrait même nouer des relations intimes avec les gens et utiliser le pouvoir de l’intimité pour changer nos opinions et nos visions du monde », écrit-il.

Pour le démontrer, il cite l’exemple de Blake Lemoine, un ingénieur de Google qui a perdu son emploi après avoir affirmé publiquement que le chatbot LaMDA était devenu sensible. Selon l’historien, cette affirmation controversée a coûté son poste à Blake Lemoine. Il a posé la question suivante : si l’IA peut inciter les gens à risquer leur emploi, que pourrait-elle faire d’autre ?

À la lumière de ces circonstances, Harari exhorte la société et les gouvernements du monde entier à surveiller de près le développement des réseaux neuronaux et à prendre des mesures pour se protéger contre leurs éventuelles conséquences négatives.

Source

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.