Le populaire système d’intelligence artificielle (IA) ChatGPT d’OpenAI a connu une petite crise publique entre le 20 et le 21 février. Il a dérouté et confondu les utilisateurs en débitant du charabia et d’autres bizarreries, y compris des prompts apparentés à Shakespeare non sollicités.
Le problème a apparemment été résolu. La dernière mise à jour de la page de statut d’OpenAI indique que « ChatGPT fonctionne normalement ». Cela signifie que le problème a été résolu 18 heures après qu’OpenAI l’ait signalé pour la première fois.
La cause exacte du problème n’est pas claire pour l’instant et OpenAI n’a pas encore répondu à notre demande de commentaire.
Sur la base d’un examen rapide des résultats rapportés, il semblerait que ChatGPT ait connu une certaine forme de confusion au niveau de la tokénisation. En raison de la nature de boîte noire des grands modèles de langage construits sur la technologie GPT, il n’est peut-être pas possible pour les scientifiques d’OpenAI de diagnostiquer exactement ce qui s’est passé. Si c’est le cas, il est probable que l’équipe se concentrera sur des mesures préventives telles que la mise en place de garde-fous supplémentaires contre les longues chaînes de charabia apparent.
Le sentiment des médias sociaux semble indiquer que les dommages causés par le chatbot se sont limités, dans l’ensemble, à faire perdre du temps aux utilisateurs qui attendaient des réponses sensées à leurs questions.
Toutefois, cet exemple illustre le potentiel des systèmes d’IA générative à envoyer des messages inattendus, hallucinés ou incohérents à tout moment. Ces types de réponses indésirables peuvent avoir des conséquences négatives.
Air Canada, par exemple, a récemment découvert qu’elle ne pouvait pas blâmer l’algorithme lorsqu’un tribunal lui a ordonné de payer un remboursement partiel à un client qui avait reçu de mauvaises informations sur les politiques de réservation de la part d’un chatbot du service client.
Dans le monde des crypto-monnaies, les investisseurs utilisent de plus en plus des systèmes automatisés basés sur les LLM et la technologie GPT pour créer des portefeuilles et exécuter des transactions. Comme l’indique la récente défaillance de ChatGPT, même les modèles les plus robustes peuvent connaître des défaillances inattendues à n’importe quelle échelle.
Traduction de Coin Telegraph par Aube Digitale
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.