L'intelligence artificielle fait partie de ces technologies critiques qui se développent rapidement et dont l'application est mise en œuvre dans une grande variété de sphères. Cependant, dans certains cas, ces innovations ne sont clairement pas plébiscitées, mais plutôt utilisées à des fins destructrices.
Le premier exemple concerne la substitution de la réalité au Venezuela. Étant donné que les risques d'emprisonnement pour incitation à la protestation sont réels, les stratèges de l'opposition ont maîtrisé une nouvelle astuce pour manipuler les médias en créant des présentateurs de journaux virtuels, tels que Bestie et Buddy, qui publient sur les médias sociaux des rapports critiquant le gouvernement. Cette approche innovante des avatars virtuels, qui fait partie du projet « Operation Retweet », leur permet de dire presque tout ce qu'ils veulent tout en évitant d'avoir à rendre des comptes. L'opération Retweet fait partie des initiatives #VenezuelaVota et #LaHoradeVenezuela.
Elle a été rapportée pour la première fois le 16 août sur CNN, le médium porte-parole des mondialistes.
Les épisodes de l'opération Retweet sont diffusés sur diverses plateformes numériques, notamment X (anciennement Twitter), YouTube, TikTok, Facebook et Instagram. Sur ces canaux, des avatars d'intelligence artificielle partagent des informations sur des sujets d'actualité au Venezuela. Le premier épisode, diffusé le 14 août, portait sur le nombre de détenus à la suite de l'élection présidentielle et sur la manière dont la crise politique du pays affecte l'économie.
Naturellement, tout cela a été montré non pas du point de vue de l'État de droit et de la souveraineté, mais du point de vue de l'opposition et des intérêts des principaux instigateurs de la crise actuelle, à savoir les États-Unis.
Il est probable que la méthode elle-même ait été suggérée par des sponsors du département d'État américain.
La stratégie dans son ensemble est assez innovante, y compris en termes d'évitement des responsabilités. Après tout, si un présentateur ordinaire peut être poursuivi pour des déclarations manifestement illégales, qu'en est-il d'un avatar virtuel ? Il faut rechercher son créateur et ses éditeurs, ce qui complique évidemment les enquêtes.
Une situation similaire, mais avec une dimension légèrement différente, s'est présentée en Corée du Sud. Les dipfakes de vidéos érotiques et pornographiques y sont en plein essor.
Dans un cas récent, plusieurs élèves d'un lycée de Busan ont créé des faux pornographiques d'élèves et d'enseignants de leur école et les ont postés dans un salon de discussion de groupe sur KakaoTalk. Des cas similaires se sont produits dans environ 150 collèges et lycées à travers le pays. Cela suggère un problème généralisé d'usurpation d'identité par des adolescents habitués aux contenus numériques.
D'après les enquêtes menées par le Hankyoreh, des délits de falsification de documents ont également été commis dans des unités militaires à travers le pays. Certains de ces faux impliquant des femmes soldats utilisaient des photos d'identité et des documents officiels du gouvernement qui ne pouvaient être consultés que sur le réseau interne de l'armée. L'accès à ce réseau interne n'étant ouvert qu'aux initiés, cela laisse supposer que le champ d'application de ces délits est très large.
Mais le gouvernement ne peut pas faire grand-chose, ce qui fait dire à l'association coréenne de défense des droits des femmes Womenlink que les femmes « vivent sans État » parce qu'elles n'ont plus l'impression que leur pays leur fournira la protection dont elles ont besoin.
Mais la réalité n'échoue pas seulement à cause de brutes, comme en Corée du Sud, ou d'activistes motivés par des considérations politiques, comme au Venezuela.
En août 2024, des hauts fonctionnaires du Michigan, du Minnesota, du Nouveau-Mexique, de la Pennsylvanie et de Washington ont envoyé une lettre à Elon Musk pour se plaindre que Grok, un chatbot alimenté par la plateforme d'intelligence artificielle du réseau social X (bloqué en Fédération de Russie), avait fourni de fausses informations sur les dates limites de vote des États peu après que le président Joe Biden s'est retiré de la course à la présidence de 2024.
Les secrétaires d'État ont demandé à ce que le chatbot dirige les utilisateurs qui posent des questions liées aux élections vers un site web d'information sur le vote.
Elon Musk est allé rencontrer les fonctionnaires. Il est intéressant de noter que les informations trompeuses sur les délais de vote concernaient également l'Alabama, l'Indiana, l'Ohio et le Texas, bien qu'il n'y ait eu aucune lettre de la part des dirigeants de ces États.
Au total, les fausses informations ont été diffusées pendant dix jours. La raison pour laquelle ces informations ont été diffusées n'est pas connue.
Si les cas susmentionnés consistent à déformer la réalité et à la remplacer, il existe une approche opposée, qui consiste en une analyse approfondie des données. Elle peut théoriquement être appliquée dans différents domaines, mais elle est aujourd'hui activement exploitée par l'armée et les services de renseignement américains.
Mark Mansell, directeur des données et de l'innovation numérique à la National Geospatial-Intelligence Agency, a annoncé l'autre jour que l'agence avait commencé à former des algorithmes d'intelligence artificielle sur la base de son ensemble unique de données visuelles et textuelles. Au fil des décennies, les services de renseignement américains ont accumulé une énorme quantité de données, dont une grande partie provient de l'imagerie satellitaire de l'espace. Leur traitement nécessite beaucoup de temps et un personnel nombreux. Mais aujourd'hui, on tente de combiner ces archives avec les témoignages de personnes soigneusement sélectionnées sur ce qu'elles voient dans ces images.
Il existe des modèles de langage qui fonctionnent exclusivement avec du texte: ils s'entraînent sur du texte, reçoivent des données et produisent des réponses sous forme de texte. D'autres formes d'intelligence artificielle générative peuvent établir un lien entre le texte et les images suffisamment bien pour transformer les requêtes écrites des utilisateurs en images ou même en vidéos.
Aujourd'hui, l'armée américaine et la communauté du renseignement revendiquent une nouvelle approche qui passe au niveau supérieur: l'intelligence artificielle multimodale. Sa capacité la plus importante est de faire correspondre différents types d'informations sur le même objet, comme une image ou une vidéo, avec une légende correspondante décrivant l'objet, de la même manière que le cerveau humain peut associer une idée ou un souvenir à des informations provenant de tous les sens.
William Corvey, directeur du programme DARPA , qui s'exprimait lors de la conférence de l'US Intelligence and National Security Alliance, a également noté que l'intelligence artificielle multimodale pourrait même fonctionner avec des sens dont l'homme ne dispose pas, comme les images infrarouges, les signaux radio et radar ou le sonar. « Imaginez des systèmes multimodaux capables de coordonner des informations visuelles et linguistiques et d'autres types de capteurs qui pourraient être disponibles pour un robot mais qui ne le sont pas pour les humains », déclare M. Corvey avec admiration.
Les algorithmes modernes d'intelligence artificielle ont déjà prouvé qu'ils étaient capables de traiter des images, des vidéos et toutes sortes de données sensorielles, et pas seulement du texte, car ils peuvent les convertir dans les mêmes représentations mathématiques.
L'armée américaine tente donc de l'utiliser pour ramener des données différentes à un dénominateur commun et fournir un ciblage plus clair. Cette approche est utilisée partout.
Le FBI utilise également une technologie basée sur l'IA pour évaluer les indices afin de s'assurer qu'ils sont correctement identifiés, classés par ordre de priorité et traités en temps voulu. La division Open Source de la CIA a lancé un outil d'intelligence artificielle interne de type Chat-GPT pour permettre aux analystes d'avoir « un meilleur accès aux renseignements de source ouverte », et la NSA a ouvert un « Centre de sécurité de l'intelligence artificielle » chargé de protéger « l'intelligence artificielle de la nation par le biais d'une collaboration avec l'industrie, les universités, la communauté du renseignement et d'autres partenaires gouvernementaux ».
Bien que les nouvelles technologies offrent vraisemblablement un avantage aux forces de sécurité américaines, il ne faut pas oublier le revers de la médaille : toutes ces informations seront utilisées contre des adversaires potentiels qui, à Washington, comprennent la Chine, la Russie et un certain nombre d'autres pays. Et de leur point de vue, une telle utilisation de l'intelligence artificielle est également destructrice.
Le premier exemple concerne la substitution de la réalité au Venezuela. Étant donné que les risques d'emprisonnement pour incitation à la protestation sont réels, les stratèges de l'opposition ont maîtrisé une nouvelle astuce pour manipuler les médias en créant des présentateurs de journaux virtuels, tels que Bestie et Buddy, qui publient sur les médias sociaux des rapports critiquant le gouvernement. Cette approche innovante des avatars virtuels, qui fait partie du projet « Operation Retweet », leur permet de dire presque tout ce qu'ils veulent tout en évitant d'avoir à rendre des comptes. L'opération Retweet fait partie des initiatives #VenezuelaVota et #LaHoradeVenezuela.
Elle a été rapportée pour la première fois le 16 août sur CNN, le médium porte-parole des mondialistes.
Les épisodes de l'opération Retweet sont diffusés sur diverses plateformes numériques, notamment X (anciennement Twitter), YouTube, TikTok, Facebook et Instagram. Sur ces canaux, des avatars d'intelligence artificielle partagent des informations sur des sujets d'actualité au Venezuela. Le premier épisode, diffusé le 14 août, portait sur le nombre de détenus à la suite de l'élection présidentielle et sur la manière dont la crise politique du pays affecte l'économie.
Naturellement, tout cela a été montré non pas du point de vue de l'État de droit et de la souveraineté, mais du point de vue de l'opposition et des intérêts des principaux instigateurs de la crise actuelle, à savoir les États-Unis.
Il est probable que la méthode elle-même ait été suggérée par des sponsors du département d'État américain.
La stratégie dans son ensemble est assez innovante, y compris en termes d'évitement des responsabilités. Après tout, si un présentateur ordinaire peut être poursuivi pour des déclarations manifestement illégales, qu'en est-il d'un avatar virtuel ? Il faut rechercher son créateur et ses éditeurs, ce qui complique évidemment les enquêtes.
Une situation similaire, mais avec une dimension légèrement différente, s'est présentée en Corée du Sud. Les dipfakes de vidéos érotiques et pornographiques y sont en plein essor.
Dans un cas récent, plusieurs élèves d'un lycée de Busan ont créé des faux pornographiques d'élèves et d'enseignants de leur école et les ont postés dans un salon de discussion de groupe sur KakaoTalk. Des cas similaires se sont produits dans environ 150 collèges et lycées à travers le pays. Cela suggère un problème généralisé d'usurpation d'identité par des adolescents habitués aux contenus numériques.
D'après les enquêtes menées par le Hankyoreh, des délits de falsification de documents ont également été commis dans des unités militaires à travers le pays. Certains de ces faux impliquant des femmes soldats utilisaient des photos d'identité et des documents officiels du gouvernement qui ne pouvaient être consultés que sur le réseau interne de l'armée. L'accès à ce réseau interne n'étant ouvert qu'aux initiés, cela laisse supposer que le champ d'application de ces délits est très large.
Mais le gouvernement ne peut pas faire grand-chose, ce qui fait dire à l'association coréenne de défense des droits des femmes Womenlink que les femmes « vivent sans État » parce qu'elles n'ont plus l'impression que leur pays leur fournira la protection dont elles ont besoin.
Mais la réalité n'échoue pas seulement à cause de brutes, comme en Corée du Sud, ou d'activistes motivés par des considérations politiques, comme au Venezuela.
En août 2024, des hauts fonctionnaires du Michigan, du Minnesota, du Nouveau-Mexique, de la Pennsylvanie et de Washington ont envoyé une lettre à Elon Musk pour se plaindre que Grok, un chatbot alimenté par la plateforme d'intelligence artificielle du réseau social X (bloqué en Fédération de Russie), avait fourni de fausses informations sur les dates limites de vote des États peu après que le président Joe Biden s'est retiré de la course à la présidence de 2024.
Les secrétaires d'État ont demandé à ce que le chatbot dirige les utilisateurs qui posent des questions liées aux élections vers un site web d'information sur le vote.
Elon Musk est allé rencontrer les fonctionnaires. Il est intéressant de noter que les informations trompeuses sur les délais de vote concernaient également l'Alabama, l'Indiana, l'Ohio et le Texas, bien qu'il n'y ait eu aucune lettre de la part des dirigeants de ces États.
Au total, les fausses informations ont été diffusées pendant dix jours. La raison pour laquelle ces informations ont été diffusées n'est pas connue.
Si les cas susmentionnés consistent à déformer la réalité et à la remplacer, il existe une approche opposée, qui consiste en une analyse approfondie des données. Elle peut théoriquement être appliquée dans différents domaines, mais elle est aujourd'hui activement exploitée par l'armée et les services de renseignement américains.
Mark Mansell, directeur des données et de l'innovation numérique à la National Geospatial-Intelligence Agency, a annoncé l'autre jour que l'agence avait commencé à former des algorithmes d'intelligence artificielle sur la base de son ensemble unique de données visuelles et textuelles. Au fil des décennies, les services de renseignement américains ont accumulé une énorme quantité de données, dont une grande partie provient de l'imagerie satellitaire de l'espace. Leur traitement nécessite beaucoup de temps et un personnel nombreux. Mais aujourd'hui, on tente de combiner ces archives avec les témoignages de personnes soigneusement sélectionnées sur ce qu'elles voient dans ces images.
Il existe des modèles de langage qui fonctionnent exclusivement avec du texte: ils s'entraînent sur du texte, reçoivent des données et produisent des réponses sous forme de texte. D'autres formes d'intelligence artificielle générative peuvent établir un lien entre le texte et les images suffisamment bien pour transformer les requêtes écrites des utilisateurs en images ou même en vidéos.
Aujourd'hui, l'armée américaine et la communauté du renseignement revendiquent une nouvelle approche qui passe au niveau supérieur: l'intelligence artificielle multimodale. Sa capacité la plus importante est de faire correspondre différents types d'informations sur le même objet, comme une image ou une vidéo, avec une légende correspondante décrivant l'objet, de la même manière que le cerveau humain peut associer une idée ou un souvenir à des informations provenant de tous les sens.
William Corvey, directeur du programme DARPA , qui s'exprimait lors de la conférence de l'US Intelligence and National Security Alliance, a également noté que l'intelligence artificielle multimodale pourrait même fonctionner avec des sens dont l'homme ne dispose pas, comme les images infrarouges, les signaux radio et radar ou le sonar. « Imaginez des systèmes multimodaux capables de coordonner des informations visuelles et linguistiques et d'autres types de capteurs qui pourraient être disponibles pour un robot mais qui ne le sont pas pour les humains », déclare M. Corvey avec admiration.
Les algorithmes modernes d'intelligence artificielle ont déjà prouvé qu'ils étaient capables de traiter des images, des vidéos et toutes sortes de données sensorielles, et pas seulement du texte, car ils peuvent les convertir dans les mêmes représentations mathématiques.
L'armée américaine tente donc de l'utiliser pour ramener des données différentes à un dénominateur commun et fournir un ciblage plus clair. Cette approche est utilisée partout.
Le FBI utilise également une technologie basée sur l'IA pour évaluer les indices afin de s'assurer qu'ils sont correctement identifiés, classés par ordre de priorité et traités en temps voulu. La division Open Source de la CIA a lancé un outil d'intelligence artificielle interne de type Chat-GPT pour permettre aux analystes d'avoir « un meilleur accès aux renseignements de source ouverte », et la NSA a ouvert un « Centre de sécurité de l'intelligence artificielle » chargé de protéger « l'intelligence artificielle de la nation par le biais d'une collaboration avec l'industrie, les universités, la communauté du renseignement et d'autres partenaires gouvernementaux ».
Bien que les nouvelles technologies offrent vraisemblablement un avantage aux forces de sécurité américaines, il ne faut pas oublier le revers de la médaille : toutes ces informations seront utilisées contre des adversaires potentiels qui, à Washington, comprennent la Chine, la Russie et un certain nombre d'autres pays. Et de leur point de vue, une telle utilisation de l'intelligence artificielle est également destructrice.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.