Artwork

A tartalmat a France Médias Monde biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a France Médias Monde vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

Plusieurs pays utilisent ChatGPT pour leurs opérations d’influence

3:28
 
Megosztás
 

Manage episode 421978029 series 3367245
A tartalmat a France Médias Monde biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a France Médias Monde vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

La Russie, la Chine, l’Iran et Israël auraient utilisé l’IA générative ChatGPT pour générer de faux commentaires et des articles de presse, affirme l’éditeur du programme OpenAI.

La firme américaine OpenAI sur son blog officiel a identifié au moins deux cas de détournement massif de l’information provenant de la Russie. Des manipulations qui ont été réalisées à l’aide de son logiciel par la Chine. D’autres malversations du même genre ont été attribuées à l’Iran ainsi qu’une vague de désinformation orchestrée par Israël. Toutes ces actions de propagande ont un point commun : l’utilisation de la technologie d’OpenAI. Elle est employée pour générer de faux messages sur les médias sociaux, traduire et éditer des articles de presse fictifs et des titres trompeurs dans une autre langue. Le logiciel est aussi utilisé pour créer des programmes informatiques permettant d’automatiser l’envoi de ces contenus falsifiés.

Trafic d’influence par IA en période d’élection

Le but principal de ces opérations de désinformation est la déstabilisation politique des nations engagées dans un processus électoral. Mais l'objectif, à plus long terme, est d’en retirer un avantage économique, nous précise Francois Deruty, directeur des opérations de cybersécurité chez Sekoia io. Cette entreprise, créée en France, a pour mission de développer les capacités de protection du numérique européen, y compris quand il s'agit de contrer les tentatives de désinformation qui seraient lancées par des puissances étrangères : « Les tentatives étatiques de déstabilisation politique en ligne ont de plus en plus recours à l’IA générative. Mais en plus d'obtenir des avantages politiques immédiats, ces trafics d’influence ont aussi des visées économiques. Par exemple, l'élection présidentielle de la Moldavie, en fin d'année, est extrêmement importante pour la Russie, en raison du conflit qu’elle a déclenchée en Ukraine », explique-t-il.

« Le Kremlin veut absolument gagner Odessa et conquérir toute la péninsule qui est autour. Si la Moldavie, lors des prochaines élections de la présidentielle, bascule du côté pro russe, Moscou aura alors un accès complet à la mer lui permettant de contrôler une grosse partie des exportations du blé et des céréales. Et l'influence en ligne que la Russie est en train de mener en Moldavie peut avoir des conséquences très concrètes dans la vie quotidienne de chaque citoyen européen. »

OpenAI a analysé ces campagnes d’influence exploitant ChatGPT

Par exemple, l’opération dénommée Doppelgänger qui a été lancée par la Russie, le terme désignant dans certains folklores européens le double maléfique d’une personne. Le Kremlin a employé le programme d’OpenAI pour générer des commentaires anti-Ukraine et éditer de faux articles justifiant son agression contre l'Ukraine, en français, en allemand et en polonais. ChatGPT a également été mis à contribution pour développer un outil informatique permettant de diffuser automatiquement cette propagande sur la messagerie cryptée Telegram.

Autre exemple, la campagne Spamouflage de 2023, dont l’origine est attribuée à la Chine qui s’en servait alors pour analyser les publications sur les réseaux sociaux afin de créer un contre discours progouvernemental. Du côté de l’Iran, même constat ! L’IA générative a été employée pour diffuser ou traduire des articles et des gros titres en faveur du régime, contre Israël et les États-Unis. L’État hébreu s’est aussi appuyé sur ChatGPT dans le cadre d’une campagne de désinformation intitulée Zero Zeno consistant à générer des personnes fictives. Ces pseudo-internautes étaient chargés de publier des messages anti-Islam sur des comptes en ligne aux États-Unis, au Canada, mais aussi en Israël.

OpenAI tente toutefois de minimiser la portée de ces opérations d’influence, expliquant dans son rapport que les internautes repèrent très facilement qu’il s’agit de campagnes de désinformation.

  continue reading

24 epizódok

Artwork
iconMegosztás
 
Manage episode 421978029 series 3367245
A tartalmat a France Médias Monde biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a France Médias Monde vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

La Russie, la Chine, l’Iran et Israël auraient utilisé l’IA générative ChatGPT pour générer de faux commentaires et des articles de presse, affirme l’éditeur du programme OpenAI.

La firme américaine OpenAI sur son blog officiel a identifié au moins deux cas de détournement massif de l’information provenant de la Russie. Des manipulations qui ont été réalisées à l’aide de son logiciel par la Chine. D’autres malversations du même genre ont été attribuées à l’Iran ainsi qu’une vague de désinformation orchestrée par Israël. Toutes ces actions de propagande ont un point commun : l’utilisation de la technologie d’OpenAI. Elle est employée pour générer de faux messages sur les médias sociaux, traduire et éditer des articles de presse fictifs et des titres trompeurs dans une autre langue. Le logiciel est aussi utilisé pour créer des programmes informatiques permettant d’automatiser l’envoi de ces contenus falsifiés.

Trafic d’influence par IA en période d’élection

Le but principal de ces opérations de désinformation est la déstabilisation politique des nations engagées dans un processus électoral. Mais l'objectif, à plus long terme, est d’en retirer un avantage économique, nous précise Francois Deruty, directeur des opérations de cybersécurité chez Sekoia io. Cette entreprise, créée en France, a pour mission de développer les capacités de protection du numérique européen, y compris quand il s'agit de contrer les tentatives de désinformation qui seraient lancées par des puissances étrangères : « Les tentatives étatiques de déstabilisation politique en ligne ont de plus en plus recours à l’IA générative. Mais en plus d'obtenir des avantages politiques immédiats, ces trafics d’influence ont aussi des visées économiques. Par exemple, l'élection présidentielle de la Moldavie, en fin d'année, est extrêmement importante pour la Russie, en raison du conflit qu’elle a déclenchée en Ukraine », explique-t-il.

« Le Kremlin veut absolument gagner Odessa et conquérir toute la péninsule qui est autour. Si la Moldavie, lors des prochaines élections de la présidentielle, bascule du côté pro russe, Moscou aura alors un accès complet à la mer lui permettant de contrôler une grosse partie des exportations du blé et des céréales. Et l'influence en ligne que la Russie est en train de mener en Moldavie peut avoir des conséquences très concrètes dans la vie quotidienne de chaque citoyen européen. »

OpenAI a analysé ces campagnes d’influence exploitant ChatGPT

Par exemple, l’opération dénommée Doppelgänger qui a été lancée par la Russie, le terme désignant dans certains folklores européens le double maléfique d’une personne. Le Kremlin a employé le programme d’OpenAI pour générer des commentaires anti-Ukraine et éditer de faux articles justifiant son agression contre l'Ukraine, en français, en allemand et en polonais. ChatGPT a également été mis à contribution pour développer un outil informatique permettant de diffuser automatiquement cette propagande sur la messagerie cryptée Telegram.

Autre exemple, la campagne Spamouflage de 2023, dont l’origine est attribuée à la Chine qui s’en servait alors pour analyser les publications sur les réseaux sociaux afin de créer un contre discours progouvernemental. Du côté de l’Iran, même constat ! L’IA générative a été employée pour diffuser ou traduire des articles et des gros titres en faveur du régime, contre Israël et les États-Unis. L’État hébreu s’est aussi appuyé sur ChatGPT dans le cadre d’une campagne de désinformation intitulée Zero Zeno consistant à générer des personnes fictives. Ces pseudo-internautes étaient chargés de publier des messages anti-Islam sur des comptes en ligne aux États-Unis, au Canada, mais aussi en Israël.

OpenAI tente toutefois de minimiser la portée de ces opérations d’influence, expliquant dans son rapport que les internautes repèrent très facilement qu’il s’agit de campagnes de désinformation.

  continue reading

24 epizódok

Minden epizód

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv