Sur les plateformes Meta, la transparence sur l’IA est désormais de mise dans les pubs politiques. Cette nouvelle règle vise à éviter la diffusion de messages trompeurs aux électeurs, à l’approche de la présidentielle américaine de 2024.
Les pubs politiques devront révéler toute utilisation d’éléments numériquement modifiés
Dans un communiqué publié mercredi, le géant des réseaux sociaux a dévoilé une mesure majeure visant à renforcer la transparence dans les pubs politiques. Dès 2024, à l’échelle mondiale, les annonceurs seront tenus de divulguer toute utilisation d’images ou de vidéos photoréalistes, ainsi que de sons audio réalistes, dans les publications liées à la politique, aux élections présidentielles ou portant sur des sujets de société. Cette initiative vise à contrôler la diffusion de contenus et pubs politiques numériquement créés ou modifiés, représentant de manière trompeuse des individus réels en train de dire ou de faire quelque chose qu’ils n’ont pas réellement dit ou fait. Une étape cruciale dans la lutte contre la désinformation en ligne et le maintien de l’intégrité des pubs politiques.
Meta : des mesures pour encadrer les contenus visuels et sonores dans les publicités
Dans une démarche visant à accroître la transparence des pubs politiques, Meta a annoncé de nouvelles règles englobant également les contenus visuels et sonores. Ces directives incluent les publicités présentant « une personne d’apparence réaliste qui n’existe pas ou un événement d’apparence réaliste qui ne s’est pas produit » ainsi que « un événement réaliste qui se serait produit, dont le contexte de l’image, de la vidéo ou d’un enregistrement vocal n’est pas du tout conforme à l’événement original ».
Dans ces situations, Meta s’engage à enrichir les informations disponibles sur les pubs politiques en question. À noter que les ajustements mineurs tels que des recadrages ou des corrections de couleurs sur une photo, sans impact significatif sur le message, ne nécessiteront pas de signalement de la part des annonceurs. Un pas de plus vers la transparence dans le paysage des pubs politiques.
La transparence, une nécessité pour garantir l’intégrité des informations à l’ère de l’IA générative
L’avènement de l’intelligence artificielle générative, permettant la production instantanée de textes, images et sons en réponse à des requêtes simples, ouvre la voie à la création facile de divers contenus. Parmi cela, les redoutables « deepfakes » – des photos ou vidéos manipulées dans un dessein trompeur, sont parfois difficiles à détecter. Cette avancée soulève des préoccupations à Washington et à Bruxelles, incitant les autorités à chercher des cadres réglementaires et à exiger la transparence pour cette technologie en forte expansion, notamment dans les pubs politiques.
Les inquiétudes portent principalement sur les implications potentielles pour la démocratie. En réponse, des efforts sont en cours pour assurer une grande transparence de l’IA dans le domaine des pubs politiques. Cela reflète la nécessité de prévenir les abus et de garantir l’intégrité des informations dans le paysage médiatique actuel.
Comment le président Biden et Microsoft veulent protéger les élections
En octobre 2023, le président américain, Joe Biden, a approuvé un décret imposant des directives aux entreprises du secteur de l’intelligence artificielle (IA), axées sur la sécurité et l’utilisation responsable de ces technologies. Le chef d’État démocrate, âgé de 80 ans, a évoqué son expérience avec une vidéo deepfake à son effigie, exprimant sa préoccupation quant aux possibles manipulations malveillantes de l’opinion publique.
À la Maison Blanche, l’accent est mis sur la nécessité pour les entreprises de développer des outils permettant de reconnaître les contenus générés par l’IA. Dans la même veine, Microsoft a récemment dévoilé des initiatives visant à « protéger les élections », comprenant un outil destiné aux candidats aux élections pour apposer un filigrane numérique sur leurs pubs politiques, renforçant ainsi leur authenticité.
Une nouvelle règle pour guider toute campagne politique et les gouvernements démocratiques
En adoptant cette nouvelle règle, le géant informatique s’engage à former une équipe dédiée pour guider les responsables de campagnes politiques dans une meilleure compréhension de l’utilisation de l’intelligence artificielle. Parallèlement, la création d’un centre est annoncée, visant à soutenir « les gouvernements démocratiques dans le monde dans la mise en place de processus électoraux sécurisés et résilients ». Brad Smith, président de Microsoft, met en lumière l’importance de ces mesures en soulignant que « plus de deux milliards de personnes dans le monde auront l’occasion de voter lors d’élections nationales au cours des 14 prochains mois. » Ces initiatives s’inscrivent dans un contexte dans lequel les autorités surveillent de très près Meta dans divers domaines, dont la protection des données personnelles ou encore la protection des enfants.
Comment le géant californien lutte contre la désinformation sur ses plateformes
Depuis le retentissant scandale impliquant Cambridge Analytica et Facebook, qui a eu un impact crucial dans les élections américaines de 2016 et le référendum sur le Brexit au Royaume-Uni, le géant californien a entrepris une série de mesures pour contrer les fausses pubs politiques circulant sur ses plateformes.
Dans une récente déclaration, l’entreprise rappelle son engagement constant à supprimer les pubs en violation de ses règlements, qu’ils soient générés par l’intelligence artificielle ou par des individus. Elle souligne également le rôle essentiel de partenaires indépendants, dont l’AFP, dans la vérification des faits et la suppression des pubs politiques classées comme fausses, altérées, partiellement fausses ou dépourvues de contexte. L’AFP fait partie d’une multitude de médias rémunérés par Meta dans le cadre de son programme mondial de vérification des contenus.
Avec ETX / DailyUp