Page Nav

HIDE

Breaking News:

latest

Ads Place

Les réseaux sociaux prennent-ils les mesures nécessaires pour lutter contre la désinformation générée par l’IA ?

  Une contribution de Bernard Marr pour Forbes US – traduit par Lisa Deleforterie Depuis la mise à disposition de l'IA générative au gra...


 Une contribution de Bernard Marr pour Forbes US – traduit par Lisa Deleforterie

Depuis la mise à disposition de l'IA générative au grand public, la propagation de contenus falsifiés et de désinformation sur les réseaux sociaux a connu une explosion. Aujourd'hui, toute personne ayant un ordinateur et un peu de temps pour suivre des tutoriels peut facilement créer des contenus qui semblent crédibles et prétendre qu'une personne a dit ou fait pratiquement n'importe quoi.

Bien que certains pays aient adopté des lois pour tenter de limiter ce phénomène, leur efficacité est souvent entravée par la possibilité de publier des contenus de manière anonyme. Que faire lorsque même des candidats à la présidence américaine diffusent des contenus générés par l'IA ?

Pourquoi les faux contenus générés par l’IA posent-ils un problème majeur ?

L'utilisation de l'IA pour créer de fausses informations a considérablement augmenté, mettant en péril la confiance dans les processus démocratiques tels que les élections. Les deepfakes générés par l'IA peuvent paraître incroyablement réalistes, et les contenus vidéo et audio sont largement employés pour nuire à des réputations et influencer l'opinion publique. Grâce à la portée massive des réseaux sociaux, ces faux contenus peuvent se propager très rapidement, touchant ainsi un large public.

Par exemple, cette année, des milliers d’électeurs démocrates inscrits dans le New Hampshire, aux États-Unis, ont reçu des appels les incitant à ne pas voter. Une voix, prétendument celle du président Joe Biden, leur expliquait que la prochaine élection primaire de l’État serait une victoire facile et qu'ils devraient plutôt réserver leur vote pour des élections futures plus disputées. Au Bangladesh, des vidéos truquées montrant deux femmes politiques de l’opposition en maillots de bain ont suscité la controverse.

Ce n’est que la partie émergée de l’iceberg. Les chercheurs estiment que plus d’un demi-million de vidéos truquées circulaient sur les réseaux sociaux en 2023. Avec l’élargissement de l’accès à la technologie, ce problème risque de s’aggraver.

Que font les réseaux sociaux pour y remédier ?

La majorité des grandes entreprises de médias sociaux affirment avoir mis en place des mesures pour se protéger contre la prolifération des faux contenus et de la désinformation. Meta, propriétaire de Facebook et Instagram, utilise une combinaison de solutions technologiques et humaines. Des algorithmes analysent chaque contenu publié, et ceux identifiés comme générés par l’IA sont automatiquement étiquetés « AI Info » pour avertir que le contenu pourrait être trompeur. L’entreprise fait également appel à des employés et à des services de vérification des faits externes pour examiner et signaler manuellement les contenus suspects. En outre, Meta privilégie les sources réputées et fiables lorsqu’elle recommande des contenus dans les fils d’actualité des utilisateurs, en supposant que les organisations de presse établies sont moins susceptibles de diffuser de fausses informations pour protéger leur réputation.

De son côté, X (anciennement Twitter) adopte une approche centrée sur les contributions des utilisateurs. Il utilise un système appelé « notes de la communauté », qui permet aux utilisateurs abonnés de signaler et d’annoter les contenus qu’ils jugent trompeurs. Par ailleurs, X a parfois pris des mesures pour exclure de la plateforme les utilisateurs reconnus coupables de déformer les faits concernant des politiciens. Sa politique sur les médias synthétiques et manipulés stipule que les utilisateurs ne doivent pas partager de contenus synthétiques (générés par l’IA) susceptibles de tromper ou de créer de la confusion.

YouTube, appartenant à Google, affirme supprimer activement les contenus trompeurs ou mensongers susceptibles de causer du tort. Pour les contenus jugés ambigus, qui ne violent pas directement les règles mais comportent un certain risque, la plateforme prend des mesures pour réduire leur visibilité dans les recommandations de vidéos aux utilisateurs. Comme chez Meta, ce contrôle est effectué par une combinaison de réviseurs humains et d’algorithmes d’apprentissage automatique.

TikTok, détenu par ByteDance, utilise une technologie appelée « Content Credentials » pour détecter les contenus générés par l’IA, qu’ils soient sous forme de texte, de vidéo ou d’audio, et ajoute automatiquement des avertissements lorsque ces contenus apparaissent dans les fils d’actualité des utilisateurs. Les utilisateurs doivent également auto-certifier tout contenu qu’ils publient et qui inclut des vidéos, images ou audios d’apparence réaliste créés par l’IA, en précisant que ces contenus ne sont pas destinés à tromper ou à nuire.

Ces mesures sont-elles efficaces et quelles autres initiatives pourraient être mises en place ?

Malgré ces initiatives, les contenus générés par l’IA et délibérément trompeurs continuent de circuler largement sur toutes les grandes plateformes, montrant qu’il reste encore beaucoup à faire. Bien que les mesures technologiques et réglementaires adoptées par les réseaux sociaux et les gouvernements soient importantes, elles ne suffiront probablement pas à résoudre le problème à elles seules.

L’éducation jouera un rôle essentiel pour que nous puissions continuer à faire confiance à ce que nous voyons. Il est crucial d’apprendre à développer une pensée critique pour identifier si un contenu est réel ou s’il cherche à nous tromper.

La lutte contre les faux contenus et la désinformation est un combat permanent nécessitant la coopération des créateurs de contenu, des plateformes, des législateurs, des éducateurs, ainsi que des utilisateurs et consommateurs d’informations en ligne. Il est préoccupant de constater que des outils d’IA encore plus avancés, capables de falsifications et de tromperies encore plus crédibles, sont probablement en développement. Cela signifie qu’élaborer des méthodes efficaces pour contrer ces risques sera l’un des défis les plus pressants auxquels la société devra faire face dans les années à venir.

Aucun commentaire

Les visiteurs