Meta identifiera les images générées par l’IA sur vos réseaux sociaux

09 Fév 2024

L’intention de l’entreprise est de minimiser la prolifération de fausses images

Le géant américain Meta a annoncé, mardi dernier (6), qu’il identifierait « dans les prochains mois » toute image générée par l’IA (Intelligence Artificielle) qui apparaît sur ses réseaux sociaux Facebook, Instagram et Threads.

« Dans les mois à venir, nous étiquèterons les images que les utilisateurs publient sur Facebook, Instagram et Threads chaque fois que nous pourrons détecter des indicateurs, conformément aux normes de l’industrie, qui révèlent si elles sont générées par l’IA », a annoncé Nick Clegg, responsable des affaires internationales chez Meta, Nick Clegg, sur un blog.

L’entreprise identifie déjà les images réalisées par des robots à l’aide de son propre outil, Meta IA, lancé en décembre.

L’essor de l’IA générative fait craindre que les gens utilisent ces outils pour semer le chaos politique – Fabrice Coffrini/AFP

Désormais, « nous voulons pouvoir faire la même chose avec des contenus créés avec des outils d’autres sociétés » comme Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, a ajouté le responsable de Meta.

« Nous construisons actuellement cet outil et commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application dans les mois à venir », a-t-il souligné.

L’essor de l’IA générative fait craindre que les gens utilisent ces outils pour semer le chaos politique, notamment par la désinformation. Près de la moitié de la population mondiale se rendra aux urnes en 2024.

Outre le risque politique, le développement de programmes d’IA générative pourrait entraîner un flux incontrôlable de contenus dégradants, selon de nombreux militants et régulateurs.

Un exemple est celui des « deepfakes » pornographiques de femmes célèbres, un phénomène qui touche également de nombreux anonymes.

MINIMISER

Avant sa suppression, le « deepfake » de la star américaine Taylor Swift avait été vu 47 millions de fois sur le réseau social X (ex-Twitter) fin janvier.

Selon la presse américaine, la publication est restée en ligne sur la plateforme pendant environ 17 heures.

Si Nick Clegg a affirmé que l’outil « n’éliminera pas complètement » le risque de produire de fausses images, il « minimisera certainement » leur prolifération « dans les limites de ce que permet actuellement la technologie ».

« Ce n’est pas parfait, cela ne couvrira pas tout, la technologie n’est pas tout à fait prête. Mais jusqu’à présent, c’est la tentative la plus avancée pour offrir une transparence significative à des milliards de personnes dans le monde », a assuré Clegg à l’AFP.

« J’espère profondément qu’en faisant cela, en empruntant cette voie, nous encouragerons le reste de l’industrie (…) à travailler ensemble et à essayer réellement de développer les normes communes dont nous avons besoin », a défendu le leader du Meta, affirmant qu’il était prêt à « partager » sa technologie « de la manière la plus large possible ».

Mi-janvier, la société californienne OpenAI, créatrice de ChatGPT, a également annoncé le lancement d’outils de lutte contre la désinformation et souligné sa volonté de ne pas autoriser l’utilisation de ses technologies à des fins politiques.

« Nous voulons garantir que notre technologie ne soit pas utilisée d’une manière qui nuit » au processus démocratique, a expliqué OpenAI, soulignant que son générateur d’images DALL-E 3 contient des « mises en garde » pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats.

Normandie Mkt Contact