Les images générées par l’IA paraissent plus vraies que nature et remettent en question notre perception du réel
Images générées par l’IA : réalité ou fiction ?
Ces capsules vidéos sont entièrement conçues par des outils tels que Sora2, développé par OpenAI, l’éditeur de ChatGPT. Pour l’instant, Sora2 n’est réellement accessible qu’aux États-Unis et au Canada, mais les vidéos produites par l’IA inondent déjà les réseaux sociaux jusqu’en Suisse.
Impact et controverses
Ces contenus brouillent les frontières entre le réel et le virtuel et soulèvent plusieurs questions, notamment autour de l’utilisation de l’image de célébrités, parfois décédées, qui serait en violation du droit d’auteur lorsque ces vidéos sont publiées.
Le mécanisme de trompe-l’œil visuel
Les spécialistes expliquent que le cerveau peut être facilement trompé par des images générées par l’IA et être amené à croire à leur authenticité. Les procédés actuels s’adaptent simplement aux moyens techniques disponibles aujourd’hui.
Selon ce expert, l’objectif principal de ces vidéos est capter l’attention des utilisateurs, et les plateformes jouent un rôle majeur dans leur diffusion.
Prudence et éducation aux médias
Il est crucial de douter et de remettre en question tout ce qui est vu sur les réseaux et les plateformes vidéo. L’éducation aux médias doit être révisée aussi bien pour les enfants que pour les adultes afin d’apprendre à décoder et à repérer les informations contenues dans ces vidéos.
Pour repérer les contenus potentiellement faux, on peut examiner des signes d’incohérence: mouvements improbables, comportements déconcertants, etc. On peut citer l’exemple d’une fausse vidéo de surveillance montrant une personne dans les toilettes, avec un ours passant par la fenêtre, qui invite à interroger la logique de présence d’une caméra à cet endroit.
Des ressources accessibles sur les réseaux sociaux proposent des conseils pour démasquer les vidéos fausses et comprendre les limits des images générées par l’IA.
Réglementation et perspectives européennes
En Europe, OpenAI devra se conformer à plusieurs cadres juridiques afin d’obtenir une autorisation d’exploitation. Malgré ces exigences, des spécialistes redoutent que des applications similaires soient lancées rapidement, mais sans garde-fous suffisants, ce qui pourrait banaliser la désinformation et les fake news.
Pour prévenir ces risques, certains estiment que s’éloigner des réseaux sociaux n’est peut-être pas la solution universelle, mais cela pourrait devenir une conséquence. Selon Niels Weber, les utilisateurs pourraient se lasser de devoir sans cesse questionner ce qu’ils voient et en venir à penser que les réseaux ne répondent plus à leurs attentes.
Sujet radio: Yann Amedroz et Foued Boukari. Adaptation web: Julie Liardet.