Fact-checking

Sora 2 transforme la vidéo en menace pour la vérité : attention aux deepfakes

Sora 2 produit des vidéos quasi indiscernables; la confiance dans la vidéo s’effrite.

La deuxième version de Sora génère des deepfakes très convaincants.
Des exemples montrent des vidéos qui inventent dialogues et contextes.
Cela pose un risque direct pour la santé publique et la sécurité de l’information.

What you need to know

  • The fact: Sora 2 crée des vidéos qui peuvent cloner des personnes et inventer des scènes.
  • Who is concerned: grand public, réseaux sociaux, médias, autorités sanitaires.
  • When : article RTBF daté 16 octobre 2025 rapporte les tests et observations.
  • Or : exemples et discussions sur des réseaux sociaux et plateformes en ligne.

Key figures

  • Février 2024 — première version de Sora lancée par Open AI et déjà source d’inquiétude.
  • 9 octobre 2025 — article du New York Times cité par RTBF sur l’impact des générateurs vidéo.

Concretely, for you

  • What changes: la vidéo n’est plus automatiquement une preuve objective.
  • Useful steps: vérifier l’origine d’une vidéo, chercher le logo, contrôler la source.
  • Risks if you don't act: désinformation sanitaire (ex. faux remèdes), atteintes à la réputation.
  • Exceptions: poursuites et outils de détection peuvent encore identifier certains faux.

Context

RTBF rapporte que Sora 2 brode autour d’un concept initial et invente des dialogues.
Le logo de Sora reste visible sur certains essais, et le faux est « clairement détectable… pour le moment ».

Le New York Times avertit que l’arrivée de Sora et d’autres générateurs vidéo lancés en 2025 par Meta et Google a des implications majeures.
« La société dans son ensemble devra traiter les vidéos avec autant de scepticisme que les gens traitent déjà les mots ». — New York Times, 09/10/2025.

What remains to be clarified

  • La fiabilité à long terme des outils de détection face aux prochaines versions.
  • Les mesures réglementaires concrètes et leur calendrier pour encadrer ces outils.

Quote

« La société dans son ensemble devra traiter les vidéos avec autant de scepticisme que les gens traitent déjà les mots » — New York Times, 09/10/2025.

Sources

Source : RTBF

Source : The New York Times

Test de Sora 2 : l’IA qui clone votre image et place les deepfakes au cœur des réseaux
Visuel d’illustration — Source : www.rtbf.be

Original source: See the original publication

Date : 2025-10-16 14:14:00 — Site : www.rtbf.be


Author : Cédric Balcon-Hermand — Biography & projects

Application : Download Artia13 News (Android)

Our anti-disinformation AI: Analyze Fake News (Artia13)


Published on: 2025-10-16 14:14:00 — Slug: on-a-teste-sora-2-lia-qui-vous-clone-dans-toutes-les-situations-quand-les-deepfakes-sont-au-coeur-dun-reseau-social-rtbf-actus

Hashtags: #testé #Sora #lIA #qui #vous #clone #dans #toutes #les #situations #quand #les #deepfakes #sont #coeur #dun #réseau #social #RTBF #Actus

Cédric Balcon-Hermand

Since 1998, the Artia13 association has been working for truth, against manipulation, and for a secure and civic cybersphere.

Cédric Balcon-Hermand has 10547 posts and counting. See all posts by Cédric Balcon-Hermand

blank

Leave a Reply