Éducation aux médias

Alerte tsunami sur la Côte d’Azur : une rumeur infondée

Introduction : Début juillet 2025, des vidéos circulant sur TikTok affirmaient qu’un « tsunami » frapperait Marseille, Toulon et Nice le 10 juillet. Ces allégations ont été démenties par les autorités et vérifiées par des médias spécialisés, mettant en lumière des techniques de désinformation fréquentes autour des catastrophes naturelles.

Faits vérifiés

Franceinfo a confirmé qu’aucune alerte tsunami officielle n’avait été émise pour le littoral méditerranéen français le 10 juillet 2025, malgré la viralité des vidéos, qui ont cumulé plus de trois millions de vues. L’AFP Factuel a également documenté des cas similaires, où de vieilles images ou des vidéos générées par IA ont été utilisées pour créer de fausses alertes de tsunami à travers le monde.

Développement

Les publications en question affirmaient qu’un tsunami allait frapper la région. Franceinfo a vérifié ces informations et a constaté qu’aucune alerte n’avait été diffusée par les services compétents ce jour-là. La viralité de ces vidéos peut être attribuée à leur format court et anxiogène. L’AFP a également noté que des vidéos anciennes étaient souvent réutilisées hors contexte, comme une vague filmée en Californie en 2023, présentée comme un tsunami de 2025.

Désinformation et rumeurs

  • « Tsunami sur le Sud de la France le 10/07/2025 » : faux, aucune alerte officielle n’a été émise.
  • « Vidéo d’un tsunami au Japon (août 2025) » : faux, la séquence est générée par IA.
  • « Tsunami en Californie en janvier 2025 » : faux, vidéo ancienne de 2023 ressortie hors contexte.

Quiz interactif EMI

Réponds puis clique pour vérifier :

  1. Le 10 juillet 2025, une alerte tsunami a été émise pour la Côte d’Azur.



  2. Les vidéos virales sur TikTok étaient basées sur des faits réels.



  3. Des vidéos anciennes ont été utilisées pour créer de fausses alertes.





Lexique

  • Désinformation : Diffusion volontaire de contenus faux ou trompeurs pour influencer ou manipuler.
  • Rumeur : Information non confirmée, qui circule sans source fiable.
  • Vidéo générée par IA : Contenu créé par intelligence artificielle, souvent utilisé pour tromper.

Exercice EMI

Choisis une vidéo virale récente sur une catastrophe. 1) Note le titre, la date et le compte. 2) Vérifie si des médias fiables en parlent. 3) Compare les images et légendes. 4) Conclus en une phrase : « confirmé » / « trompeur » / « faux ».

Je m’auto-évalue

  • [ ] J’ai identifié la source
  • [ ] J’ai comparé avec 2 médias
  • [ ] J’ai vérifié les images
  • [ ] J’ai reformulé avec mes mots

Catégorie : Fact checking et désinformation

Visuel d’illustration — Source : artia13.icu

Source d’origine : Voir la publication initiale

Date : 2025-12-06 06:38:00 — Site : artia13.icu


Auteur : Cédric Balcon-Hermand — Biographie & projets

Application : Téléchargez Artia13 Actualité (Android)

Notre IA anti-désinformation : Analyzer Fake News (Artia13)


Publié le : 2025-12-06 06:38:00 — Slug : sud-de-la-france-des-videos-tiktok-annoncant-un-tsunami-le-10-juillet-2025-ont-ete-dementies-aucune-alerte-officielle

Hashtags : #Sud #France #des #vidéos #TikTok #annonçant #tsunami #juillet #ont #été #démenties #aucune #alerte #officielle

Cédric Balcon-Hermand

Depuis 1998, l’association Artia13 agit pour la vérité, contre la manipulation, et pour une cybersphère sécurisée et citoyenne.

Cédric Balcon-Hermand has 11948 posts and counting. See all posts by Cédric Balcon-Hermand

blank

Laisser un commentaire