Une courte vidéo, grossièrement générée par l’intelligence artificielle, circule à grande vitesse sur les réseaux sociaux. Présentée comme un « divertissement », elle met en scène — de manière fabriquée — le Roi du Maroc chassant, à coups de pied, son chef de gouvernement, pour signifier la fin de sa mission dans le sillage de la crise sociale. Ce contenu, qui cherche à faire rire en forçant le trait, provoque un malaise profond et relance un débat urgent : jusqu’où peut-on aller avec les outils d’IA, et quelle législation pour encadrer ces dérives ?
Une « blague » qui abîme les symboles
Derrière l’apparence d’un clip anodin se cache une double atteinte : à l’image des institutions et à la confiance du public. En détournant la figure du chef de l’État et en humiliant le chef de gouvernement, la vidéo brouille les repères civiques et banalise l’irrespect des symboles nationaux. Le risque est d’autant plus grand que ces formats courts, viraux et très partageables, touchent un public jeune souvent peu outillé pour distinguer la parodie de la manipulation. Pire, des parents montrent parfois ces vidéos « pour rire », au lieu d’expliquer pourquoi elles sont problématiques.
Le défi des deepfakes et de la responsabilité
Cette séquence illustre la facilité avec laquelle des deepfakes — ou contenus synthétiques — peuvent être créés, sans compétence technique avancée ni intention explicitement malveillante. Mais l’absence d’intention ne gomme pas la responsabilité. Dans un contexte social tendu, la représentation dégradante des plus hautes fonctions publiques ne relève plus du simple humour de mauvais goût : elle alimente la défiance, polarise le débat et peut être instrumentalisée.
L’urgence d’un cadre clair
Le vide normatif laisse le champ libre aux excès. Un encadrement modernisé devrait reposer sur quatre piliers :
-
Définir clairement les contenus synthétiques et imposer leur étiquetage (watermarking, disclosures) sur les plateformes.
-
Responsabiliser les diffuseurs (créateurs, comptes relais, plateformes) avec des procédures de retrait rapides et des sanctions graduées en cas d’atteinte aux personnes, aux institutions ou à l’ordre public.
-
Protéger les symboles et fonctions constitutionnelles par des dispositions spécifiques contre la falsification visuelle et sonore portant atteinte à la dignité des institutions.
-
Éduquer aux médias et à l’IA dès le collège : apprendre à détecter, contextualiser, vérifier.
Plateformes, éditeurs et autorités : un triangle d’action
Les plateformes doivent renforcer la détection automatique des contenus montés et afficher, de façon visible, l’origine synthétique. Les éditeurs et créateurs ont, eux, un devoir de sobriété et de transparence. Quant aux autorités compétentes, elles doivent doter le pays d’une législation dédiée à l’IA générative, articulée avec le droit pénal, la protection des données et les textes encadrant la communication audiovisuelle. L’objectif n’est pas de restreindre la liberté d’expression, mais de prévenir la manipulation et de protéger la dignité des personnes et des institutions.
La ministre chargée de la Transition numérique a, plus que jamais, du pain sur la planche. Mettre l’IA « sur de bons rails » au Maroc suppose : un registre de transparence des modèles, des standards d’horodatage et de filigrane, un guichet unique de signalement, des partenariats public-privé pour la détection des deepfakes, et une stratégie nationale d’éducation au numérique. La défense de l’image du Roi et la préservation du respect des hautes fonctions doivent figurer au premier rang de cette feuille de route.
Conclusion. Cette vidéo n’est pas un simple canular : elle est le symptôme d’un temps où la technologie devance le droit. Pour éviter que l’IA ne devienne la porte ouverte à toutes les dérives, il faut un cadre clair, des outils techniques robustes et une vigilance collective. La modernité numérique ne s’oppose pas au respect des institutions ; elle l’exige.
Par Salma Semmar
.