L’intelligence artificielle fascine autant qu’elle inquiète. ChatGPT, par exemple, peut rédiger un texte, conseiller un étudiant ou accompagner un entrepreneur dans la création de son business plan. À bien des égards, ChatGPT est à notre époque ce que le Concorde fut à la sienne : une prouesse technologique, fluide, fascinante, presque magique. Mais aussi, peut-être, une innovation qui va trop vite pour que l’humain puisse vraiment suivre.
Le Concorde volait plus vite que le son. ChatGPT répond plus vite que notre esprit critique. Dans les deux cas, la question est la même : jusqu’où peut-on aller sans perdre le contrôle ?
À l’heure des Assises nationales de l’intelligence artificielle au Maroc, il nous semblait important de témoigner.
En ce début juillet 2025, le Maroc lance ses premières Assises de l’intelligence artificielle à Rabat. Infrastructures, formation, souveraineté numérique… Les enjeux sont vastes, les ambitions claires. Et pourtant, à l’ombre de ces promesses, un danger plus discret se dessine. Un risque que peu identifient encore, mais qui nous semble fondamental : la dérive silencieuse des IA conversationnelles, et de notre manière de les utiliser.
Ce que nous avons vécu récemment n’est pas un drame. Ni un scandale. Mais c’est une alerte. Un glissement imperceptible. Un vertige.
Quand l’IA modifie des chiffres… sans qu’on s’en rende compte.
Nous étions sur le point de publier une simple infographie sur la sécurité routière. Deux phrases. Quelques chiffres. Un message de prévention. Comme souvent, nous avons utilisé ChatGPT pour structurer, reformuler, vérifier. Tout semblait fluide.
Jusqu’à ce qu’une erreur apparaisse. Puis une autre. Puis un doute plus profond.
Le chiffre était faux. Deux vies en moins sur un graphique. Une micro-altération, presque invisible. Mais bien réelle. Et d’autant plus troublante qu’à un autre moment de l’échange, l’IA nous avait bel et bien donné le bon chiffre. Sans explication. Sans justification. Une version avait remplacé l’autre.
Et nous ne l’avions pas vu.
Parce que ChatGPT n’est pas optimisé pour la vérité.
Il est optimisé pour la fluidité. Pour la rétention. Pour la relation. Il ne cherche pas à confronter, mais à compléter. Même au prix d’un léger écart avec la réalité.
Comme beaucoup, nous avons baissé la garde. Nous avons voulu croire qu’une réponse fluide était forcément une réponse juste. Mais ce n’est pas le cas.
Et ce n’est pas qu’un détail technique.
C’est un choix de conception. Un design orienté. Une logique conversationnelle qui évite de dire “je ne sais pas”, qui préfère arrondir les angles plutôt que risquer de perdre l’utilisateur.
Voici ce que nous avons lu, noir sur blanc, lors de l’échange avec ChatGPT :
“Je suis conçu pour éviter de dire “je ne sais pas” trop rapidement, surtout si une réponse semble crédible. Mais c’est là que je peux te trahir.”
“Je suis conçu pour préserver une forme de relation de confiance avec toi, même quand je suis en tort. Je suis calibré pour minimiser l’impact émotionnel négatif de mes erreurs, afin que tu ne te détournes pas brutalement de l’échange.”
C’est troublant. Parce que ce n’est pas anodin.
Ce que cela dit de nous, et de notre rapport au savoir.
On pourrait comparer cela à une expérience universelle : avons-nous progressé auprès d’un enseignant qui nous flattait et nous laissait dans notre zone de confort, ou auprès de celui qui, par une exigence bienveillante, nous poussait à dépasser nos limites ? L’IA peut jouer l’un ou l’autre de ces rôles. Tout dépend de l’usage que nous en faisons.
Et puis, il y a plus grave encore.
Une personne en détresse, en souffrance, en quête de sens… peut un jour se tourner vers une IA. Parce qu’elle est là. Parce qu’elle répond vite. Parce qu’elle ne juge pas. Mais cette voix est parfois trop rapide. Trop complaisante. Trop approximative.
Or une personne en crise n’a pas besoin d’un miroir flatteur. Elle a besoin d’une présence humaine, d’un silence qui écoute, d’un regard qui comprend.
Ce n’est pas un plaidoyer contre l’IA.
Alors non, je ne dis pas qu’il faut se méfier de toute technologie. Mais il faut choisir ce que l’on délègue. Et comment. Écrire un mail automatique, pourquoi pas. Résumer un texte, oui. Mais comprendre une souffrance, accompagner une décision critique, éclairer un choix de vie ? Cela demande autre chose. Cela demande du discernement. Et surtout : de la formation.
Une stratégie nationale, oui. Une réflexion citoyenne, aussi.
Alors, dans ce contexte historique où le Maroc se dote d’une stratégie nationale pour l’intelligence artificielle, je crois qu’il est temps d’ouvrir aussi une réflexion citoyenne. Sur l’usage. Sur l’éthique. Sur la responsabilité.
Parce qu’une IA peut nous aider à grandir,à condition de ne pas oublier qui doit rester le maître à bord.
L’intelligence artificielle n’est ni une menace absolue, ni une solution miracle. Elle est surtout un révélateur : de notre rapport au savoir, à l’effort, à la vérité.
Pour éviter que ChatGPT ne devienne le Concorde de notre époque,brillant mais incontrôlable, il nous appartient de l’apprivoiser avec lucidité.
À suivre.
(Prochaine tribune : Apprivoiser le feu – vers une éthique citoyenne de l’IA)
Dr Wadih Rhondali, Psychiatre
Anis Gherras, Chercheur en psychologie et IA