Journalisme : la Tunisie adopte une charte nationale pour encadrer l’usage de l’IA dans les rédactions

Alors que l’intelligence artificielle s’impose à marche forcée dans les salles de rédaction du monde entier, bousculant les pratiques journalistiques et suscitant d’intenses débats sur la fiabilité de l’information, la transparence éditoriale et l’avenir des professionnels des médias, la Tunisie franchit un pas décisif en se dotant d’une charte nationale pour le déploiement de l’intelligence artificielle dans le journalisme.

Ce premier cadre éthique et professionnel du genre en Tunisie a pour principal objectif de réguler l’intégration des outils d’IA au sein des rédactions.

Ce texte fondateur, annoncé le 16 février 2026 lors d’une conférence de presse tenue au siège du Syndicat national des journalistes tunisiens (SNJT) à Tunis, vise à garantir la primauté de la responsabilité humaine sur les systèmes algorithmiques, dans un secteur médiatique en pleine mutation numérique.

Élaborée par la Commission d’éthique du Conseil de la presse, la charte repose sur un principe cardinal : l’intelligence artificielle est un outil d’assistance et ne peut en aucun cas se substituer au jugement humain ni aux règles déontologiques de la profession. Le texte établit ainsi une « souveraineté humaine » sur la chaîne éditoriale, le journaliste demeurant l’unique responsable, sur les plans juridique et moral, du contenu publié.

Le document trace des lignes rouges claires. Il proscrit formellement toute publication de contenu entièrement généré par l’IA sans supervision humaine, ainsi que la production de « deepfakes » (sons, images ou vidéos synthétiques à vocation trompeuse), le profilage discriminatoire et l’injection de données personnelles ou de sources confidentielles dans des plateformes tierces.

La transparence constitue l’une des pierres angulaires du texte. Tout contenu ayant bénéficié d’une assistance algorithmique doit être signalé au public. La charte impose à cet effet trois niveaux de mention obligatoire : pour les contenus textuels assistés par l’IA, pour les visuels générés avec la mention explicite « Image générée par IA », et pour les traductions ou transcriptions automatisées révisées par un journaliste.

La charte établit par ailleurs un système de gradation des usages. Elle distingue les pratiques souhaitables, telles que le journalisme de données, la transcription, l’aide à l’investigation par imagerie satellite ou l’optimisation SEO (Search Engine Optimization), des usages tolérés sous haute vigilance, comme l’illustration visuelle générée ou la modération automatique de commentaires, et des usages strictement interdits. Les rédactions signataires pourront en outre afficher le badge « Média engagé : IA responsable », attestant qu’aucun contenu n’est diffusé sans vérification humaine préalable.

Le texte décline les responsabilités propres à chaque acteur du secteur. Pour les journalistes, la charte réaffirme leur responsabilité légale et éthique exclusive sur tout contenu publié, leur confère un droit d’accès aux outils d’IA en contrepartie d’une obligation de formation continue et de respect rigoureux du droit d’auteur, et rend obligatoire la vérification de toute donnée produite par l’IA afin de contrer les erreurs factuelles, dites « hallucinations », générées par les machines.

Pour les entreprises de presse, elle impose l’élaboration d’une politique interne propre à chaque rédaction, interdit explicitement de recourir à l’IA comme prétexte à la suppression de postes et encourage l’investissement dans des outils d’IA propriétaires, transparents sur leurs données d’entraînement.

Pour le Conseil de la presse, elle consacre officiellement son rôle de médiateur en cas de litige lié à l’IA, ainsi que son engagement à mettre à jour régulièrement le cadre déontologique en fonction des évolutions technologiques.

La charte repose sur six postulats fondamentaux : la transformation du régime de vérité par l’IA, la centralité de la responsabilité humaine, l’opacité des algorithmes contrôlés par des acteurs extra-nationaux, le risque de standardisation des contenus, la spécificité du contexte tunisien marqué par la fragilité économique des médias, et enfin la continuité déontologique, selon laquelle l’IA n’impose pas une nouvelle éthique mais adapte les principes existants de vérité et d’indépendance.

Ce texte s’inscrit dans un mouvement international croissant de régulation de l’IA dans les médias, en dialogue avec les principes de l’UNESCO, de la Fédération internationale des journalistes, du RGPD (Règlement général sur la protection des données) européen et de la Charte de Paris sur l’IA et le journalisme de 2023.