Radio et intelligence artificielle (IA)

Introduction

L'IA a contribué à améliorer les capacités des journalistes africains, y compris des radiodiffuseurs (9). Une enquête réalisée en 2023 en Zambie a révélé que 60 % des journalistes utilisaient des outils d'IA, les plus populaires étant les chatbots *, l'analyse d'images et de vidéos ainsi que la génération automatisée de contenu *. Cependant, 73 % des journalistes zambiens utilisant ces outils n'avaient reçu aucune formation officielle en IA. D'autre part, une étude réalisée en 2025 auprès de professionnels de la radio et d'autres médias dans quatre pays africains a révélé que « l'utilisation de l'IA dans le paysage journalistique africain est encore émergente, de nombreux professionnels, en particulier dans le domaine de la radio, ne l'utilisant pas encore de manière significative » (13).

Les outils basés sur l'IA présentent à la fois des opportunités et des défis. S’ils peuvent renforcer l'engagement du public et réduire les frais de déplacement et de personnel, leur adoption en Afrique est limitée par le fait que de nombreuses langues ne sont pas présentes en ligne, par le faible niveau de culture numérique et par des problèmes fondamentaux tels que le manque d'accès à Internet et l'accès limité à l'électricité (7).

En Afrique, comme dans le reste du monde, les opinions sur l'IA sont partagées. D'un côté, les visions utopiques affirment que l'IA révolutionnera le développement et « mettra fin à la pauvreté pour toujours ». De l'autre, certains mettent en garde contre le fait que l'IA risque d’accroître les inégalités et l'exploitation.

À cette incertitude et à cette polarisation des opinions s'ajoute le fait que l'IA évolue si rapidement que même les experts ont du mal à prédire ses capacités dans six mois, tandis que bon nombre de ses impacts sociétaux ambitieux et espérés restent hypothétiques (10). 

Selon certains commentateurs africains (10), le risque le plus immédiat de l'IA en Afrique est sa capacité à aggraver les dommages déjà associés aux technologies numériques, comme la désinformation et la surveillance. Les réseaux sociaux ont sapé le discours politique, créé des « chambres d'écho » et permis la manipulation de textes, d'enregistrements audio et de vidéos. Les outils d'IA rendent cette manipulation plus rapide, moins coûteuse, mieux ciblée, plus persuasive et plus difficile à tracer, ce qui représente un défi considérable pour la société civile et les droits humains. Ce défi est d'autant plus important que des études montrent que d'ici 2026, jusqu'à 90 % du contenu en ligne pourrait être généré de manière synthétique (8).

Une étude réalisée en 2025 (10) a révélé que les auteurs occidentaux dominent la couverture médiatique africaine de l'IA, qui se concentrait principalement sur les aspects techniques et économiques de cette technologie, plutôt que sur ses implications sociétales. Pour atténuer ce biais occidental et le « battage médiatique » autour de l'IA, les auteurs de l'étude recommandent de développer le journalisme local, avec une grande variété de voix qui couvrent et analysent l'IA. Ils recommandent également d'intégrer la maîtrise de l'IA dans la formation et le développement professionnel des journalistes afin de leur permettre de poser des questions plus approfondies sur les technologies qu'ils utilisent et sur lesquelles ils écrivent.

Il est important de rappeler que le monde de l'IA ne se résume pas à la concurrence entre les outils des géants du Web (15). De nombreux outils d'IA gratuits, éthiques, open source et communautaires sont en cours de développement. Ceux-ci sont souvent plus transparents, modulaires et respectueux de la vie privée. Les systèmes modulaires sont plus faciles à comprendre, à entretenir et à personnaliser, et ils facilitent la collaboration entre eux car ils peuvent être facilement décomposés en leurs différents composants. 

Détails

Qu'est-ce que l'IA ?

L'IA peut être définie comme un ensemble de technologies et de techniques utilisées pour compléter les attributs humains traditionnels, comme l'intelligence ou la capacité d'analyse, et comme un ensemble de technologies largement définies comme des « systèmes adaptatifs et auto-apprenants ». L'IA traite de grandes quantités de données afin d'identifier des modèles et de générer du contenu. Les exemples courants d'IA incluent les chatbots comme ChatGPT, les assistants virtuels tels que Siri et Alexa, ainsi que les voitures autonomes.

Il existe différents types d'IA, notamment (1) :

  • L'IA traditionnelle, qui imite l'intelligence humaine grâce à l'apprentissage automatique *, à l'apprentissage profond * et aux processus de langage naturel ; 
  • L'IA générative qui utilise de grands modèles linguistiques (2) pour générer de nouveaux contenus tels que des images, du texte et du code ;
  • L'IA étroite, également appelée IA spécialisée, effectue des tâches spécifiques, comme celle utilisée dans les voitures autonomes ; 
  • L'IA générale, qui effectue de nouvelles tâches, comme ChatGPT qui génère des textes ; 
  • L'IA prédictive, quant à elle, prévoit des événements futurs en se basant sur les tendances historiques. 

La radio africaine et l'IA

L'intelligence artificielle (IA) est en train de transformer la radiodiffusion africaine, passant d'une utilisation expérimentale à des stations entièrement alimentées par l'IA.

Cet afflux d'outils d'IA permet d’améliorer la création de contenu, d’automatiser la production et d’engager davantage les communautés locales et multilingues. 

 

Développements récents 

  • Stations entièrement alimentées par l'IA : la première station de radio entièrement alimentée par l'IA en Afrique, Tingo AI Radio 102.5 FM, est opérationnelle à Lagos, au Nigeria. Elle fonctionne sans animateurs humains et utilise l'IA pour le DJing, les actualités et la production.
  • Des personnalités IA : Heart FM, à Cape Town, en Afrique du Sud, a lancé « Jay I », un présentateur généré par l'IA, afin de montrer le potentiel de l'IA dans les médias.
  • Multilinguisme et contenu local : des outils d'IA sont utilisés mieux transcrire et traduire des langues africaines telles que le swahili, le haoussa, le luganda et le bambara, ce qui permet d’améliorer l’engagement avec les communautés rurales. 
  • L'IA au service de l'impact social et de la sécurité : le gouvernement du Burkina Faso collabore avec le radiodiffuseur ou radiodiffuseuse national(e) afin d'utiliser l'IA pour améliorer la prestation de services. D'autres projets dans le pays utilisent des outils d'IA comme la plateforme web Dubawa Audio, pour lutter contre la désinformation.

  • Efficacité de la production : les diffuseurs utilisent l'IA pour automatiser le montage vidéo et le réglage du son, rédiger des scripts d'actualités et des prévisions météorologiques, et pour gérer des listes de lecture, ce qui réduit considérablement les délais de production. 
  • Clonage vocal : les diffuseurs utilisent des outils d'IA pour mener des interviews et lire des scripts.
  • Étude d'audience : les outils d'analyse basés sur l'IA aident les diffuseurs à mieux comprendre leur public. 
  • Réglementation de l'IA : les dangers potentiels de l'IA ont suscité un débat sur la manière de réglementer l'IA en Afrique. La plupart des pays africains semblent préconiser des directives strictes en la matière. Par ailleurs, le nombre d'organismes de vérification des faits accrédités est en hausse. En Afrique du Sud, la plateforme Real411 permet aux électeurs de signaler les contenus politiques en ligne qui les préoccupent, y compris l'utilisation éventuelle de l'IA (6).

Comment l'IA peut-elle améliorer la radio ? (4, 17) 

  • L'IA peut faciliter le déroulement des programmes, la gestion des tâches régulières telles que la programmation, le suivi vocal, les mises à jour météorologiques et sportives, ainsi que les tâches administratives.
  • L'IA peut aider les diffuseurs à mieux comprendre leur public, ce qui se traduit par une interactivité accrue, un contenu plus personnalisé et la découverte d'histoires cachées grâce à l'analyse des données.
  • L'IA peut également donner plus de pouvoir aux auditeurs et auditrices, en leur offrant une interaction en temps réel et des expériences personnalisées, et en aidant tous les auditeurs et auditrices à se sentir inclus. Des outils tels que la transcription en direct alimentée par l'IA pour les malentendants, la synthèse vocale pour les malvoyants ou encore la traduction automatique pour les langues minoritaires rendent la radio plus accessible à tous. Parmi les outils destinés aux personnes souffrant de handicaps sensoriels, on peut citer la caméra parlante Seeing AI de Microsoft pour les aveugles, l’application Google Lookout et les écouteurs Galaxy Buds2 de Samsung (22).
  • L'IA peut contribuer à améliorer la qualité du contenu en facilitant la vérification des faits et des sources. Elle peut également révéler et exploiter la richesse des archives, transformant ainsi des souvenirs souvent enfouis en une ressource riche et active.
  • L'IA peut favoriser la narration locale en adaptant les messages à des communautés spécifiques et en traduisant le contenu dans les langues indigènes. 
  • L'IA peut considérablement élargir votre capacité à créer du contenu sonore pour la programmation. Les outils d'IA peuvent composer un jingle, générer de la musique pour créer une ambiance ou mixer des voix avec un fond sonore. 

 

Défis

L'IA présente un grand potentiel en tant que force au service du bien, mais elle pose également des défis considérables : 

Les outils d'IA peuvent amplifier la désinformation et les discours haineux (12). En personnalisant le contenu, les algorithmes d'IA peuvent créer des « chambres d'écho » qui approfondissent la polarisation et garantissent que les contenus haineux ou divisifs atteignent les publics susceptibles d'agir en conséquence. L'IA permet de créer rapidement et à faible coût de la désinformation sophistiquée, de la manipuler, de la cibler et de la personnaliser, y compris sous forme de deepfakes et autres contenus faux extrêmement convaincants. Les deepfakes ciblent de manière disproportionnée les femmes et les filles, tandis que d'autres utilisent des voix clonées pour diffuser de fausses informations, par exemple en rapport avec les conflits armés en République démocratique du Congo, lors d'élections ou de prises de pouvoir armées par des gouvernements. Ainsi, si l'IA peut contribuer à lutter contre la désinformation en accélérant la vérification des données, la recoupement des sources et la mise en garde contre les informations douteuses (15), elle peut également générer des deepfakes et des histoires inventées.

L'IA peut « inventer » des faits sur des événements historiques (20). Des modèles d'IA ont par exemple produit des récits trompeurs, voire carrément faux sur l'Holocauste. Sans connaissances en matière d'IA et de médias, les utilisateurs peuvent ne pas savoir comment reconnaître des données peu fiables ou vérifier le contenu produit par l'IA.

Fiabilité et transparence des modèles (21) : on ignore souvent comment les outils d'IA parviennent à leurs conclusions ; les modèles peuvent ne pas être transparents. Il y a également le problème des erreurs factuelles. Une étude réalisée en 2025 (5) sur les réseaux de médias publics dans 18 pays (aucun en Afrique) et coordonnée par l'Union européenne de radio-télévision (UER) a révélé que 45 % des réponses générées par quatre assistants IA populaires — ChatGPT, Copilot, Gemini et Perplexity — « présentaient au moins un problème important, que 31 % des réponses présentaient de graves problèmes de sources — attributions manquantes, trompeuses ou incorrectes — et que 20 % contenaient de graves problèmes d'exactitude, notamment des détails fantaisistes * et des informations obsolètes ».

Biais : les IA apprennent à partir des données sur lesquelles elles sont entraînées. Si ces données sont biaisées, par exemple en raison du genre, de la race, du handicap ou de la culture, les résultats de l'IA le seront également et pourront reproduire et amplifier les stéréotypes. L'intervention humaine au niveau de la rédaction est donc essentielle. Des recherches récentes (25) ont mis en évidence des biais dans GPT-2 et ChatGPT, ainsi que dans Llama 2 de Meta. Tous les modèles d'IA étudiés ont produit des contenus stéréotypés, sexistes et misogynes. 

Disponibilité et propriété des données : il est important de préciser dans quelles circonstances et à qui les données peuvent être mises à disposition. Il est également important de respecter la propriété des données et de fournir des garanties claires en matière de confidentialité pour certains types de données. Il faut également obtenir une autorisation explicite avant d'utiliser des données personnelles à des fins de personnalisation basée sur l'IA. Les cyberattaques peuvent entraîner des failles de sécurité aux conséquences dramatiques, mais des techniques telles que l'apprentissage fédéré * peuvent réduire les risques en permettant aux modèles d'IA d'être entraînés sur plusieurs appareils locaux décentralisés (smartphones, serveurs ou hôpitaux) sans envoyer les données réelles à un serveur central.  

Savoir-faire limité : l'IA peut être utilisée pour résoudre de nombreux types de problèmes, mais il existe relativement peu d'experts qui savent comment l'appliquer de manière éthique. Des voix se sont élevées pour demander que des sociologues et des décideurs politiques soient associés aux discussions, plutôt que de laisser les décisions relatives au déploiement à des « technologues », c'est-à-dire des ingénieurs informatiques et des scientifiques des données. 

Utilisation équitable de l'IA : la recherche en IA nécessite une puissance de calcul, un traitement de données et une énergie considérables. L'accès inégal à ces ressources creuse le fossé entre les quelques entreprises et universités qui en disposent et le reste du monde qui n'en dispose pas.

Impact environnemental : la formation et le fonctionnement de l'IA nécessitent une quantité massive d'électricité, ce qui entraîne une empreinte carbone importante. Le refroidissement des centres de données épuise les réserves d'eau locales, et la pollution comprend les déchets électroniques issus du matériel informatique (cobalt et terres rares). Des solutions existent, comme  l'amélioration de l'efficacité énergétique des centres de données, l'utilisation d'énergies renouvelables, l'expansion du recyclage des déchets électroniques, un approvisionnement responsable en matériaux et une plus grande transparence dans la communication de l'empreinte carbone de l'IA (7).

Infrastructure et coût : de nombreux médias africains sont confrontés à des difficultés financières et ne disposent pas de l'infrastructure nécessaire pour adopter pleinement l'IA. 

Responsabilité et obligation de rendre compte de l'utilisation des modèles d'IA : il s'agit de l'obligation éthique et légale des individus et des organisations d'assumer la responsabilité des résultats, des comportements et des impacts des systèmes d'IA. Cela signifie que la supervision humaine est prépondérante, que les décisions prises par l'IA doivent être explicables et transparentes, et que les préjudices doivent être clairement attribués à une partie spécifique. 

Les cadres politiques et réglementaires relatifs à l'IA en sont encore à leurs balbutiements en Afrique. Sans une bonne gouvernance, le journalisme numérique pourrait être plus dangereux que le journalisme hors ligne, d’autant que des investissements considérables actuellement consacrés à la surveillance des médias en Afrique (9). L'une des raisons pour lesquelles il est important de réglementer l'IA est d'éviter toute atteinte aux libertés sociales et toute violation des droits des journalistes.

Veiller à ce que l'IA fonctionne pour les Africains : pour que l'IA fonctionne bien en Afrique, elle doit intégrer les systèmes de connaissances indigènes (9), être adaptée aux besoins et aux valeurs des populations et impliquer les innovateurs technologiques locaux dans le développement des produits. Sinon, l’IA restera un concept étranger et occidental. 

Impact sur la culture et la créativité (25) : l'IA peut enrichir le travail culturel et créatif, mais elle peut également concentrer les contenus culturels, les données, les marchés et les revenus entre les mains d'une minorité, réduisant ainsi la diversité et le pluralisme des langues, des médias, de l'expression culturelle, de la participation et de l'égalité. Un rapport récent de l'UNESCO sur l'IA et la culture soutient que l'IA doit donner la priorité aux droits culturels, préserver la diversité et défendre la créativité humaine contre les risques d'« homogénéisation algorithmique et de domination des plateformes ».

Étant donné que l'IA a un impact sur la société dans son ensemble, la couverture médiatique de l'IA par la radio doit aborder des thèmes tels que les rapports de force entre les entreprises, les gouvernements, les citoyens et les puces informatiques, ainsi qu'entre les données et les algorithmes(25). Et si l'IA peut servir l'intérêt public, les journalistes doivent également disposer des connaissances et de l'expertise nécessaires pour alerter leur public sur les inégalités en matière de bénéfices et les violations des droits humains. 

 

Utilisation éthique de l'IA dans la radiodiffusion

L'utilisation éthique de l'IA dans la radiodiffusion vise principalement à préserver le lien humain unique et la confiance du public que la radio a établis avec ses auditeurs et auditrices. Des organismes de radiodiffusion tels que l'Union européenne de radio-télévision et la Canadian Broadcasting Corporation ont créé des cadres visant à garantir que l'IA serve d'outil efficace plutôt que de substitut au jugement humain. 

Une IA éthique doit respecter les principes suivants : 

  • Transparence et explicabilité : les développeurs et les utilisateurs doivent comprendre le fonctionnement des systèmes d'IA et les raisons de leur prise de certaines décisions. 
  • Responsabilité : la responsabilité des actions de l'IA doit être clairement attribuée, y compris les procédures de surveillance et d'indemnisation en cas de préjudice. 
  • Sûreté et sécurité : les systèmes d'IA doivent être protégés contre les attaques et conçus pour prévenir tout préjudice involontaire.

  • Protection et confidentialité : protection de la propriété intellectuelle, propriété claire des données et transparence.
  • Prudence : utilisation réfléchie des contenus audio générés par l'IA (musique, clonage vocal* et deepfake audio). 

*Farm Radio International recommande de ne pas utiliser le clonage vocal sans le consentement écrit préalable de la personne concernée et sans accords de compensation clairs avec elle.

  • Formation : les radiodiffuseurs doivent bénéficier d'une formation et d'un développement professionnel continu en matière d'IA, y compris sur les applications éthiques de cette technologie.
  • Évaluation de la conformité : les développeurs et les utilisateurs d'outils d'IA doivent évaluer leur conformité avec le droit national et international afin d'éviter toute responsabilité juridique et de protéger l'intégrité du contenu, ainsi que l'infrastructure et le contenu des stations de radio contre les attaques malveillantes ou les dysfonctionnements involontaires de l'IA.

Le développement et l'utilisation éthiques de l'IA impliquent de se conformer à des principes tels que l'équité, la transparence, la responsabilité, la confidentialité et la sécurité. Ces principes garantiront que l'IA profite à l'humanité tout en atténuant les risques, tels que les préjugés, la perte d'emploi et la manipulation. Pour en savoir plus sur l'utilisation éthique de l'IA, consultez la Recommandation de l'Organisation des Nations Unies pour l'éducation, la science et la culture sur l'éthique de l'intelligence artificielle. Celle-ci stipule que toutes les personnes impliquées dans l'IA (développeurs, utilisateurs et décideurs politiques) partagent la responsabilité éthique de veiller à ce que l'IA profite à la société plutôt que de lui nuire. 

 

Les clés d'une utilisation éthique de l'IA

Transparence et divulgation (19)

Les normes éthiques exigent des entreprises qu'elles : 

  • d’étiqueter le contenu généré par l'IA en indiquer clairement au public qu'il écoute une voix générée par l'IA.
  • de divulguer l'aide apportée par l'IA : informer le public lorsque l'IA a été largement utilisée dans la rédaction de scripts ou la collecte d'informations.
  • de ne pas créer de « surprises » : veiller à ce que le public ne soit jamais induit en erreur quant à savoir si le contenu est produit par un humain ou par une machine (3). 

Une plus grande transparence contribue à construire des sociétés plus pacifiques, plus justes, plus démocratiques et plus inclusives (27). Elle permet un contrôle public qui lutte contre la corruption et la discrimination, et aide à identifier et à prévenir les violations des droits humains. 

Responsabilité humaine et « human-in-the-loop »

L'IA doit compléter les actions humaines, et non les remplacer. 

  • Vérification des faits : les diffuseurs doivent vérifier l'exactitude de tous les résultats de l'IA afin d'éviter la propagation de fausses informations ou d'« hallucinations ». 
  • Contrôle éditorial et responsabilité : tous les scripts et résumés d'articles produits par l'IA sont soumis à un contrôle humain final avant leur diffusion. L'éditeur humain ou la station est responsable du contenu. 

Protection de la personnalité et de la propriété intellectuelle

Le « clonage vocal » soulève des questions éthiques (15). Peut-on utiliser une voix clonée sans le consentement de la personne concernée ? Une chaîne doit-elle payer pour cela ? À qui appartient une voix générée par l'IA ? 

  • Image et ressemblance : protéger les personnalités médiatiques contre les deepfakes utilisés à des fins de fraude ou de désinformation.
  • Propriété de la voix : rédiger des contrats pour l'utilisation et la rémunération de la voix clonée d'un diffuseur ou d’une radiodiffuseuse. 
  • Respect des droits d'auteur : ne pas utiliser d'outils d'IA entraînés sur du contenu volé. Veiller à ce que les radiodiffuseurs et radiodiffuseuses soient rémunérés lorsque l'IA utilise leurs reportages originaux. 
  • Parmi les utilisations bénéfiques du clonage vocal, on peut citer la création de livres audio, d'assistants virtuels personnalisés, de voix off dans différentes langues et la restauration de la parole dans certaines conditions médicales. 
  • Les utilisations malveillantes du clonage vocal comprennent l'usurpation d'identité de proches en détresse ou de PDG pour approuver des transactions frauduleuses, ou la création d'une fausse urgence pour tromper les victimes et les inciter à envoyer de l'argent ou des données sensibles.

Atténuer les biais 

Les systèmes d'IA peuvent hériter des préjugés de leurs données d'entraînement, ce qui affecte la rotation musicale, les reportages d'actualité, le ciblage publicitaire, etc. 

  • Audits réguliers : procéder à des examens systématiques pour s'assurer que les outils d'IA ne font pas de discrimination fondée, entre autres, sur la race, le sexe ou la localisation.
  • Ensembles de données diversifiés : utiliser des données qui reflètent votre audience afin de vous assurer que les outils d'IA fonctionnent pour les communautés desservies par la station. 

Confidentialité et sécurité des données

Où vont les données ? Sont-elles stockées ? Qui a accès aux contenus confidentiels ? Une utilisation éthique nécessite un contrôle parfait des flux de données (15).

  • Notez la résolution de l'Assemblée générale des Nations unies de 2022 sur « Le droit à la vie privée à l'ère numérique ». Elle traite de la confidentialité et de la sécurité non seulement pour les personnes dont les données pourraient être compromises, mais aussi pour les journalistes : 

« ... à l'ère numérique, les outils de cryptage et d'anonymat sont devenus essentiels pour de nombreux journalistes et professionnels des médias afin qu'ils puissent exercer librement leur travail et jouir de leurs droits fondamentaux, en particulier de leurs droits à la liberté d'expression et à la vie privée. Ils leur permettent notamment de sécuriser leurs communications et de protéger la confidentialité de leurs sources. La résolution demande également aux États de ne pas s'ingérer dans l'utilisation de ces technologies par les journalistes et les professionnels des médias, et de veiller à ce que toute restriction à cet égard soit conforme à leurs obligations en vertu du droit international des droits de l'homme... »

Lutte contre les discours haineux et la désinformation :

Si vous rencontrez en ligne un contenu que vous soupçonnez d'avoir été généré par l'IA, utilisez vos compétences en lecture latérale * pour vérifier les informations (22). De plus : 

  • Recherchez les incohérences : notez tout détail inhabituel ou toute incohérence dans les images, le texte et la vidéo. 
  • Analysez le style rédactionnel : prêtez attention au style rédactionnel. Les contenus générés par l'IA peuvent manquer de « touche humaine » et être trop formels, répétitifs ou dépourvus de nuances.
  • Examinez la qualité de l'image : recherchez un éclairage ou des ombres non naturels, des artefacts (distorsions visuelles, anomalies ou erreurs indésirables, involontaires ou accidentelles) ainsi que des flous, en particulier sur les bords. 
  • Examinez les métadonnées : si possible, examinez les métadonnées du contenu numérique. Elles peuvent fournir des indices sur son origine et indiquer s'il a été créé artificiellement.
  • Restez informé : tenez-vous au courant des avancées technologiques en matière d'IA et des caractéristiques habituelles du contenu généré par l'IA afin de le reconnaître plus facilement.

N'oubliez pas que l'IA est un excellent outil pour approfondir vos connaissances sur un sujet. Mais ne l'utilisez pas comme seule source d'information. N'oubliez pas non plus qu'il est courant que les outils d'IA inventent les résultats que vous demandez, en ajoutant souvent des liens, des faits ou des informations biographiques qui sont faux (22). 

Il existe différentes solutions pour lutter contre les discours haineux et la désinformation : 

  • Des modèles de modération hybrides *
  • Transparence algorithmique *
  • Éducation aux médias et à l'information *
  • L’utilisation d'outils d'IA formés à partir de données reflétant la diversité linguistique et culturelle de l'Afrique, y compris les langues locales, les contextes culturels et les perspectives diverses (12) 
  • Cadres juridiques solides 
  • Contre-discours (qui remettent en cause la désinformation et/ou les discours haineux)
  • Outils de vérification des faits basés sur l'IA, comme le chatbot WhatsApp Dubawa et MyAIFactChecker
  • Outils de transcription et d'analyse audio tels que Dubawa Audio 
  • Systèmes de détection IA localisés pour les langues africaines * : les systèmes de détection IA localisés sont principalement développés dans le cadre d'initiatives open source telles que Masakhane et NTeALan. Ils visent principalement à pallier le manque de données pour des langues telles que l'isiZulu, le haoussa, le yoruba et l'amharique. Ils créent des modèles qui comprennent les nuances culturelles, les expressions locales et les proverbes (4). 
  • Les projets collaboratifs d'intelligence open source (OSINT) sont des initiatives collectives et communautaires qui collectent, analysent et vérifient des informations accessibles au public afin de découvrir des informations, d'enquêter sur des événements ou de suivre des tendances. Ils comprennent notamment Bellingcat, Forensic Architecture, BBC Africa Eye, Oryx et Global Fishing Watch. Les projets basés en Afrique comprennent le Réseau africain des centres d'investigation journalistique, l'Académie africaine pour l'investigation open source, l'Observatoire africain de la démocratie numérique et PesaCheck.

Formation à l'IA (23) 

Adopter l'IA, c'est comprendre ses possibilités et ses limites, ainsi que la manière de l'intégrer de manière intelligente et éthique. Les stations de radio peuvent proposer des sessions de sensibilisation et des formations pratiques. Plus l'équipe radio comprend les outils d'IA, plus elle les utilisera efficacement.

Voici quelques recommandations pour la formation :

  • Adopter une approche de formation par niveaux : structurer le renforcement des capacités en matière d'IA en plusieurs niveaux, tels que la sensibilisation, l'utilisation opérationnelle et la gouvernance.
  • Intégrer la maîtrise de l'IA à l'éducation aux médias et à l'information (EMI) : l'EMI est le fondement de la maîtrise de l'IA et évolue pour l'inclure, en apprenant aux utilisateurs de l'IA à évaluer, utiliser et comprendre de manière critique les implications éthiques du contenu de l'IA.
  • L'action humaine et l'autonomie : l'IA remet en question le contrôle humain sur l'information et la prise de décision. L'EIM agit comme un rempart pour préserver l'autonomie et le pouvoir d'action des utilisateurs.
  • Prise en compte des risques sociétaux : la formation doit aborder les risques tels que la désinformation, les préjugés, les violations de la confidentialité des données et les menaces à l'équité électorale.
  • L’utilisation éthique et fiabilité des sources : les utilisateurs doivent être formés pour identifier les contenus générés par l'IA, remettre en question la véracité des preuves produites par l'IA et aborder la nature « boîte noire » (non transparente) de nombreux systèmes d'IA.
  • Possibilités d'apprentissage tout au long de la vie : il est important de reconnaître le potentiel de l'IA en matière de créativité, d'éducation et d'amélioration de l'accès à l'information, tout en soulignant les risques.

L'IA est un outil, pas une voix

  • Les radiodiffuseurs et radiodiffuseuses peuvent utiliser l'IA comme un outil pour localiser les angles morts informationnels dans des lieux ou des contextes où il est impossible de réaliser des reportages en raison de la censure, des conflits ou du manque d'accès. Toutefois, les décisions relatives à l'angle, au ton, au récit et au reportage doivent rester humaines. L'IA suggère, mais ne décide jamais. Le journaliste est l'auteur. L'IA est un outil, pas une voix.

Liste de contrôle pratique : avant de publier du contenu assisté par l'IA

Avant de diffuser ou de publier un contenu assisté par l'IA, les radiodiffuseurs et radiodiffuseuses doivent se poser les questions suivantes :

  1. Les informations ont-elles été vérifiées de manière indépendante ?
    Les résultats de l'IA doivent toujours être vérifiés afin d'éviter toute désinformation ou « hallucination ».

  2. L'utilisation de l'IA a-t-elle été clairement divulguée ?
    Le public doit être informé lorsque des voix, des scripts ou d'autres outils générés par l'IA ont été utilisés de manière significative.

  3. Si le clonage vocal a été utilisé, un consentement écrit préalable a-t-il été obtenu et une compensation convenue ?
    Farm Radio International recommande de ne pas utiliser le clonage vocal sans consentement écrit et sans accord de compensation clair.

  4. Le contenu a-t-il été examiné afin de détecter tout biais ou discrimination ?
    Les systèmes d'IA peuvent hériter des préjugés de leurs données d'entraînement et doivent donc faire l'objet d'une vérification approfondie.

  5. Un éditeur humain est-il clairement responsable de la version finale ?
    L'IA doit soutenir le travail éditorial, mais la responsabilité incombe toujours au diffuseur.

L'IA est un outil destiné à soutenir la créativité et l'efficacité humaines ; elle ne doit en aucun cas se substituer au jugement ou à la responsabilité humains.

Envisager une IA locale et peu sophistiquée (15)

 Une IA accessible à toutes les stations de radio

Toutes les stations ne peuvent pas accéder à des serveurs puissants, à des connexions haut débit ou à des abonnements premium à de grandes plateformes d'IA. Il existe toutefois des solutions d'IA locales qui utilisent des machines plus modestes ou des outils open source, une IA localisée et légère adaptée aux réalités de chaque région.

Plusieurs outils de ce type font leur apparition pour soutenir la radiodiffusion et l'automatisation en Afrique, en mettant l'accent sur des infrastructures peu coûteuses, la prise en charge des langues locales et l'automatisation.

 Parmi les outils clés, on peut citer

  • N-ATLAS (Nigeria) : un modèle linguistique open source, multilingue et multimodal qui prend en charge l'anglais avec l'accent nigérian, le yoruba, le haoussa et l'igbo. N-ATLAS peut transcrire, résumer et générer du contenu pour la radio.
  • Sunbird AI (Ouganda) : une initiative locale qui se concentre sur l'intelligence artificielle vocale et les ensembles de données vocales afin d'améliorer la reconnaissance vocale.
  • Masakhane : voir ci-dessus. 
  • Pyrate (OpenBroadcaster) : outil léger d'automatisation radio pour Raspberry Pi, Pyrate permet de gérer des listes de lecture et des programmations, d'automatiser le contenu audio et convient parfaitement aux stations de radio communautaires disposant de ressources limitées.
  • Adthos : fournit des outils de production basés sur l'IA pour créer des publicités, des actualités et des voix off. Il s’agit d’un mélange de modèles open source et propriétaires permettant de créer du contenu rapidement et à faible coût.
  • OpenAirInterface : Plateforme open source pouvant être utilisée pour créer des réseaux d'accès radio pour la diffusion. 

  • Mozilla Common Voice : projet collaboratif visant à collecter et à créer des ensembles de données vocales open source pour les langues sous-représentées, notamment le luganda et d'autres langues africaines.
  • NaijaVoices : ensemble de données pour l'igbo, le haoussa et le yoruba, conçu pour améliorer la reconnaissance vocale dans les langues locales. 

Considérations plus générales (19) 

  • La concentration dans le secteur de l'IA aura des implications profondes, et les autorités mondiales de la concurrence évaluent actuellement la nécessité de nouvelles réglementations.
  • Certaines organisations journalistiques ont signé des accords de licence avec de grandes entreprises d'IA et insistent fortement sur la nécessité d'une compensation ainsi que sur la création d'un marché pour l'octroi de licences de contenu.
  • Les outils d'IA qui « récupèrent » du contenu sur Internet menacent la viabilité économique de tous les médias, ce qui nécessite la mise en place de cadres permettant une rémunération équitable les éditeurs et les journalistes.

Pour mieux comprendre l'IA, ses capacités, ses risques et les solutions proposées pour y remédier dans votre propre station, nous vous invitons à travailler sur les 13 idées de l'UNESCO pour célébrer le 13 février. Ces idées proposent des résumés des questions et capacités importantes, des références plus approfondies, ainsi que des questions et suggestions à explorer par les équipes radio. Vous pouvez également consulter le guide de l'UNESCO intitulé « Voyage à travers le MILtiverse : boîte à outils sur l'éducation aux médias et à l'information pour les organisations de jeunesse », qui n'est certainement pas réservé aux jeunes !  

Définitions 

Transparence algorithmique : principe selon lequel les caractéristiques qui influencent les décisions prises par les algorithmes doivent être visibles, ou transparentes, pour tous ceux qui utilisent, réglementent ou sont affectés par les systèmes utilisant ces algorithmes. 

Intelligence artificielle : ensemble de technologies et de techniques visant à compléter les caractéristiques humaines telles que l'intelligence et la capacité d'analyse. Ces technologies peuvent être définies comme des « systèmes adaptatifs et auto-apprenants ». L'IA englobe la vision, la perception, la parole et le dialogue, la prise de décision et la planification, la résolution de problèmes, la robotique et d'autres applications permettant l'auto-apprentissage. 

Génération automatique de contenu : utilisation de l'IA, de l'apprentissage automatique et de logiciels pour produire rapidement et de manière cohérente un volume important de contenu écrit, visuel ou audio avec un minimum d'intervention humaine.

Biais dans l'IA : erreurs systématiques qui conduisent à des résultats injustes pour certaines personnes ou certains groupes, comme les femmes et les filles, les peuples autochtones ou les personnes les plus démunies. Ces biais peuvent survenir à différentes étapes du développement de l'IA, notamment lors de la conception, de la collecte des données d'entraînement ou de l'utilisation.

Chatbot : programmes informatiques conçus pour simuler une conversation humaine par le biais d'une interaction textuelle ou vocale. Ils sont largement utilisés dans le service à la clientèle, l'assistance virtuelle et la recherche d'informations.

Initiatives collaboratives d'intelligence open source (OSINT) : sont des projets dans le cadre desquels des chercheurs, des enquêteurs et des bénévoles travaillent ensemble pour recueillir, analyser et vérifier des informations accessibles au public afin d'atteindre un objectif commun. Contrairement à la collecte traditionnelle de renseignements, l'OSINT s'appuie sur le crowdsourcing et l'expertise de la communauté pour examiner des questions complexes, allant des personnes disparues aux violations des droits humains.

Deepfakes : vidéos, fichiers audio ou images générés ou manipulés par l'IA et utilisés pour tromper ou induire en erreur en créant des représentations réalistes, mais fausses, de personnes ou d'événements.

Apprentissage fédéré : une méthode permettant de former des modèles d'IA sur plusieurs appareils décentralisés (tels que des smartphones, des serveurs ou des hôpitaux) sans avoir à envoyer les données réelles à un serveur central, de sorte que personne ne puisse les voir.

Contenu préjudiciable fondé sur le genre : toute forme de texte, d'image, de vidéo ou d'audio qui promeut, perpétue ou encourage la violence, la discrimination, le harcèlement ou la haine à l'encontre d'une personne en raison de son genre, de son identité de genre ou de son orientation sexuelle.

Apprentissage profond : type d'apprentissage automatique qui permet aux ordinateurs de traiter les informations de manière similaire au cerveau humain.

Désinformation : fausse information destinée à induire en erreur ; information erronée délibérée.

IA générative : un type d'IA qui crée du contenu nouveau et original (texte, images, code, musique, vidéos, etc.) en apprenant à partir de grands ensembles de données. Elle comprend les invites et génère des résultats originaux qui imitent la créativité humaine, permettant ainsi des applications allant des chatbots à la création d'œuvres d'art.

Hallucination : dans le contexte de l'IA, désigne une réponse confiante et plausible d'un modèle d'IA qui est en réalité incorrecte, fabriquée ou absurde, souvent en raison de limitations dans la formation, de lacunes dans les données ou d'une tendance à privilégier la cohérence plutôt que la précision.

Modèles de modération hybrides : systèmes de gestion de contenu qui combinent l'IA et la supervision humaine pour examiner le contenu généré par les utilisateurs, les chats en direct et le matériel audiovisuel.

Lecture latérale : technique qui consiste à rechercher qui se cache derrière une source en ligne inconnue en quittant la page web et en ouvrant un nouvel onglet pour voir ce que les sites web de confiance disent à propos de cette source.

Apprentissage automatique : une IA qui permet aux ordinateurs d'apprendre à partir de données et d'améliorer leurs performances sans être programmés à chaque étape. Au lieu d'obéir à des règles strictes, les ordinateurs analysent les modèles de données pour générer des prévisions, prendre des décisions ou faire des recommandations, et ils deviennent de plus en plus précis à mesure qu'ils continuent à traiter les informations.

Éducation aux médias et à l'information (EMI) : les compétences et les attitudes qui permettent aux individus d'accéder, d'analyser, d'évaluer, de créer et de partager efficacement des informations sur les différentes plateformes médiatiques. L'EMI combine l'éducation à l'information (gestion de l'information) et l'éducation aux médias (compréhension du contenu médiatique) afin de cultiver l'esprit critique, une utilisation réactive de la technologie dans les communautés en ligne et un engagement éthique.

Désinformation : création et diffusion de contenus faux et trompeurs, intentionnelle ou non. La désinformation provient souvent d'une désinformation initiale.

Pour approfondir le sujet, se reporter aux références suivantes

  1. Blue Prism, 2025. Blog: Debunking AI Myths: Common Misconceptions About AI. https://www.blueprism.com/resources/blog/ai-myths-misconceptions/
  2. Blue Prism, undated. Large Language Models: What Are Large Language Models (LLMs)? https://www.blueprism.com/guides/ai/large-language-models-llms/
  3. CBC (Canadian Broadcasting Corporation), 2025. How CBC News will use AI responsibly to benefit our journalism — and keep your trust. https://www.cbc.ca/news/editorsblog/cbc-news-artificial-intelligence-guidelines-9.6990760
  4. Centre for Journalism Innovation and Development, 2025. AI and Journalism in Africa: A New Era or a Looming Challenge? Webinar (video), April 15, 2025. https://www.youtube.com/watch?v=vf7c-dIZ3FY 
  5. European Broadcasting Union (EBU), 2025. Largest study of its kind shows AI assistants misrepresent news content 45% of the time – regardless of language or territory. https://www.ebu.ch/news/2025/10/ai-s-systemic-distortion-of-news-is-consistent-across-languages-and-territories-international-study-by-public-service-broadcast 
  6. Gerhäusser, T., and Schwikowski, M., 2025. AI disinformation could threaten Africa's elections. Digital World. https://www.dw.com/en/ai-disinformation-could-threaten-africas-elections/a-71698840
  7. Girolimon, M., 2026. Understanding the Environmental Impact of Artificial Intelligence. Southern New Hampshire University. https://www.snhu.edu/about-us/newsroom/stem/ai-environmental-impact 
  8. Jacobson, N. 2024. Deepfakes and their impact on society. CPI OpenFox. https://www.openfox.com/deepfakes-and-their-impact-on-society/
  9. Matsengarwodzi, D., 2024. Artificial Intelligence's Potentials and Challenges in the African Media Landscape. Al Jazeera Journalism Review. https://institute.aljazeera.net/en/ajr/article/2547
  10. Mutiso, R. M., 2025. Beyond the binary: Navigating AI’s uncertain future in Africa. Science: Vol. 388, No. 6742, April 3, 2025. https://www.science.org/doi/10.1126/science.adw9439
  11. Nkoala, S., et al, 2025. AI Hype Through an African Lens: A Critical Analysis of Language as Symbolic Action in Online News Publications. Digital Journalism, 1–20. https://www.tandfonline.com/doi/full/10.1080/21670811.2025.2528052
  12. RUSI (Royal United Services Institute for Defence and Security Studies), 2025. Digital Divides: Online Hate Speech, Disinformation and AI in Africa. Webinar (video), May 20, 2025. https://www.youtube.com/watch?v=09-j-GDmOXQ
  13. Umejei, E., et al, 2025. Artificial Intelligence and Journalism in Four African Countries: Optimists, Pessimists, and Pragmatists. Journalism Practice, Volume 19, p. 2249-2265. https://www.tandfonline.com/doi/full/10.1080/17512786.2025.2489590#abstract
  14. UN General Assembly, 2022. The right to privacy in the digital age: resolution / adopted by the General Assembly. https://digitallibrary.un.org/record/3999709?v=pdf&ln=en
  15. UNESCO, undated. 13 Ideas for Celebrating 13 February. https://www.unesco.org/en/days/world-radio/13ideas 
  16. UNESCO, undated. Data Governance in the Digital Age. https://www.unesco.org/en/data-governance-digital-age?hub=66636
  17. UNESCO, 2025. Radio and AI. https://www.unesco.org/en/days/world-radio/radio-artificial-intelligence. 
  18. UNESCO, 2025. Report of the Independent Expert Group on Artificial Intelligence and Culture. https://www.unesco.org/sites/default/files/medias/fichiers/2025/09/CULTAI_Report%20of%20the%20Independent%20Expert%20Group%20on%20Artificial%20Intelligence%20and%20Culture%20%28final%20online%20version%29%201.pdf?hub=171169
  19. UNESCO, 2024. AI and the future of journalism: an issue brief for stakeholders. https://unesdoc.unesco.org/ark:/48223/pf0000391214
  20. UNESCO, 2024. AI and the Holocaust: rewriting history? The impact of artificial intelligence on understanding the Holocaust. https://unesdoc.unesco.org/ark:/48223/pf0000390211
  21. UNESCO, 2024. Disability equality in the media: representation, accessibility, management; practical manual. https://unesdoc.unesco.org/ark:/48223/pf0000391032
  22. UNESCO, 2024. Journey Through the Miltiverse: Media and Information Literacy Toolkit for Youth Organizations. https://unesdoc.unesco.org/ark:/48223/pf0000392035?posInSet=1&queryId=d88cc6fd-aabd-46f3-be9e-d2daca05dbc8
  23. UNESCO, 2024. User empowerment through media and information literacy responses to the evolution of generative artificial intelligence (GAI). https://unesdoc.unesco.org/ark:/48223/pf0000388547
  24. UNESCO, IRCAI, 2024. Challenging systematic prejudices: an Investigation into Gender Bias in Large Language Models. https://unesdoc.unesco.org/ark:/48223/pf0000388971
  25. UNESCO, 2023. Reporting on artificial intelligence: a handbook for journalism educators. https://unesdoc.unesco.org/ark:/48223/pf0000384551 
  26. UNESCO, 2022. Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137
  27. World International Property Organization (WIPO), 2025. Twelfth Session of the WIPO Conversation: Intellectual Property and Synthetic Media, Octobre 28-29, 2025.  https://www.wipo.int/meetings/en/details.jsp?meeting_id=89408

Autres sites web utiles : 

  • AI Tools Radar. https://radar.ircai.org/en/tools/ A list of AI tools focused on the media.
  • Centre for Journalism Innovation and Development (CJID) website: https://thecjid.org/creative-homepage/
  • Penplusbytes website: https://penplusbytes.org/
  • The Poynter Institute, 2024. Artificial Intelligence, Ethics and Journalism. https://www.poynter.org/ai-ethics-journalism/
  • The Poynter Institute, 2024. Your newsroom needs an AI ethics policy. Commence ici. https://www.poynter.org/ethics-trust/2024/how-to-create-newsroom-artificial-intelligence-ethics-policy/

 

Remerciements

Rédigé par : Vijay Cuddeford, ancien rédacteur en chef, Radios rurales internationales

Révisé par : Nathaniel Ofori, responsable de l'innovation numérique • Radios rurales internationales (FRI)

 

Projet : Ressource soutenue par l'IRESAP