Le pays retient son souffle à une semaine de la présidentielle. Dans cette tension, l'intelligence artificielle n'est plus un concept lointain ; elle est l'arme au cœur de la bataille pour le regard, un outil capable d'envoûter ou de désenvoûter l'électeur.
Le pouvoir a longtemps reposé sur l'envoûtement visuel, sur l'art de se montrer pour convaincre. Mais aujourd'hui, une nouvelle force entre en jeu : l'intelligence artificielle. Elle est cet œil invisible qui peut fabriquer le réel, créer l'éblouissement parfait, et transformer la politique en un spectacle dont on ne distingue plus les acteurs des doublures numériques. La question n'est plus de savoir qui a la plus grande foule, mais qui a le meilleur algorithme. Le "foulomètre" est devenu digital.
Face à cet arsenal, un mouvement contraire s'amorce : le grand désenvoûtement national. Le citoyen apprend à déceler le trucage, à percer le voile. Il cherche à retrouver la vue.
SIFA 2025 : un miroir pour nos démocraties numériques
C'est dans ce climat fiévreux que tombe le rapport « État de la liberté de l’internet en Afrique 2025 » (SIFA 2025). Publiée par CIPESA, cette étude est un un miroir tendu à nos démocraties. Menée dans 14 nations africaines, dont le Cameroun, elle dissèque l'impact de l'IA sur l'espace civique.
L'analyse est sans concession. L'IA n'est pas un outil neutre ; son effet dépend du terreau politique. Dans des démocraties consolidées comme le Ghana ou l'Afrique du Sud, elle peut renforcer la transparence. Mais dans des contextes politiques sous tension, comme le nôtre, elle devient une arme. Le rapport le confirme : le risque d'un usage autoritaire, pour la surveillance et la désinformation, est élevé.
La campagne fantôme et le spectre du deepfake
Contraste saisissant pour la campagne 2025 : le président Paul Biya, maître du silence politique, orchestre une offensive numérique d’une intensité inédite. En s'appuyant sur l'IA pour séduire la jeunesse urbaine, sa stratégie a transformé les réseaux sociaux en une puissante caisse de résonance pour un narratif à trois volets : l'appel civique à l'inscription électorale, la promotion du « vivre-ensemble » et le rappel au « respect des institutions ».
Pourtant, cette fascination numérique se heurte au réel. L'omniprésence virtuelle du pouvoir contraste avec son absence sur le terrain, créant un scepticisme profond. Des observateurs qualifient cette candidature de « deepfake politique », où des visuels artificiels comblent le vide laissé par le débat public. La campagne de l'opposant Issa Tchiroma Bakary a elle-même été ciblée : des images le montrant devant des foules immenses, issues d'anciens meetings et manipulées par IA, ont circulé, l'obligeant à dénoncer publiquement ces "calomnies".
Ces manipulations ne sont pas anecdotiques. Elles sont le symptôme d'une menace systémique :
- Désinformation électorale : la capacité à générer des vidéos, audios et textes hyperréalistes pour discréditer un candidat ou fabriquer de fausses annonces est une menace directe pour le vote du 12 octobre.
- Surveillance et contrôle : le déploiement de caméras à reconnaissance faciale à Yaoundé et Douala, justifié par la sécurité, installe un œil permanent sur l'espace public, capable de dissuader toute mobilisation.
- Biais et exclusion : les algorithmes, entraînés sur des données occidentales, peinent à comprendre nos réalités. Ils peuvent générer des décisions discriminatoires et sont inefficaces pour modérer les discours de haine dans nos langues locales (Fulfulde, Bassa, Ewondo, Bamiléké), laissant le champ libre à la toxicité.
L'IA en Afrique, selon le rapport SIFA 2025, est à double tranchant. Pour le Cameroun, elle représente un risque majeur de manipulation électorale via des deepfakes et une surveillance accrue, dans un contexte où la gouvernance de l'IA reste embryonnaire.
Un œil fermé sur l'IA
Le cadre juridique, lui, tente de suivre. Le Cameroun s'appuie sur la loi de 2010 sur la cybersécurité et la récente loi sur la protection des données. Mais sans texte spécifique à l'IA, un vide dangereux persiste. Le MINPOSTEL a initié des réflexions, mais une stratégie nationale claire se fait attendre.
Le rapport SIFA 2025 est formel : aucun des 14 pays étudiés ne dispose d'une loi spécifique à l'IA. Le Cameroun ne fait pas exception. Le cadre repose sur trois textes :
- Loi n° 2010/012 sur la cybersécurité et la criminalité électronique : elle punit la diffusion de fausses nouvelles, mais ne mentionne pas explicitement les contenus générés par IA.
- Loi n° 2010/013 sur les communications électroniques : elle régule les télécoms, mais ignore les algorithmes de recommandation et la modération automatisée.
- Loi n° 2024/017 sur la protection des données personnelles : elle encadre la collecte de données, mais ne prévoit pas de dispositions spécifiques pour les systèmes biométriques à base d'IA.
La loi face au mur de l'anonymat
En théorie, le cadre législatif contre la désinformation électorale se veut dissuasif. La loi sur la cybersécurité de 2010 prévoit en effet des sanctions sévères, pouvant aller jusqu'à 10 ans de prison et 20 millions de FCFA d'amende.
Pourtant, cette force de dissuasion se heurte au mur de la réalité numérique : l'identification quasi insurmontable des auteurs. Conçu avant l'ère des deepfakes et des IA génératives, ce dispositif juridique se révèle aujourd'hui largement obsolète, incapable de répondre aux menaces actuelles.
Retrouver la vue : les armes de la résilience
Le désenvoûtement est en marche. L'IA offre aussi des outils pour aiguiser notre regard.
- Détecter et déconstruire les mensonges : des outils IA de pointe aident désormais à identifier les deepfakes (Sensity AI), à cartographier les réseaux de bots et à vérifier l'origine des images. Des initiatives comme #AFFCameroon forment les journalistes à maîtriser ces nouvelles armes.
- Ouvrir l'information au public : l'IA peut rendre les données publiques, comme les budgets, compréhensibles par tous via la visualisation, ou encore faciliter l'accès aux services grâce à des chatbots administratifs.
- Franchir la barrière des langues : la traduction automatique permet de diffuser massivement l'information électorale dans les langues locales, garantissant un accès plus équitable au savoir.
L'objectif commun est de transformer un écosystème de méfiance en un "écosystème de confiance".
Les initiatives en cours
Le rapport SIFA salue des avancées timides :
- Le Ministère des Postes et Télécommunications (MINPOSTEL) a créé un comité technique sur la régulation de l'IA.
- Des auditions parlementaires ont porté sur les impacts sociétaux de l'IA.
- Des OSC ont proposé une "Charte citoyenne pour une IA éthique".
Article précédent sur la loi camerounaise de 2024 "Protéger vos données au Cameroun : 10 points à connaître"
Paysage numérique : une fracture visible
Le tableau comparatif du rapport SIFA 2025 est une photographie crue de ces inégalités.
| Pays | Pénétration Internet¹ (%) | Préparation à l'IA² (Score/100) | Indice de démocratie³ (Score/10) |
| Afrique du Sud | 78.9 | 52.91 | 7.05 (Démocratie imparfaite) |
| Ghana | 69.9 | 43.30 | 6.30 (Démocratie imparfaite) |
| Sénégal | 60.6 | 46.11 | 4.40 (Régime hybride) |
| Kenya | 48.0 | 43.56 | 4.75 (Régime hybride) |
| Nigéria | 45.4 | 43.33 | 4.23 (Régime hybride) |
| Ouganda | 28.0 | 34.63 | 4.59 (Régime hybride) |
| Rwanda | 34.2 | 51.25 | 3.26 (Régime autoritaire) |
| Cameroun | 41.9 | 33.46 | 2.88 (Régime autoritaire) |
¹ DataReportal (2024), ² Oxford Insights 'Govt AI Readiness Index' (2023), ³ EIU 'Democracy Index' (2023. Les données sont sujettes à des variations.
Lecture du tableau :
Le Cameroun se situe dans le quadrant à haut risque : faible pénétration internet (41,9%), faible préparation à l'IA (33,46), et un des indices de démocratie les plus bas du continent (2,88). Cette combinaison crée un environnement où l'IA peut être déployée de manière autoritaire sans contre-pouvoir citoyen suffisant.
À l'inverse, l'Afrique du Sud et le Ghana, bien qu'imparfaits, disposent d'une connectivité élevée, d'une préparation institutionnelle plus forte, et surtout d'un espace civique plus ouvert. Cela leur permet de mieux encadrer les usages de l'IA et de limiter les dérives.
Le Rwanda, cas paradoxal, possède une préparation technique élevée (51,25) mais un indice de démocratie très faible (3,26). Résultat : une IA efficace au service d'un régime autoritaire. Le Cameroun risque de suivre cette trajectoire.
Recommandations pour un regard éclairé
Pour que l'IA serve la démocratie et non l'inverse, des actions urgentes sont nécessaires :
- Transparence obligatoire : tout contenu politique généré par IA doit être clairement identifié. Les deepfakes trompeurs doivent être interdits.
- Encadrement des systèmes à risque : aucune technologie de surveillance biométrique ne devrait être déployée sans une Évaluation d'Impact sur les Droits Humains (HRIA).
- Éducation du regard : des campagnes nationales doivent apprendre aux citoyens à déceler la manipulation.
- Responsabilisation des plateformes : elles doivent investir dans la modération en langues locales et publier des rapports sur leurs actions concernant l'élection au Cameroun.
Mais ces initiatives restent informelles et non contraignantes. Le rapport appelle à une législation IA dédiée, incluant :
Le 12 octobre, chaque électeur sera seul face à son choix. Mais ce choix aura été façonné par tout ce qu'il aura vu, ou cru voir. La bataille pour le futur du Cameroun est avant tout une bataille pour la vérité du regard.
FAQ : l'œil qui questionne
Qu'est-ce que le rapport SIFA 2025 ?
C'est l'étude annuelle "State of Internet Freedom in Africa" de l'organisation CIPESA. L'édition 2025 se concentre sur l'impact de l'intelligence artificielle sur la démocratie numérique en Afrique, y compris au Cameroun.
Quels sont les principaux risques de l'IA pour l'élection au Cameroun ?
Les risques majeurs sont la désinformation de masse via deepfakes pour manipuler les électeurs, la surveillance numérique pour intimider l'opposition, et l'exclusion de certaines populations due aux biais des algorithmes.
Comment l'IA peut-elle aider la démocratie ?
L'IA peut améliorer l'accès à l'information (e-gouvernement), aider les journalistes à vérifier les faits (fact-checking), et traduire les informations électorales dans les langues locales, favorisant une participation plus large.
Qu'est-ce qu'un "deepfake" et pourquoi est-ce dangereux ?
Un deepfake est une vidéo ou un audio manipulé par IA pour faire dire ou faire à une personne quelque chose de faux. C'est dangereux en période électorale car cela peut servir à fabriquer de fausses preuves pour discréditer un candidat et tromper les électeurs.
Le Cameroun a-t-il une loi sur l'IA ?
Non. À ce jour, le Cameroun n'a pas de loi spécifique à l'IA. Sa gouvernance repose sur des textes plus généraux sur la cybersécurité et la protection des données, ce qui crée un vide juridique face aux menaces actuelles.
Où trouver le rapport SIFA 2025 ?
Le rapport complet, "Navigating the Implications of AI on Digital Democracy in Africa", est disponible sur le site officiel de CIPESA (cipesa.org).
Sources
- CIPESA - SIFA 2025 : State of Internet Freedom in Africa (SIFA) Report 2025: Navigating the Implications of AI on Digital Democracy in Africa.
- DataReportal : Digital 2024 Global Overview Report.
- Oxford Insights : Government AI Readiness Index 2023.
- GSMA : Mobile Economy Sub-Saharan Africa 2025
- Economist Intelligence Unit (EIU) : Democracy Index 2023.
- Freedom House : Freedom in the World / Freedom on the Net Reports.
