Les départements gouvernementaux à travers l'Afrique du Sud s'appuient de plus en plus sur des outils numériques pour évaluer les programmes publics et surveiller les performances. Cela fait partie d'une tendance plus largeLes départements gouvernementaux à travers l'Afrique du Sud s'appuient de plus en plus sur des outils numériques pour évaluer les programmes publics et surveiller les performances. Cela fait partie d'une tendance plus large

La surveillance numérique se développe dans la fonction publique sud-africaine – La réglementation doit rattraper son retard

2026/02/16 12:49
Temps de lecture : 7 min

Les départements gouvernementaux à travers l'Afrique du Sud s'appuient de plus en plus sur des outils numériques pour évaluer les programmes publics et surveiller les performances. Cela s'inscrit dans le cadre de réformes plus larges du secteur public. Leurs objectifs sont d'améliorer la responsabilité et redevabilité, de répondre à la pression des audits et de gérer des programmes à grande échelle avec un personnel et des budgets limités.

Voici un exemple. Les départements nationaux qui suivent la livraison de logements, les subventions sociales ou le déploiement d'infrastructures s'appuient sur des systèmes de performance numériques plutôt que sur des rapports périodiques sur papier. Les tableaux de bord – une façon de présenter des données visuelles en un seul endroit – fournissent des mises à jour en temps quasi réel sur la prestation de services.

Un autre exemple est l'utilisation de plateformes qui collectent des données mobiles. Celles-ci permettent aux fonctionnaires de première ligne et aux contractants de télécharger des informations directement depuis le terrain.

Ces deux exemples se prêtent à l'utilisation de l'intelligence artificielle (IA) pour traiter de grands ensembles de données et générer des informations dont l'analyse aurait auparavant pris des mois.

Ce changement est souvent présenté comme une avancée pour la responsabilité et l'efficacité dans le secteur public.

Je suis un chercheur en politiques publiques avec un intérêt particulier pour le suivi et l'évaluation des programmes gouvernementaux. Mes recherches récentes montrent une tendance inquiétante : le virage vers la technologie se déroule beaucoup plus rapidement que les cadres éthiques et de gouvernance censés le réguler.

Dans tous les cas que j'ai examinés, les outils numériques étaient déjà intégrés dans les processus de suivi et d'évaluation de routine. Mais il n'y avait pas de normes claires pour guider leur utilisation.

Cela présente des risques en matière de surveillance, d'exclusion, de mauvaise utilisation des données et de mauvais jugement professionnel. Ces risques ne sont pas abstraits. Ils façonnent la manière dont les citoyens vivent l'État, la façon dont leurs données sont traitées et dont les voix comptent finalement dans les décisions politiques.

Quand la technologie dépasse la politique

L'évaluation du secteur public consiste à évaluer les programmes et les politiques gouvernementales. Elle détermine si :

  • les ressources publiques sont utilisées efficacement
  • les programmes atteignent leurs résultats escomptés
  • les citoyens peuvent tenir l'État responsable de ses performances.

Traditionnellement, ces évaluations reposaient sur des engagements en face à face entre les communautés, les évaluateurs, le gouvernement et d'autres. Elles comprenaient des méthodes qualitatives permettant la nuance, l'explication et la construction de la confiance.

Les outils numériques ont changé cela.

Dans mes recherches, j'ai interrogé des évaluateurs du gouvernement, d'ONG, du monde universitaire, d'associations professionnelles et de cabinets de conseil privés. J'ai constaté une préoccupation constante dans tous les domaines. Les systèmes numériques sont souvent introduits sans orientation éthique adaptée à la pratique d'évaluation.

Une orientation éthique fournirait des règles claires et pratiques sur la manière dont les outils numériques sont utilisés dans les évaluations. Par exemple, lors de l'utilisation de tableaux de bord ou d'analyses de données automatisées, les orientations devraient exiger des évaluateurs qu'ils expliquent comment les données sont générées, qui y a accès et comment les résultats peuvent affecter les communautés évaluées. Elles devraient également empêcher l'utilisation de systèmes numériques pour surveiller les individus sans consentement ou pour classer les programmes d'une manière qui ignore le contexte.

La loi sud-africaine sur la protection des informations personnelles fournit un cadre juridique général pour la protection des données. Mais elle ne traite pas des dilemmes éthiques spécifiques qui surviennent lorsque l'évaluation devient automatisée, basée sur le cloud et médiée par algorithme.

Le résultat est que les évaluateurs sont souvent laissés à naviguer dans un terrain éthique complexe sans normes claires. Cela oblige les institutions à s'appuyer sur les précédents, les habitudes informelles, les pratiques passées et les paramètres par défaut des logiciels.

Surveillance rampante et mauvaise utilisation des données

Les plateformes numériques permettent de collecter de grands volumes de données. Une fois que les données sont téléchargées sur des systèmes basés sur le cloud computing ou des plateformes tierces, le contrôle sur leur stockage, leur réutilisation et leur partage passe fréquemment des évaluateurs à d'autres.

Plusieurs évaluateurs ont décrit des situations où les données qu'ils avaient collectées pour le compte de départements gouvernementaux ont été réutilisées plus tard par les départements ou d'autres agences d'État. Cela a été fait sans la conscience explicite des participants. Les processus de consentement dans les environnements numériques sont souvent réduits à un simple clic.

Des exemples d'autres utilisations incluaient d'autres formes d'analyse, de rapports ou de surveillance institutionnelle.

L'un des risques éthiques qui est ressorti de la recherche était l'utilisation de ces données pour la surveillance. Il s'agit de l'utilisation de données pour surveiller les individus, les communautés ou les travailleurs de première ligne.

Exclusion numérique et voix invisibles

Les outils d'évaluation numérique sont souvent présentés comme élargissant la portée et la participation. Mais dans la pratique, ils peuvent exclure des groupes déjà marginalisés. Les communautés avec un accès Internet limité, une faible littératie numérique, des barrières linguistiques ou une infrastructure peu fiable sont moins susceptibles de participer pleinement aux évaluations numériques.

Les outils automatisés ont des limitations. Par exemple, ils peuvent avoir du mal à traiter des données multilingues, des accents locaux ou des formes d'expression culturellement spécifiques. Cela conduit à des représentations partielles ou déformées de l'expérience vécue. Les évaluateurs de mon étude ont vu cela se produire dans la pratique.

Cette exclusion a des conséquences graves, en particulier dans un pays avec des inégalités comme l'Afrique du Sud. Les évaluations qui s'appuient fortement sur des outils numériques pourraient cibler les populations urbaines et connectées et rendre les communautés rurales ou informelles statistiquement invisibles.

Ce n'est pas simplement une limitation technique. Cela façonne quels besoins sont reconnus et quelles expériences informent les décisions politiques. Si les données d'évaluation sous-représentent les plus vulnérables, les programmes publics peuvent paraître plus efficaces qu'ils ne le sont. Cela masque les échecs structurels plutôt que de les traiter.

Dans mon étude, certaines évaluations ont rapporté des tendances de performance positives malgré le fait que les évaluateurs aient noté des lacunes dans la collecte de données.

Les algorithmes ne sont pas neutres

Les évaluateurs ont également soulevé des préoccupations concernant l'autorité croissante accordée aux résultats algorithmiques. Les tableaux de bord, les rapports automatisés et les analyses pilotées par l'IA sont souvent traités comme l'image fidèle. Cela se produit même lorsqu'ils entrent en conflit avec les connaissances de terrain ou la compréhension contextuelle.

Par exemple, les tableaux de bord peuvent montrer qu'un objectif est sur la bonne voie. Mais lors d'une visite sur site, les évaluateurs peuvent constater des défauts ou de l'insatisfaction.

Plusieurs participants ont signalé une pression des bailleurs de fonds ou des institutions pour s'appuyer sur l'analyse des chiffres.

Pourtant, les algorithmes reflètent les hypothèses, les ensembles de données et les priorités intégrés dans leur conception. Lorsqu'ils sont appliqués de manière non critique, ils peuvent reproduire des biais, simplifier à l'excès les dynamiques sociales et ignorer les informations qualitatives.

Si les systèmes numériques dictent comment les données doivent être collectées, analysées et rapportées, les évaluateurs risquent de devenir des techniciens et non des professionnels indépendants exerçant leur jugement.

Pourquoi l'Afrique a besoin d'une éthique sensible au contexte

À travers l'Afrique, les stratégies nationales et les politiques sur les technologies numériques empruntent souvent largement aux cadres internationaux. Ceux-ci sont développés dans des contextes très différents. Les principes mondiaux sur l'éthique de l'IA et la gouvernance des données fournissent des points de référence utiles. Mais ils ne traitent pas adéquatement les réalités de l'inégalité, de la méfiance historique et de l'accès numérique inégal dans une grande partie du secteur public africain.

Mes recherches soutiennent que la gouvernance éthique de l'évaluation numérique doit être sensible au contexte. Les normes doivent aborder :

  • comment le consentement est obtenu
  • qui possède les données d'évaluation
  • comment les outils algorithmiques sont sélectionnés et audités
  • comment l'indépendance des évaluateurs est protégée.

Les cadres éthiques doivent être intégrés au stade de la conception des systèmes numériques.The Conversation

Lesedi Senamele Matlala, maître de conférences et chercheur en politique publique, suivi et évaluations, University of Johannesburg

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l'article original.

Opportunité de marché
Logo de PUBLIC
Cours PUBLIC(PUBLIC)
$0,01493
$0,01493$0,01493
+0,47%
USD
Graphique du prix de PUBLIC (PUBLIC) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.