IA et services publics, une nouvelle fracture mondiale ?
- il y a 15 minutes
- 5 min de lecture

L’intelligence artificielle transforme déjà en profondeur les services publics à travers le monde. Ce qui relevait encore récemment de l’expérimentation technologique est désormais intégré aux systèmes de santé, aux administrations fiscales, aux dispositifs de protection sociale et aux politiques urbaines. Selon le rapport AI for the Next Generation of Public Services, publié par le Programme des Nations Unies pour le Développement (PNUD) en collaboration avec l’Institute for AI International Governance de l’Université Tsinghua, cette évolution constitue l’un des bouleversements administratifs les plus significatifs depuis la numérisation des États.
Cependant, cette mutation technologique ne produit pas uniquement des gains d’efficacité. Elle soulève une question centrale : l’intelligence artificielle deviendra-t-elle un levier de modernisation équitable ou un accélérateur d’inégalités, entre pays et au sein même des sociétés ?
Dans les États les plus avancés numériquement, l’IA est déjà utilisée pour automatiser des tâches administratives et les services publics. Elle sert à analyser des volumes massifs de données et améliorer la qualité des décisions publiques. Les gains opérationnels sont tangibles. L’automatisation du traitement des dossiers sociaux et de la vérification de l’éligibilité (à une aide par exemple) permet de réduire les délais et les erreurs humaines. Des agents conversationnels publics fonctionnent en continu, offrant une assistance 24 heures sur 24. L’analyse prédictive soutient la gestion des crises sanitaires et des catastrophes naturelles (avec un succès croissant), tandis que l’optimisation algorithmique améliore la fluidité des transports, la gestion énergétique et la sécurité urbaine.
Certaines initiatives illustrent concrètement cette transformation. À Singapour, la plateforme « Moments of Life » permet aux jeunes parents de réaliser une quinzaine de démarches administratives de manière "accélérée", réduisant d’environ 70 % le temps nécessaire à ces formalités. Le chatbot public OneService traite plus de 500 000 requêtes par an, avec une résolution des problèmes dans les 48 heures dans 90 % des cas. En Thaïlande, le marché de la santé numérique devrait croître d’environ 15 % par an entre 2021 et 2026, l’intelligence artificielle jouant un rôle central dans l’analyse d’imagerie médicale et le diagnostic assisté. Ces exemples montrent que l’IA peut renforcer la rapidité, la précision et la personnalisation de l’action publique.
Toutefois, cette modernisation technologique comporte des risques. Le premier concerne l’opacité de l'algorithme. Les décisions prises ou appuyées par des systèmes automatisés deviennent parfois difficiles à comprendre, voire à contester, y compris pour les agents publics eux-mêmes. Cette situation alimente le spectre d’un « gouvernement boîte noire », où la logique décisionnelle échappe au contrôle démocratique.
Le second risque est celui des biais algorithmiques. Les systèmes algorithmiques de lutte contre la fraude sociale se répandent en Europe, quand bien même les preuves de leurs effets négatifs sur des populations déjà vulnérables se multiplient. En effet, les systèmes d’IA sont entraînés à partir de données historiques qui reflètent des inégalités préexistantes. En conséquence, il est fréquent que les algorithmes ciblent injustement les femmes, les personnes vulnérables ou des minorités, aggravant leur exclusion sociale. Dans un autre registre, en Australie, le scandale « Robodebt » a révélé qu’un dispositif automatisé de recouvrement de dettes avait mal évalué les revenus d'un très grand nombre de bénéficiaires, provoquant une crise majeure de confiance envers l’administration. Ces cas rappellent que l’intelligence artificielle n’est pas neutre : elle reflète les structures institutionnelles et sociales dans lesquelles elle est conçue et déployée.
Le rapport du PNUD souligne également une fracture numérique préoccupante.
Les bénéfices de l’IA publique se concentrent principalement dans les pays disposant déjà d’infrastructures numériques robustes. En Chine, par exemple, certaines grandes métropoles affichent des débits Internet supérieurs à 220 Mbps avec un taux de pénétration de 85 %, tandis que des provinces rurales restent sous les 50 Mbps avec moins de 65 % de couverture. Cette asymétrie alimente ce que les auteurs qualifient d’« automation of exclusion » : les populations rurales, âgées ou faiblement alphabétisées numériquement rencontrent davantage de difficultés pour accéder à des services désormais digitalisés.
En Malaisie, l’introduction de systèmes d’IA dans la gestion de la sécurité sociale a complexifié l’accès pour certains usagers à faibles revenus, confrontés à des interfaces peu intuitives. Au Bangladesh, des agriculteurs n’ont pas pleinement tiré parti des recommandations agricoles basées sur l’IA faute de compréhension suffisante des données fournies. L’enjeu dépasse donc la seule performance technologique : il est profondément social et éducatif.
Les inégalités de genre constituent un autre angle mort. En Inde, certains systèmes d’accès aux droits sociaux associent les prestations au chef de ménage officiellement enregistré, souvent un homme, ce qui peut invisibiliser les besoins spécifiques des femmes. Au Vietnam, des algorithmes d’orientation professionnelle ont recommandé davantage de postes techniques aux hommes et des emplois moins qualifiés aux femmes. Selon une étude citée dans le rapport, seuls 28 % des citoyens interrogés dans dix pays se déclaraient conscients de l’existence de biais de genre dans l’IA, mais 66 % estimaient que les gouvernements devraient encadrer ces pratiques. La question n’est donc pas seulement technique : elle touche aux fondements démocratiques de l’action publique.
La concentration massive de données publiques soulève enfin des enjeux majeurs de vie privée et de cybersécurité. Le cabinet Gartner estime que d’ici 2027, plus de 40 % des violations de données liées à l’IA pourraient provenir d’un usage transfrontalier inapproprié de l’IA générative. Dans un contexte géopolitique fragmenté, la souveraineté numérique devient un impératif stratégique pour les États.
Face à ces défis, le rapport propose un cadre structuré autour de six piliers :
le développement d’infrastructures numériques inclusives,
la mise en place d’une gouvernance sécurisée des données,
l’instauration de mécanismes d’audit éthique avant, pendant et après le déploiement des systèmes,
l’intégration organisationnelle cohérente des technologies,
le lancement de programmes ambitieux de littératie numérique et d’éducation à l’IA
le renforcement de la coopération régionale et internationale.
L’idée centrale est claire : la réussite de l’IA publique repose sur l’articulation étroite entre innovation technologique, gouvernance robuste et inclusion sociale.
L’intégration de l’intelligence artificielle dans les services publics représente une opportunité majeure d’amélioration de l’efficacité administrative et de personnalisation des politiques publiques. Elle peut également accélérer une divergence structurelle entre États technologiquement avancé et pays à faible capacité institutionnelle, entre zones urbaines connectées et territoires ruraux marginalisés, entre citoyens maîtrisant les outils numériques et populations vulnérables.
L’enjeu est fondamentalement politique. Il ne s’agit pas simplement d’adopter de nouveaux outils, mais de redéfinir les modalités d’exercice de l’autorité publique à l’ère algorithmique. L’intelligence artificielle ne remplace pas l’État ; elle transforme la manière dont celui-ci conçoit, décide et agit. La question centrale n’est donc pas de savoir s’il faut intégrer l’IA aux services publics, mais comment le faire sans creuser la prochaine grande fracture mondiale.
Source : Programme des Nations Unies pour le Développement (PNUD) – AI for the Next Generation of Public Services
Pour aller plus loin, contactez omestra !


