Les enjeux de L'IA dans les services publics

9 février 2026
Ecrit par ib Cegos

Les enjeux de l'IA dans les services publics : gains réels, risques structurels, et formation

Diriger un service public vous confronte à une double contrainte : traiter un volume croissant de dossiers, tout en réduisant les délais, les coûts et les erreurs. Dans ce contexte, l’intelligence artificielle est souvent présentée comme une solution capable d’automatiser les tâches répétitives, d’améliorer la qualité des décisions et de libérer du temps pour les agents.Mais en même temps, les usages de l’IA dans l’action publique suscitent de nombreuses interrogations autour des biais algorithmiques, des fuites de données sensibles après des cyberattaques, ou des décisions automatisées annulées faute de transparence. Ces nouvelles technologies ne sont ni neutres ni sans risques.La question est donc : dans quelles conditions l’IA peut-elle améliorer les services publics ? Mal pilotée, elle expose les différents services à des risques juridiques, démocratiques et opérationnels.Cet article vous propose un cadre de réflexion pour comprendre les apports réels de l’IA, identifier ses limites, définir les principes de gouvernance nécessaires à un déploiement maîtrisé et responsable, et surtout comment bien vous former à ces nouveaux enjeux en 2026.

Ce qu'il faut retenir

L’IA est un levier de performance pour les services publics, à condition d’être utilisée pour réduire les délais, les erreurs et absorber les volumes, avec des objectifs et des métriques clairement définis en amont.

Tous les systèmes d’IA ne se valent pas : il faut distinguer algorithmes déterministes et systèmes apprenants, car plus l’IA est autonome, plus les exigences de gouvernance, de contrôle humain et de responsabilité juridique augmentent.

L’IA transforme profondément les métiers publics, en réduisant le travail répétitif mais en renforçant le rôle humain sur la vérification, les exceptions, l’explication des décisions et la relation aux usagers, ce qui impose une montée en compétences structurée.

Les limites de l’IA sont multiples : biais algorithmiques, risques démocratiques, cybersécurité, gestion des données publiques, perte de confiance des usagers et impact environnemental doivent être anticipés avant tout déploiement à grande échelle.

En 2026, la formation devient un prérequis stratégique, avec l’entrée en application de l’AI Act : maîtriser les cadres juridiques, éthiques et organisationnels est indispensable pour déployer une IA conforme, responsable et réellement au service de l’intérêt général.

De quoi parle-t-on exactement quand on évoque l’IA dans le service public ?

L’intelligence artificielle recouvre des réalités très différentes, souvent regroupées à tort sous une même étiquette. Or, dans le service public, cette confusion crée des attentes irréalistes et des risques inutiles. Avant tout projet, il est indispensable de qualifier précisément le type de système envisagé, car le niveau de contrôle, de transparence et de responsabilité varie fortement selon les technologies utilisées.

On distingue classiquement deux grandes catégories :

  • Les algorithmes déterministes qui appliquent des règles explicites et stables, définies à l’avance. C’est le cas de nombreux systèmes de calcul administratif ou de gestion de règles métier. Leur fonctionnement est entièrement traçable : chaque résultat peut être expliqué, reproduit et audité ligne par ligne. La maîtrise repose principalement sur la qualité des règles et leur mise à jour.
  • Les systèmes apprenants (qu’il s’agisse de machine learning, de modèles de scoring ou d’IA générative) qui produisent des résultats probabilistes à partir de données d’entraînement. Leur logique interne n’est plus directement lisible. Leur performance dépend de la qualité des données, évolue dans le temps et nécessite une supervision continue pour détecter dérives, biais ou pertes de fiabilité.

Plus un système est autonome, plus les exigences de gouvernance augmentent : documentation, contrôle humain, traçabilité et responsabilité juridique. À l’inverse, des usages plus simples, limités à l’assistance ou à l’orientation, présentent des risques plus maîtrisables.

Cette clarification conditionne l’ensemble des choix à venir. Elle permet d’aligner les ambitions technologiques avec les contraintes juridiques, éthiques et organisationnelles propres au service public, et d’éviter de traiter de la même manière des usages aux impacts radicalement différents.

Quels sont les enjeux de l'IA pour les services publics ?

L’IA est avant tout mobilisée pour répondre à des contraintes concrètes :

  • Réduire les délais de traitement : trier, pré-instruire, orienter les demandes pour accélérer la réponse.
  • Baisser le taux d'erreur : standardiser les contrôles, détecter les incohérences, limiter les saisies multiples.
  • Assurer la cohérence : appliquer les mêmes règles sur tous les dossiers, réduire l'arbitraire lié à la fatigue ou à la charge.
  • Absorber les pics de volumétrie : traiter plus de demandes sans recruter, maintenir le service en période de tension budgétaire.

Ces gains sont mesurables : temps moyen de traitement, taux de réclamation, taux de complétude des dossiers, disponibilité du service. Si vous ne définissez pas ces métriques avant le projet, vous ne pourrez pas arbitrer entre efficacité et risque

Comment faciliter l’accès aux services publics grâce à l’IA ?

La dématérialisation a simplifié les démarches pour une partie des usagers, mais elle a aussi créé des ruptures pour ceux qui maîtrisent moins les outils numériques ou dont la situation sort des cadres standardisés.

Bien utilisée, l’IA peut réduire ces frictions :

  • Orientation vers la bonne démarche,
  • Pré-remplissage des formulaires,
  • Assistance à la compréhension des procédures
  • Suivi proactif des dossiers.

Elle peut ainsi soutenir une administration plus lisible et plus accessible.

Quelles sont les limites de l’intelligence artificielle dans le service public ?

L’intelligence artificielle ouvre des perspectives d’amélioration, mais elle révèle aussi des limites qu’il faut anticiper avant tout déploiement. Ces limites touchent aux compétences, à l’organisation, aux droits des usagers, à la sécurité et aux principes démocratiques. Les ignorer revient à transformer un levier de performance en facteur de risque durable.

Voici les 7 grandes limites de l’intelligence artificielle dans le service public :

  1. Les compétences à développer chez les agents utilisant l’IA ;
  2. Le recours excessif à l’IA dans les cas complexes ;
  3. La fragilisation de la confiance des usagers ;
  4. Les biais algorithmiques ;
  5. Les risques démocratiques de certains traitement de données ;
  6. L'accroissement du risque cyber ;
  7. Le risque environnemental de l’IA.

Quelles compétences montent en priorité quand l'IA entre dans un projet public ?

L’introduction de l’IA modifie profondément le travail des agents publics :

  • Le travail répétitif diminue (saisie de données, tri de dossiers, relecture de conformité, rappels automatiques, etc.).
  • Le nombre de vérifications augmente car les agents doivent contrôler ce que propose l’IA et corriger les erreurs de l’outil.
  • Le temps humain est surtout dédié à la gestion des exceptions : les dossiers atypiques, les recours, les situations de détresse, les arbitrages sensibles.

Les agents sont désormais attendus sur la vérification des résultats produits par les systèmes IA et le traitement des situations sensibles.

H4. Quelles compétences les agents du services public doivent-ils développer en 2026 ?

  • Le cadrage des cas d'usage de l’IA : identifier les périmètres pertinents, définir les métriques, arbitrer entre automatisation et supervision.
  • La culture data : comprendre ce qu'est une donnée de qualité, repérer les biais, nettoyer les jeux de données, documenter les sources.
  • La gestion du risque IA : anticiper les erreurs, prévoir les procédures de recours, tester les scénarios dégradés, auditer les performances.
  • La documentation : rédiger les notices d'information, les analyses d'impact, les registres de traitement, les procédures de supervision.
  • La qualité attendue d’un projet IA / Big Data : définir les seuils d'acceptation, mesurer les performances, corriger les dérives, améliorer les modèles.
  • Les règles de confidentialité des données : former les agents à ne jamais saisir de données nominatives dans un prompt, à utiliser des données anonymisées ou des exemples fictifs, à vérifier que l'outil respecte les règles de conservation.
  • La conduite du changement : expliquer les bénéfices, rassurer sur l'emploi, former aux nouveaux processus, accompagner les résistances.

Pourquoi vous ne devez pas remplacer l’humain par l’IA dans les situations complexes ?

L’IA est globalement bien acceptée pour des fonctions d’assistance. Le baromètre Data Publica (2024) montre que 80 % des usagers préfèrent avoir accès à un humain même si cela ne peut se faire qu'aux horaires d'ouverture des guichets.

L'IA est acceptée pour :

  • La disponibilité : répondre hors horaires, absorber les pics de demandes, fournir une première orientation.
  • La préparation : pré-remplir un formulaire, lister les pièces manquantes, clarifier une procédure.
  • L'orientation : diriger vers le bon service, la bonne démarche, le bon formulaire.

L'humain reste attendu pour :

  • Les recours : contester une décision, obtenir une explication détaillée, demander une dérogation.
  • Les situations atypiques : dossiers incomplets, parcours de vie complexes, urgences sociales.
  • Les arbitrages sensibles : attribution d'une aide sous conditions, révision d'une décision, évaluation d'une situation de handicap.

La limite n’est donc pas technologique, mais relationnelle et démocratique : l’IA doit rester un outil au service de la relation administrative, et non un substitut à l’humain.

Comment anticiper les biais algorithmiques (et potentiellement discriminatoires) de l’IA ?

Ces biais peuvent apparaître à plusieurs niveaux :

  • Des données historiques reflétant des pratiques passées,
  • Des variables indirectement corrélées à des critères sociaux sensibles,
  • Des seuils de décision mal calibrés,
  • Etc.

Dans le service public, ces biais peuvent se traduire par des discriminations indirectes, notamment dans l’attribution de droits ou la détection de fraudes. Leur détection suppose des audits réguliers, des tests sur des sous-populations et une capacité à documenter et corriger les écarts observés.

La lutte contre les biais constitue donc une limite structurelle de l’IA publique : elle ne peut être traitée qu’au prix d’un effort constant de vigilance, incompatible avec une logique de déploiement rapide et peu encadré.

Comment cadrer le risque démocratique lié à certains usages de surveillance ?

Certains usages de l’IA, notamment dans le champ de la surveillance assistée, posent des questions démocratiques majeures. La vidéosurveillance augmentée, par exemple, introduit des mécanismes de détection automatisée de comportements jugés « anormaux », souvent sans débat public approfondi.

Ces dispositifs peuvent produire un effet dissuasif sur l’exercice des libertés, normaliser des comportements sans cadre démocratique explicite et rendre les décisions difficilement contestables faute de transparence. Le contrôle indépendant des algorithmes et la traçabilité des décisions restent souvent insuffisants.

Même lorsque le cadre juridique prévoit des exceptions, ces usages constituent une limite forte : sans gouvernance démocratique claire, l’IA peut fragiliser la légitimité de l’action publique.

Comment éviter de fragiliser votre service aux menaces cyber par un usage mal encadré de l’IA ?

L'IA multiplie les surfaces d'attaque :

  • Flux de données : les données circulent entre votre SI, les environnements d'entraînement, les API des fournisseurs, les outils de supervision. Chaque flux est un point d'entrée potentiel.
  • Fournisseurs multiples : vous dépendez d'acteurs externes pour l'hébergement, les modèles, les API. Vous ne contrôlez pas leur niveau de sécurité.
  • Dépôts de modèles : les modèles pré-entraînés téléchargés depuis des plateformes publiques peuvent contenir des backdoors ou des vulnérabilités.
  • Discipline SSI faible : les agents utilisent des outils IA grand public (ChatGPT, Gemini) sans respecter les règles de confidentialité, saisissent des données sensibles dans les prompts, partagent des sorties IA non vérifiées.

Pour contrer ces risques, il est essentiel d'imposer des mesures de sécurité renforcées (cloisonnement strict, surveillance des accès, formation des agents), dont la complexité est difficile à maintenir dans le temps.

Pourquoi vous ne devez pas négliger l'empreinte environnementale de l'IA, même avec un cas d'usage "léger" ?

Le numérique représente 2,5 % des émissions de gaz à effet de serre en France, et ce chiffre pourrait tripler d'ici 2050 sans action. L'IA amplifie cette empreinte par :

  • L’entraînement des modèles IA qui consomme autant d'électricité que plusieurs foyers français sur une année.
  • La quantité de requêtes vs le coût en énergie : chaque requête consomme de l'énergie. Si votre système traite 100 000 requêtes par jour, l'impact de l’IA s'accumule.
  • Le refroidissement des data centers quii nécessite des volumes massifs d'eau douce. On estime qu'en 2027, l'IA mondiale pourrait consommer entre 4,2 et 6,6 milliards de mètres cubes d'eau.
  • La fabrication des équipements : 78 % de l'empreinte carbone du numérique provient de la phase de fabrication. Multiplier les serveurs et terminaux dédiés IA aggrave le bilan.

Dans un contexte d’engagements climatiques forts, ces impacts ne peuvent être ignorés et appellent des choix explicites : sobriété des usages, mutualisation des infrastructures, allongement de la durée de vie du matériel et recours à des modèles plus frugaux.

Comment piloter un projet IA dans les services publics en 2026 ?

Voici quelques bonnes pratiques à mettre en place avant d’implémenter l’IA dans votre service public. La plupart de ces conseils sont approfondis dans la formation L’intelligence artificielle au service des projets de l’entreprise d’ib Cegos.

Qui doit décider d'un usage IA dans les services publics ?

Avant de vous lancer dans un projet IA, vous devez clarifier :

  • Le sponsor métier : qui porte le besoin, valide les cas d'usage, arbitre entre gain et risque.
  • Le data owner : qui garantit la qualité, la légalité et la traçabilité des données utilisées.
  • Le RSSI : qui valide les flux, les accès, les règles de confidentialité et les plans de réponse aux incidents.
  • Le DPO : qui vérifie la conformité RGPD, les analyses d'impact, les durées de conservation.
  • Le contrôleur de gestion : qui chiffre les coûts réels (infrastructure, maintenance, supervision) et les compare aux gains attendus.
  • La direction juridique : qui anticipe les recours, les obligations de transparence, les clauses de réversibilité dans les contrats.

Sans ce collectif, vous risquez de déployer une solution techniquement satisfaisante mais juridiquement contestable, financièrement insoutenable ou socialement inacceptable.

Quelles sont les 6 étapes clés d'un projet IA public ?

  1. Sélectionner 3 cas d'usage : privilégiez une volumétrie élevée (plusieurs milliers de demandes par an), des règles métier stables, un bénéfice mesurable (réduction de délai, baisse d'erreur), un contrôle humain simple à organiser et une contestabilité faible. Évitez les domaines où la réglementation change tous les six mois ou les décisions portent sur des droits fondamentaux.
  2. Définir les métriques : fixez dès le départ les indicateurs de performance (temps moyen de traitement, taux d'erreur, taux de réclamation, disponibilité du service) et leurs seuils d'acceptation. Sans ces chiffres, vous ne pourrez pas arbitrer entre efficacité et risque en fin de pilote.
  3. Cadrer les données : identifiez les sources, vérifiez la qualité (complétude, cohérence, fraîcheur), anonymisez si nécessaire, documentez les autorisations légales (RGPD, AI Act) et organisez les flux de mise à jour. Un jeu de données sale produit un modèle inutilisable.
  4. Organiser le contrôle humain : écrivez noir sur blanc qui vérifie quoi, à quelle fréquence, avec quels outils et selon quelle procédure. Rédigez les fiches de poste et les modes opératoires pour que les agents sachent repérer les erreurs IA et traiter les exceptions.
  5. Tester en conditions réelles : déployez sur un périmètre restreint (une agence pilote, une direction, un type de demande), mesurez les performances par rapport aux objectifs, corrigez les erreurs détectées, ajustez les paramètres. Installez un monitoring continu avec alertes automatiques si les seuils sont franchis.
  6. Décider de l'échelle ou de l'arrêt : comparez les résultats obtenus aux objectifs fixés en étape 2. Si les métriques sont atteintes et les risques maîtrisés, passez à l'échelle progressive. Sinon, corrigez le dispositif ou abandonnez le projet. Documentez cette décision pour garantir la redevabilité et capitaliser l'expérience.

Pourquoi 2026 impose de se former avant de déployer l'IA dans les services publics ?

L’intelligence artificielle représente une opportunité réelle pour améliorer l’efficacité, la qualité et l’accessibilité des services publics. À l’approche de 2026, l’entrée en application progressive de l’AI Act marque un tournant décisif. Les systèmes d'IA à haut risque (catégorie dans laquelle tombent la plupart des usages publics) devront être enregistrés dans une base de données européenne après évaluation de leur conformité. Déployer sans maîtriser les règles de transparence, de traçabilité et de supervision humaine expose votre service à des sanctions administratives et à des contentieux.

La formation L'intelligence artificielle (IA) au service des projets de l'entreprise d'ib Cegos propose un cadre opérationnel pour structurer vos projets IA, former vos équipes aux usages responsables et garantir la conformité juridique. Si vous souhaitez structurer votre gestion de projet IA, cadrer vos usages et former vos équipes sur la pratique des requêtes, le cadre légal, la sécurité et la dimension éthique, nos équipes peuvent vous orienter.

Notre expert vous recommande :

L’Intelligence artificielle (IA) au service des projets de l’entreprise

2.9 /5 (14 avis)

FAQ : Vos questions fréquentes sur les Projets ITdurables

Quels sont les principaux enjeux de l'IA pour les services publics en 2026 ?

Les enjeux se situent à trois niveaux. Opérationnel : réduire les délais de traitement, baisser le taux d'erreur, absorber les pics de volumétrie sans recruter. Juridique : respecter le RGPD, l'AI Act, garantir l'explicabilité et le recours effectif. Démocratique : maintenir la confiance des usagers, éviter les biais discriminatoires, préserver la relation humaine dans les cas sensibles. Vous devez arbitrer entre gain et risque en fonction de métriques définies avant le projet.

Quelles sont les utilisations de l'IA dans la fonction publique en 2026 ?

Les principales utilisations de l’intelligence artificielle dans la fonction publique concernent des fonctions d’assistance et d’optimisation, notamment :

  • Tri et pré-instruction automatisés des dossiers
  • Aide à la décision et à l’analyse de données
  • Orientation et information des usagers (chatbots, assistants)
  • Détection d’anomalies ou de fraudes
  • Optimisation des services publics (santé, justice, territoires)

Comment mesurer l'impact d'un projet IA dans les services publics ?

Vous définissez des métriques avant le lancement : temps moyen de traitement, taux d'erreur, taux de réclamation, disponibilité du service, coût complet du projet (infrastructure, data, sécurité, supervision, formation, documentation). Vous comparez les résultats obtenus en pilote aux objectifs fixés. Si les métriques sont atteintes et les risques maîtrisés, vous passez à l'échelle. Sinon, vous corrigez ou vous abandonnez. Vous documentez la décision pour garantir la redevabilité.

Quelles sont les limites de l'intelligence artificielle dans le service public ?

Les limites principales sont la dérive des performances en production, les biais discriminatoires reproduits ou amplifiés par les données d'entraînement, le risque de surveillance généralisée avec la vidéosurveillance augmentée, les nouvelles surfaces d'attaque cyber créées par les flux de données et les fournisseurs multiples, et l'empreinte environnementale croissante des infrastructures IA. Chaque limite impose un garde-fou concret : monitoring continu, audits de biais, débat public, cloisonnement des environnements, sobriété pilotée par métriques.

 Comment intégrer le numérique responsable dans les décisions du comité de direction ?

Il faut introduire des critères environnementaux et sociaux dans les arbitrages budgétaires au même titre que la rentabilité et le risque. Le comité peut exiger des analyses d’impact sur la durée de vie du matériel, la dépendance fournisseurs et la valeur créée pour les métiers.

Comment garantir la protection des données publiques dans un projet IA ?

Vous devez cartographier les données sensibles, vérifier les autorisations légales de traitement, anonymiser dès que possible, cloisonner les flux entre votre SI et les environnements d'entraînement, chiffrer les échanges, auditer les fournisseurs, interdire l'usage d'outils grand public pour traiter des données sensibles, former les agents aux règles de confidentialité des requêtes (jamais de données nominatives dans un prompt), journaliser tous les accès et prévoir un plan de réponse aux incidents. Le DPO doit valider l'analyse d'impact RGPD avant tout déploiement.