{"id":68298,"date":"2026-02-19T09:41:18","date_gmt":"2026-02-19T09:41:18","guid":{"rendered":"https:\/\/dekkbi.com\/?p=68298"},"modified":"2026-02-19T09:41:19","modified_gmt":"2026-02-19T09:41:19","slug":"lia-au-coeur-de-la-gouvernance-publique-senegalaise-entre-espoirs-de-progres-et-imperatifs-ethiques","status":"publish","type":"post","link":"https:\/\/dekkbi.com\/?p=68298","title":{"rendered":"L\u2019IA au c\u0153ur de la gouvernance publique s\u00e9n\u00e9galaise : Entre espoirs de progr\u00e8s et imp\u00e9ratifs \u00e9thiques"},"content":{"rendered":"\n<p><strong>Le S\u00e9n\u00e9gal, comme de nombreux autres \u00c9tats, concentre toute son attention sur l\u2019intelligence artificielle comme outil de modernisation de son administration. De l\u2019am\u00e9lioration de l\u2019efficacit\u00e9 des services sociaux \u00e0 l\u2019optimisation du ciblage fiscal, les algorithmes offrent un potentiel d\u2019augmentation significative de l\u2019efficacit\u00e9. Pourtant, ce sont ces avanc\u00e9es num\u00e9riques qui suscitent de profondes inqui\u00e9tudes quant \u00e0 la transparence, la tra\u00e7abilit\u00e9 et l\u2019\u00e9quit\u00e9 des d\u00e9cisions automatis\u00e9es et les fondements \u00e9thiques de cette technologie en tant qu\u2019innovation.<\/strong><\/p>\n\n\n\n<p>L\u2019int\u00e9gration croissante de l\u2019intelligence artificielle (IA) dans la gouvernance publique est en cours, et le S\u00e9n\u00e9gal ne fait pas exception \u00e0 ce processus. Conscientes du potentiel de transformation de l\u2019IA dans la soci\u00e9t\u00e9, les autorit\u00e9s s\u00e9n\u00e9galaises mettent activement en \u0153uvre cette approche, l\u2019int\u00e9grant \u00e0 chaque \u00e9tape de leurs strat\u00e9gies de d\u00e9veloppement.<\/p>\n\n\n\n<p>Suivant la Strat\u00e9gie Nationale d\u2019Intelligence Artificielle (SNIA) 2023-2028, \u00e9tablie par le Minist\u00e8re de la Communication, des T\u00e9l\u00e9communications et de l\u2019\u00c9conomie Num\u00e9rique, le Nouveau Pacte Technologique, une strat\u00e9gie agressive visant \u00e0 centraliser la technologie num\u00e9rique au c\u0153ur de la gouvernance publique, a \u00e9t\u00e9 lanc\u00e9e en f\u00e9vrier 2025. Cette strat\u00e9gie vise \u00e0 exploiter l\u2019IA comme un moteur cl\u00e9 du d\u00e9veloppement inclusif et durable. Elle met en avant les secteurs prioritaires dans lesquels l\u2019IA devrait jouer un r\u00f4le de premier plan notamment l\u2019agriculture, la sant\u00e9, l\u2019\u00e9ducation et, bien s\u00fbr, l\u2019administration publique.<\/p>\n\n\n\n<p><strong>L\u2019IA au service de l\u2019efficacit\u00e9 administrative :<\/strong> <strong>des exemples concrets au S\u00e9n\u00e9gal<\/strong><\/p>\n\n\n\n<p>L\u2019IA dans l\u2019administration publique est polyvalente dans son application et se concentre principalement sur l\u2019efficacit\u00e9 des services et l\u2019utilisation efficace des ressources. Elle vise \u00e9galement \u00e0 int\u00e9grer l\u2019IA dans les politiques et fonctions locales, am\u00e9liorant la transparence, la responsabilit\u00e9 et la redevabilit\u00e9.<\/p>\n\n\n\n<p>Le Programme National de Bourses de S\u00e9curit\u00e9 Familiale (PNBSF) est \u00e0 l\u2019avant-garde des services sociaux pour cette raison. Ce programme essentiel, bas\u00e9 en grande partie sur le Registre National Unique (RNU), s\u00e9lectionne les b\u00e9n\u00e9ficiaires dont l\u2019aide est cruciale pour prot\u00e9ger les familles pauvres. Les algorithmes permettent dans ce cas de rendre le processus de s\u00e9lection plus pratique et d\u2019\u00e9viter les erreurs d\u2019inclusion ou d\u2019exclusion, afin que l\u2019aide soit distribu\u00e9e plus efficacement.<\/p>\n\n\n\n<p>De nouvelles remarques, faites sp\u00e9cifiquement par le Premier ministre Ousmane Sonko apr\u00e8s le Conseil des ministres du jeudi 11 d\u00e9cembre 2025, r\u00e9v\u00e8lent un souhait de recentrer l\u2019attention de ces bourses et de renforcer le ciblage pour garantir l\u2019\u00e9quit\u00e9 et minimiser tout biais.<\/p>\n\n\n\n<p>La Direction G\u00e9n\u00e9rale des Imp\u00f4ts et des Domaines (DGID) a entrepris une num\u00e9risation acc\u00e9l\u00e9r\u00e9e des imp\u00f4ts, mettant en \u0153uvre des syst\u00e8mes de d\u00e9claration et de paiement \u00e9lectroniques. En plus de la simple d\u00e9mat\u00e9rialisation, l\u2019IA est \u00e9galement envisag\u00e9e comme un croisement intelligent des donn\u00e9es fonci\u00e8res et fiscales, une arme importante dans la lutte contre l\u2019\u00e9vasion fiscale et la g\u00e9n\u00e9ration de revenus des entit\u00e9s \u00e9tatiques. Des travaux de modernisation sont \u00e9galement en cours pour automatiser certains contr\u00f4les selon le profil de risque pour permettre \u00e0 la DGID de mieux cibler les contribuables \u00e0 risque ainsi que de se concentrer sur les efforts de recouvrement.<\/p>\n\n\n\n<p>Le d\u00e9veloppement de l\u2019IA a \u00e9galement stimul\u00e9 le secteur agricole, qui est un secteur cl\u00e9 de l\u2019\u00e9conomie. Des soci\u00e9t\u00e9s telles que l\u2019Institut S\u00e9n\u00e9galais de Recherches Agricoles (ISRA) et le Bureau d\u2019Analyse Macro\u00e9conomique (BAME) recherchent l\u2019intelligence artificielle (IA) et les informations bas\u00e9es sur les satellites pour \u00e9valuer les rendements agricoles et affiner les subventions aux agriculteurs. Cela permet une meilleure planification agricole, une gestion plus efficace des ressources et une r\u00e9ponse plus rapide aux d\u00e9fis climatiques.<\/p>\n\n\n\n<p>\u00c0 une plus grande \u00e9chelle, la plateforme \u201cServices S\u00e9n\u00e9gal\u201d capte l\u2019ambition de l\u2019\u00c9tat de d\u00e9mat\u00e9rialiser de nombreux processus administratifs, rendant l\u2019acc\u00e8s aux services publics plus accessible et plus rapide pour les citoyens. De telles initiatives, en th\u00e9orie du moins, ne sont que les premiers pas vers une transformation plus fondamentale, dans laquelle l\u2019IA sera utilis\u00e9e pour am\u00e9liorer la gestion des infrastructures, la planification urbaine et m\u00eame la s\u00e9curit\u00e9 publique.<\/p>\n\n\n\n<p><strong>Les promesses d\u2019efficacit\u00e9 face<\/strong> <strong>aux risques d\u2019opacit\u00e9 et de biais<\/strong><\/p>\n\n\n\n<p>Les avantages potentiels de l\u2019efficacit\u00e9 de l\u2019IA pour une gouvernance publique efficace peuvent \u00eatre per\u00e7us dans la gouvernance publique activ\u00e9e par l\u2019IA en surmontant la transparence de l\u2019IA. R\u00e9duire le temps de traitement des dossiers, optimiser les ressources rares, recevoir plus de recettes fiscales et plus d\u2019ouverture \u00e0 la propri\u00e9t\u00e9 fonci\u00e8re, tous ces avantages peuvent contribuer \u00e0 transformer positivement la relation de l\u2019\u00c9tat avec ses citoyens. L\u2019IA a le potentiel d\u2019aider \u00e0 faciliter une administration plus r\u00e9active, individualis\u00e9e et, dans son fonctionnement, plus \u00e9quitable.<\/p>\n\n\n\n<p>Pourtant, cette progression technologique s\u2019accompagne de d\u00e9fis et de risques, notamment autour de l\u2019opacit\u00e9 et des biais algorithmiques. L\u2019un des principaux dangers est que les algorithmes eux-m\u00eames soient consid\u00e9r\u00e9s comme une sorte de bo\u00eete noire, leur fonctionnement interne, souvent incompr\u00e9hensible m\u00eame pour les experts, en fin de compte. L\u2019opacit\u00e9 rend difficile, voire impossible, pour un citoyen de savoir pourquoi une r\u00e8gle sur ces probl\u00e8mes aurait \u00e9t\u00e9 prise parce que la d\u00e9cision pourrait \u00eatre le r\u00e9sultat d\u2019une automatisation, purement automatis\u00e9e, ou en essence, compl\u00e8tement automatis\u00e9e. Le manque de transparence dans les crit\u00e8res de s\u00e9lection ou de ciblage, au S\u00e9n\u00e9gal, et ailleurs, peut entra\u00eener une perte de confiance du public dans l\u2019administration. Le risque de discrimination automatis\u00e9e est un autre facteur cl\u00e9.<\/p>\n\n\n\n<p>Parce que les algorithmes sont entra\u00een\u00e9s sur des donn\u00e9es historiques, qui sont repr\u00e9sentatives des in\u00e9galit\u00e9s existantes ou des formes de biais auxquelles la soci\u00e9t\u00e9 est confront\u00e9e, ces algorithmes peuvent parfois \u00eatre biais\u00e9s, renfor\u00e7ant les biais ou m\u00eame les amplifiant. Un algorithme de ciblage des prestations sociales, par exemple, pourrait exclure des populations v\u00e9ritablement vuln\u00e9rables en raison d\u2019une mauvaise conception ou de donn\u00e9es inad\u00e9quates, g\u00e9n\u00e9rant ainsi, de nouveaux modes d\u2019injustice sociale.<\/p>\n\n\n\n<p>Le cas du RNU, bien que visant \u00e0 une meilleure \u00e9quit\u00e9, doit \u00eatre constamment audit\u00e9 pour s\u2019assurer qu\u2019il ne g\u00e9n\u00e8re pas de biais involontaires. Alors que le ciblage par algorithmes a d\u00e9savantag\u00e9 certains sous-ensembles de la soci\u00e9t\u00e9, tels que les m\u00e8res c\u00e9libataires et les personnes handicap\u00e9es dans des cas sp\u00e9cifiques dans d\u2019autres environnements, d\u2019autres le trouvent b\u00e9n\u00e9fique pour des populations sp\u00e9cifiques. Le S\u00e9n\u00e9gal est \u00e9galement confront\u00e9 \u00e0 un probl\u00e8me majeur qui est la souverainet\u00e9 num\u00e9rique. Une d\u00e9pendance excessive aux technologies, plateformes ou mod\u00e8les d\u2019IA emprunt\u00e9s \u00e0 l\u2019\u00e9tranger peut poser des probl\u00e8mes quant \u00e0 la s\u00e9curit\u00e9 de l\u2019utilisation des donn\u00e9es, au contr\u00f4le qu\u2019il exerce et \u00e0 l\u2019acquisition d\u2019une autonomie strat\u00e9gique. Le S\u00e9n\u00e9gal doit construire ses propres outils d\u2019IA et ma\u00eetriser les technologies qu\u2019il utilise.<\/p>\n\n\n\n<p>Il faut aussi noter que notre pays ambitionne de connecter un million de citoyens \u00e0 Internet gratuitement d\u2019ici fin 2026, notamment via des antennes satellitaires, pour r\u00e9duire la fracture num\u00e9rique, particuli\u00e8rement en zone rurale. Cette initiative, li\u00e9e \u00e0 un \u201cNew Deal Technologique\u201d, cible l\u2019\u00e9ducation, la sant\u00e9 et l\u2019administration.<\/p>\n\n\n\n<p>Bien que la connectivit\u00e9 Internet devienne de plus en plus courante, la fracture num\u00e9rique pourrait encore \u00eatre aggrav\u00e9e par l\u2019utilisation de l\u2019IA, \u00e0 moins que la disponibilit\u00e9 des services num\u00e9riques ne soit universelle et accessible de mani\u00e8re \u00e9quitable. Avec la technologie entre les mains de certains citoyens mais des outils hors de leur port\u00e9e et des comp\u00e9tences manquantes chez d\u2019autres, l\u2019acc\u00e8s aux points de service cl\u00e9s pourrait \u00eatre restreint.<\/p>\n\n\n\n<p><strong>Tra\u00e7abilit\u00e9 et \u00e9thique :<\/strong> <strong>les pierres angulaires d\u2019une IA responsable<\/strong><\/p>\n\n\n\n<p>En r\u00e9ponse \u00e0 ces d\u00e9fis, le S\u00e9n\u00e9gal s\u2019engage \u00e0 fournir les cadres r\u00e9glementaires et \u00e9thiques n\u00e9cessaires pour une IA responsable. Au c\u0153ur de cet effort se trouve la gouvernance des donn\u00e9es, dirig\u00e9e par la Commission de Protection des Donn\u00e9es Personnelles (CDP) et l\u2019Agence S\u00e9n\u00e9galaise du Num\u00e9rique (SENUM SA ; anciennement ADIE).<\/p>\n\n\n\n<p>La loi de 2008 sur la protection des donn\u00e9es personnelles est en cours de mise \u00e0 jour pour refl\u00e9ter les particularit\u00e9s et les dimensions \u00e9thiques de l\u2019IA, d\u2019autant plus l\u2019acquisition, le traitement et la gestion des donn\u00e9es personnelles par les syst\u00e8mes algorithmiques. La transparence est une base. Les citoyens doivent savoir que l\u2019IA peut \u00eatre utilis\u00e9e dans les affaires administratives qui les concernent. Cela englobe une communication transparente des objectifs de tous les syst\u00e8mes, des donn\u00e9es utilis\u00e9es et des conditions de d\u00e9cision. Un aspect critique est le \u00ab droit \u00e0 l\u2019explication \u00bb. Les utilisateurs doivent savoir comment une d\u00e9cision a \u00e9t\u00e9 prise et pouvoir, si n\u00e9cessaire, la contester. Bien que la publication syst\u00e9matique des codes sources puisse \u00eatre complexe, l\u2019explicabilit\u00e9 des m\u00e9canismes algorithmiques est une condition pr\u00e9alable.<\/p>\n\n\n\n<p>L\u2019humain dans la boucle garantit que les d\u00e9cisions critiques sont prises avec la participation humaine \u00e0 tout moment. Cela garantit que l\u2019intervention humaine est toujours possible afin de valider, refuser ou modifier les r\u00e9sultats produits par un algorithme, \u00e9vitant ainsi une automatisation aveugle et potentiellement injuste. Cela n\u00e9cessite de former les agents publics \u00e0 l\u2019utilisation et \u00e0 la supervision de ces outils particuliers, et de sp\u00e9cifier qui devrait \u00eatre responsable en cas d\u2019erreur d\u2019un algorithme. L\u2019\u00e9thique de l\u2019IA est un domaine en d\u00e9veloppement ici au S\u00e9n\u00e9gal. Des efforts pour renforcer la sensibilisation \u00e9thique de l\u2019IA \u00e0 travers des initiatives travaillant en collaboration avec l\u2019UNESCO, ainsi que pour cr\u00e9er des recommandations concr\u00e8tes pour une gouvernance \u00e9thique. Nous travaillons vers un objectif d\u2019assurer l\u2019application et la mise en \u0153uvre des syst\u00e8mes d\u2019IA en termes de respect des valeurs fondamentales de la citoyennet\u00e9, notamment les principes d\u2019\u00e9quit\u00e9, de non-discrimination et de respect de la dignit\u00e9 humaine, ancr\u00e9s dans la soci\u00e9t\u00e9 s\u00e9n\u00e9galaise. Cela inclut le d\u00e9veloppement de normes \u00e9thiques, la mise en place de comit\u00e9s d\u2019\u00e9thique et l\u2019encouragement de la recherche responsable en IA.<\/p>\n\n\n\n<p>Le S\u00e9n\u00e9gal fait partie d\u2019un sch\u00e9ma mondial pour la r\u00e9gulation de l\u2019IA. Le r\u00e8glement europ\u00e9en sur l\u2019IA, bien qu\u2019il ne soit pas applicable ici, est une r\u00e9f\u00e9rence pour cat\u00e9goriser les syst\u00e8mes d\u2019IA en classes de risque, et pour les services sociaux, de nombreux exemples seraient consid\u00e9r\u00e9s comme des situations potentiellement \u00ab \u00e0 haut risque \u00bb n\u00e9cessitant une plus grande transparence et une surveillance accrue, comme en t\u00e9moigne l\u2019utilisation de syst\u00e8mes pour les services sociaux. Le S\u00e9n\u00e9gal prend note de ces cadres pour d\u00e9velopper sa l\u00e9gislation et ses pratiques.<\/p>\n\n\n\n<p><strong>Un avenir num\u00e9rique responsable pour le S\u00e9n\u00e9gal<\/strong><\/p>\n\n\n\n<p>L\u2019intelligence artificielle repr\u00e9sente une opportunit\u00e9 remarquable au S\u00e9n\u00e9gal pour la gouvernance publique, le service et le d\u00e9veloppement \u00e9conomique. Certaines des initiatives d\u00e9j\u00e0 mises en \u0153uvre, qu\u2019il s\u2019agisse de bourses pour les familles, de repenser la fiscalit\u00e9 ou d\u2019optimiser l\u2019agriculture, montrent une volont\u00e9 politique de faire partie de cette r\u00e9volution num\u00e9rique. Mais pour que cette \u00e9volution soit v\u00e9ritablement productive et participative, elle doit se faire avec une attention aigu\u00eb et une rigueur \u00e9thique \u00e9lev\u00e9e. Trouver un \u00e9quilibre entre les avantages de l\u2019efficacit\u00e9 et la protection des droits fondamentaux des citoyens est d\u00e9licat mais vital.<\/p>\n\n\n\n<p>La transparence des algorithmes utilis\u00e9s par les machines, la tra\u00e7abilit\u00e9 du processus automatis\u00e9, l\u2019assurance de l\u2019implication humaine et la construction d\u2019une structure \u00e9thique solide, sont tous des piliers sur lesquels l\u2019IA responsable doit reposer dans l\u2019int\u00e9r\u00eat g\u00e9n\u00e9ral.<\/p>\n\n\n\n<p>Le S\u00e9n\u00e9gal se pr\u00e9sente comme un mod\u00e8le et une opportunit\u00e9 pour l\u2019Afrique de montrer que l\u2019utilisation du plein potentiel de l\u2019IA a le potentiel de prot\u00e9ger non seulement la protection des principes d\u00e9mocratiques mais aussi la confiance entre l\u2019\u00c9tat et le peuple qui peut exister lors de l\u2019utilisation de l\u2019IA dans leur vie personnelle. C\u2019est un chemin difficile mais prometteur vers un avenir de plus en plus num\u00e9rique o\u00f9 l\u2019innovation et la responsabilit\u00e9 sont en harmonie.<\/p>\n\n\n\n<p><strong>Alioune BA<\/strong><br><strong>Sp\u00e9cialiste en Ethique de l\u2019IA<\/strong><br><strong>baalioune87@gmail.com<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Le S\u00e9n\u00e9gal, comme de nombreux autres \u00c9tats, concentre toute son attention sur l\u2019intelligence artificielle comme outil de modernisation de son<\/p>\n","protected":false},"author":1,"featured_media":68299,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-68298","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-event-more-news"],"_links":{"self":[{"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/posts\/68298","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/dekkbi.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=68298"}],"version-history":[{"count":1,"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/posts\/68298\/revisions"}],"predecessor-version":[{"id":68300,"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/posts\/68298\/revisions\/68300"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dekkbi.com\/index.php?rest_route=\/wp\/v2\/media\/68299"}],"wp:attachment":[{"href":"https:\/\/dekkbi.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=68298"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dekkbi.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=68298"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dekkbi.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=68298"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}