Où les interventions en IA réussissent ou échouent

Matthew Smith
Crystal Haijing Huang
Samantha Carter
Selam Abdella
Dr. Samuel Segun
Kai-Hsin Hung,
Dr Leah Junck
Ayantola Alayande
Dr. Becky Faith
Auteurs
Matthew Smith, Crystal Haijing Huang, Samantha Carter, Selam Abdella, Dr. Samuel Segun, Kai-Hsin Hung,, Dr Leah Junck, Ayantola Alayande and Dr. Becky Faith
Publié le Jan 29, 2026
Où les interventions en IA réussissent ou échouent

Ce travail a été soutenu dans le cadre du projet AI4D « Advancing Responsible AI: Evaluating AI4D Investments for Impact and Equity » et a été initialement publié sur le site web d’IDinsight.

Points d’inflexion dans l’écart entre les modèles et la pratique

L’histoire commence au Kenya, où des propriétaires de petites et moyennes entreprises ont eu accès à un « mentor IA » via WhatsApp. L’idée était simple : offrir des conseils personnalisés en matière de gestion d’entreprise, à grande échelle, à des personnes qui ont généralement peu ou pas accès à un accompagnement de qualité. La solution était peu coûteuse, facile à déployer et pleine de promesses (Otis et al., 2025).

Cependant, les impacts se sont révélés loin d’être simples. Le même outil, avec la même conception et le même modèle sous-jacent, a produit des résultats radicalement différents selon les utilisateurs. L’impact financier sur les entrepreneurs a fortement varié : ceux dont les entreprises se portaient déjà bien ont enregistré une augmentation d’environ 20 % de leurs revenus et de leurs bénéfices, tandis que les entreprises en difficulté ont vu les leurs diminuer d’environ 10 %.

Il ne s’agissait ni d’un échec algorithmique ni d’un défaut de performance du modèle. Les conseils fournis n’étaient pas manifestement erronés. La divergence est apparue dans l’espace entre la technologie et ses utilisateurs — l’espace où les réalités vécues, les contraintes, les capacités et les opportunités interagissent avec le système. C’est dans ces interactions que la trajectoire de l’intervention s’est infléchie.

L’écart entre le modèle et la pratique

Une grande partie de l’engouement autour de l’IA repose sur sa maîtrise technique. Les récits initiaux se concentrent sur les pipelines de données, les capacités et la précision des modèles les plus récents, ainsi que sur les indicateurs de performance. Cela est compréhensible : lorsque les résultats sont incertains, l’attention se porte naturellement sur ce que le système peut faire en théorie. Nous débattons des avantages et des risques potentiels, célébrons les progrès en matière de précision et redoutons des défaillances catastrophiques, souvent en nous appuyant sur des cas très médiatisés où de mauvaises performances ont causé des préjudices réels (par exemple Angwin et al., 2016 ; Haven, 2020 ; Gebru et al., 2021 ; NTSB, 2020).

L’analyse reste largement centrée sur le niveau des « affordances », entendues comme les possibilités d’action apparentes qu’un système est conçu pour offrir (Gaver, 1991 ; C. Anderson & Robbey, 2017), telles que la traduction ou la synthèse à grande échelle. À partir de là, nous avons tendance à extrapoler excessivement, en déduisant des bénéfices et des risques sociétaux à partir de démonstrations contrôlées plutôt que de l’observation des performances dans des contextes réels (Narayanan & Kapoor, 2024).

Entre les capacités du modèle et les résultats observés dans le monde réel se situe l’écart modèle–pratique : l’ensemble des processus sociaux et institutionnels à travers lesquels les affordances techniques rencontrent les usages humains. Ce sont ces processus qui déterminent si le potentiel technologique se transforme en résultats significatifs ou s’évanouit discrètement.

Cette idée n’est pas nouvelle. Des recherches menées dans de nombreux domaines montrent que les utilisateurs réinterprètent, négocient, routinisent ou ignorent les technologies plutôt que de les adopter telles quelles (Pinch & Bijker, 1984 ; MacKenzie & Wajcman, 1985 ; Akrich, 1992 ; Suchman, 1987). Les travaux sur les TIC pour le développement (ICT4D) soulignent le rôle des intermédiaires, des organisations et des facteurs de conversion (Madon, 2000 ; Heeks, 2002 ; Avgerou, 2010). Les études sur l’improvisation et la mise en pratique montrent comment des usages significatifs émergent par l’adaptation, le bricolage et les pratiques situées (Ciborra, 1999 ; Orlikowski, 2000). Les travaux classiques sur la diffusion des technologies mettent en évidence le rôle décisif des normes, de l’influence des pairs et des réseaux sociaux (Rogers, 2003). À travers ces différentes littératures, la conclusion est cohérente : la fourniture technique peut être porteuse d’impact, mais sa trajectoire est déterminée par les dynamiques sociales, culturelles et institutionnelles à travers lesquelles les technologies deviennent utilisables et conséquentes.

Malgré une rhétorique promettant une transformation profonde, l’IA fonctionne aujourd’hui comme une « technologie ordinaire », contrainte par les contextes institutionnels et matériels qui structurent son usage (Narayanan & Kapoor, 2025). Les études sur l’adoption réelle montrent de manière répétée des résultats atténués ou décevants (Economist, 2025 ; Deloitte, 2025 ; McKinsey, 2025 ; MIT, 2025). L’écart entre les capacités techniques et l’impact réel est large et persistant. Comprendre cet écart implique d’identifier les points d’inflexion où les trajectoires divergent.

Les points d’inflexion dans l’écart modèle–pratique

Les interventions d’IA au service du développement réussissent ou échouent non pas à cause du modèle seul, mais en raison d’une série de points d’inflexion sociotechniques où l’accès, la compréhension, la confiance, la pertinence, la motivation et l’opportunité rencontrent les conditions réelles des utilisateurs. À chaque point d’inflexion, la trajectoire d’une intervention peut s’accélérer, s’essouffler ou basculer vers des effets négatifs. Les utilisateurs franchissent ces points de manière différente, ce qui explique pourquoi des systèmes identiques produisent des résultats divergents.

En nous appuyant sur la littérature, les enseignements des praticiens et les données émergentes d’évaluation, nous identifions six points d’inflexion qui déterminent collectivement la forme et la direction des résultats des initiatives d’IA pour le développement.

Accès et interaction. « Comment et dans quelle mesure les personnes peuvent-elles accéder à l’intervention et l’utiliser ? » Il s’agit du premier point d’inflexion. Si les utilisateurs ne peuvent pas accéder au système ou ne peuvent pas l’utiliser efficacement, la trajectoire s’arrête avant même de commencer. Les conditions d’accès pratiques, sociales et économiques (localisation, temporalité, coût, normes, compatibilité avec les pratiques existantes) doivent s’aligner avec la qualité de l’interaction (clarté de l’interface, utilisabilité, accessibilité, latence, contraintes liées aux appareils et à la bande passante, gestion des erreurs). Si l’un de ces éléments échoue, les effets en aval deviennent sans importance.

Compréhension. « Comment les personnes donnent-elles du sens à l’information présentée ? » Une information exacte peut échouer si elle est incompréhensible. De faibles niveaux de littératie, un langage inadapté, des unités inconnues, un jargon technique ou des formulations culturellement inappropriées peuvent rendre une information correcte inutilisable. La trajectoire s’infléchit ici : la compréhension est une condition préalable à tout effet ultérieur.

Légitimité. « Dans quelle mesure les personnes jugent-elles la source et le message comme légitimes, et pourquoi ? » Même des messages clairs ne peuvent influencer les comportements si la confiance s’effondre. La légitimité est contextuelle et relationnelle ; elle se construit dans le temps et peut être facilement compromise. Une seule réponse erronée formulée avec assurance peut suffire à fermer complètement ce point d’inflexion.

Connaissance. « Comment l’intervention se connecte-t-elle aux réalités et aux cadres de compréhension des personnes de manière appropriée et actionnable ? » Les utilisateurs peuvent comprendre une information sans la juger pertinente ou praticable. La transformation de l’information en connaissance actionnable dépend de la temporalité, de la charge cognitive, de la familiarité et de l’alignement avec l’expérience vécue. C’est la différence entre « je comprends » et « je peux agir ».

Motivation. « L’intervention s’aligne-t-elle avec les réalités vécues, les modèles mentaux, les normes socioculturelles et les dispositions comportementales des personnes de manière à les inciter à agir ? » La compréhension et la confiance doivent encore se traduire en volonté d’agir. La motivation dépend de l’adéquation des conseils avec les modèles mentaux, les émotions, les attentes sociales et les contraintes quotidiennes. La trajectoire peut s’arrêter ici même si les conditions précédentes sont réunies.

Opportunité. « Les personnes disposent-elles des moyens et des opportunités nécessaires pour transformer leur compréhension et leur motivation en action ? » Même des utilisateurs motivés peuvent manquer des ressources matérielles, institutionnelles ou infrastructurelles nécessaires pour agir. La conversion de l’opportunité dépend des ressources, des processus organisationnels et de l’autonomie d’action. En leur absence, des conseils pertinents restent inertes.

Si une intervention échoue à l’un de ces points d’inflexion pour un groupe donné, la trajectoire des résultats se modifie pour ce groupe. C’est pourquoi un même système peut renforcer les capacités de certains utilisateurs tout en accentuant les désavantages d’autres. Ce schéma reflète ce que Toyama (2011) décrit comme la tendance des technologies à amplifier les forces et les faiblesses humaines et institutionnelles sous-jacentes.

Là où les trajectoires ont divergé

Pour les entrepreneurs les plus performants au Kenya, chaque point d’inflexion s’est orienté positivement. Les conseils étaient compréhensibles, crédibles et cohérents avec leurs compétences, leur capital et leurs réseaux existants. Ils ont pu les transformer en décisions efficaces. Le système a amplifié des capacités déjà présentes.

Pour les entrepreneurs en difficulté, la trajectoire a été différente. Ils comprenaient les messages et faisaient confiance à l’outil, mais ne disposaient pas des connaissances nécessaires pour distinguer les bons conseils des mauvais. Ils ont utilisé l’IA pour les problèmes les plus complexes et les plus contraints, là où même des conseils précis sont difficiles à mettre en œuvre. L’information ne s’est pas transformée en connaissance utilisable ni en action viable, et les résultats sont devenus négatifs. Le modèle n’a pas échoué ; ce sont les points d’inflexion qui ont failli.

Une histoire loin d’être isolée

Ces points d’inflexion influencent les résultats bien au-delà du soutien aux entreprises. Ils apparaissent dans de nombreux secteurs, institutions et technologies, et déterminent si les systèmes d’IA produisent des bénéfices significatifs, des résultats modestes ou des effets néfastes.

En Inde, des chercheurs ont collaboré avec un gouvernement d’État pour développer un outil d’apprentissage automatique visant à identifier des « entreprises fictives » exploitant le système de taxe sur la valeur ajoutée (TVA) (Barwahwala et al., 2024). Bien que le modèle soit performant et plus précis que les méthodes existantes, le nombre de radiations d’entreprises fictives n’a pas augmenté. Le problème se situait au niveau du point d’inflexion lié à l’opportunité : l’administration fiscale ne disposait pas de la capacité institutionnelle, de la coordination interjuridictionnelle et des mécanismes d’application nécessaires pour transformer les résultats en actions.

En 2025, Penda Health, en collaboration avec OpenAI, a déployé un outil d’aide à la décision clinique basé sur l’IA dans quinze centres de soins primaires du comté de Nairobi (Korom et al., 2025 ; OpenAI, 2025). Bien que le système génère des alertes diagnostiques de haute qualité, les cliniciens les ignoraient largement et les résultats ne se sont pas améliorés. L’échec ne tenait pas aux capacités du modèle, mais à une série de points d’inflexion mal alignés. Après des ajustements ciblés — amélioration de l’accès et de l’interaction, renforcement de la légitimité par des pairs référents et refonte des flux de travail — le système a commencé à produire des améliorations mesurables.

Un schéma similaire apparaît dans le système d’alerte aux inondations de Google dans les zones rurales du Bihar (Jagnani & Pande, 2024). Bien que les modèles fournissent des prévisions précises, celles-ci ne se traduisaient pas systématiquement en actions. Des interventions communautaires ont permis de renforcer l’accès, la compréhension et la légitimité, facilitant la conversion de l’information en action protectrice.

À travers ces cas, le constat est constant : la performance technique fixe le point de départ. Les points d’inflexion déterminent les résultats.

Comprendre et appliquer les points d’inflexion

Naviguer avec succès dans l’écart modèle–pratique n’est pas le seul déterminant de l’impact, mais l’ignorer garantit presque toujours des résultats inégaux ou décevants. Ces processus sont récurrents, observables et généralisables. Les intégrer dans la conception, l’évaluation et la gouvernance des systèmes d’IA permet de mieux comprendre pour qui, comment et pourquoi les interventions produisent leurs effets.

Pris ensemble, ces exemples montrent que les résultats réels émergent de ces processus d’inflexion. Lorsqu’ils s’alignent avec les capacités, les contraintes et les réalités vécues des utilisateurs, un même système peut accroître les revenus, améliorer les décisions cliniques ou renforcer la préparation aux catastrophes. Lorsqu’ils ne s’alignent pas, même des systèmes précis et bien conçus peuvent perdre de leur efficacité ou devenir nuisibles. Concevoir, évaluer et gouverner l’IA pour le développement exige donc une attention systématique à ces points d’inflexion, car ce sont eux qui déterminent la direction, l’ampleur et la répartition de l’impact.

enfr