Scientifique

Analyse

Intelligence Artificielle

Durée de lecture : 16min

Équilibrer l’innovation dans le domaine de l’IA et la gouvernance responsable

publié le

07/31/2025

écrit par

Amy Hammond

Amy a plus de 25 ans d’expérience de leadership dans des postes de directrice des systèmes d’information (CIO), directrice des technologies (CTO), de transformation numérique et de cybernétique. Elle apporte à la fois une vision stratégique et une expertise opérationnelle aux initiatives informatiques axées sur l’entreprise. Elle possède une connaissance approfondie des plateformes technologiques de bout en bout, de la transformation numérique, de la cyber-résilience et de la gestion des données d’entreprise. Titulaire d’un MBA en technologie et d’un master en sécurité de l’information, elle a travaillé avec de grandes entreprises du FTSE 100 (indice 100 du Financial Times Stock Exchange), des petites et moyennes entreprises (PME) et le tiers secteur, tant à l’international qu’au Royaume-Uni. Plus récemment, elle a achevé une mission intérimaire à l’Organisation mondiale de la santé animale (OMSA), où elle a occupé le poste de cheffe intérimaire de la transformation numérique et des systèmes d’information de novembre 2023 à juillet 2025.

Partager sur les médias sociaux

Résumé

L’intelligence artificielle (IA) refaçonne rapidement le mode de fonctionnement des organisations, de l’automatisation des tâches aux prévisions de résultats. Elle transforme des secteurs aussi variés que la santé, la finance, la surveillance (télévision en circuit fermé [CCTV] et reconnaissance faciale) et les pratiques de recrutement ; parallèlement à cette adoption généralisée, un besoin urgent de gouvernance efficace pour l’IA se fait sentir. En l’absence de supervision appropriée, les systèmes d’IA risquent en effet d’amplifier les biais de données existants, ce qui renforcerait la discrimination et diffuserait de la désinformation, déformant en définitive la réalité. La fiabilité de l’IA dépend de la qualité des données, ce qui explique pourquoi la gouvernance dans ce domaine doit aborder trois préoccupations essentielles : (i) la protection des données des utilisateurs, les systèmes d’IA collectant de larges volumes de données, souvent sans le consentement explicite de l’utilisateur ; (ii) la minimisation des biais et de la discrimination, de nombreux modèles d’IA étant entraînés sur des ensembles de données qui reflètent déjà les biais sociétaux ; (iii) la prévention de la désinformation, car les contenus générés par l’IA qui se fondent sur des données erronées sont susceptibles d’induire les utilisateurs en erreur et de fausser la compréhension du public. C’est en gardant cela à l’esprit que l’Organisation mondiale de la santé animale (OMSA) fait activement progresser l’adoption responsable de l’IA et de l’analyse de données afin d’améliorer la prise de décision dans le domaine de la santé animale mondiale. Le projet d’architecture de données, un référentiel centralisé de données de grande qualité, intégrera tous les ensembles de données de l’Organisation, permettant ainsi de meilleurs résultats pour les Membres et les Délégués ainsi qu’une atténuation des risques liés à l’IA.

Gouvernance de l’IA : défis et nécessité

L’Organisation mondiale de la santé animale (OMSA) joue un rôle essentiel dans la collecte, la gestion et la diffusion de données abondantes sur la santé animale. Pour gérer ces données, l’Organisation lance le projet d’architecture de données, qui établira un référentiel central de données, permettant l’intégration et la connectivité entre tous les ensembles de données de l’OMSA. La plateforme répondra non seulement aux besoins internes et publics en matière de notification, mais fera aussi partie intégrante d’une initiative plus vaste d’architecture des données de l’OMSA, éclairant la nouvelle politique de l’Organisation dans le domaine de l’IA. Le projet d’architecture de données rationalisera les données de l’OMSA et sa gouvernance de l’IA au moyen de l’automatisation, en veillant à ce que les ensembles principaux de données soient bien structurés, de haute qualité et maintenus de manière centralisée. Ce fondement aidera à produire une intelligence exploitable et des informations pilotées par l’IA au cours du développement de la plateforme en 2025.

L’IA domine le discours mondial, avec un fort plaidoyer en faveur de son adoption généralisée. Pourtant, un manque de clarté persiste quant aux implications d’une véritable intégration. Un système d’IA est « un système reposant sur une machine, qui, pour des objectifs explicites ou implicites, déduit, à partir des données d’entrée qu’il reçoit, comment générer des données de sortie telles que des prédictions, du contenu, des recommandations ou des décisions susceptibles d’influencer les environnements physiques ou virtuels » [1]. Le recours à ces systèmes d’IA révolutionne divers secteurs en automatisant les processus, en prévoyant les tendances et en transformant les secteurs, en particulier ceux de la santé et de la finance. Néanmoins, cette progression rapide souligne le besoin urgent d’une gouvernance de l’IA solide afin de garantir un développement éthique et un déploiement responsable.

La gouvernance de l’IA renvoie aux principes, règles et mécanismes qui guident le développement, la mise en œuvre et la supervision des technologies de l’IA. Elle a pour but d’équilibrer l’innovation grâce à des normes éthiques, à la sécurité et à la conformité. Il est vital de parvenir à cet équilibre pour permettre à l’IA de continuer à évoluer tout en atténuant les risques associés.

Les préoccupations essentielles sur lesquelles la gouvernance de l’IA doit se pencher sont les suivantes : (i) la confidentialité et la protection des données, car les systèmes d’IA collectent de vastes volumes de données, souvent sans le consentement explicite de l’utilisateur, ce qui entraîne un risque croissant de violation de données ; (ii) les biais et la discrimination, dans la mesure où les modèles d’IA sont entraînés sur des données susceptibles de refléter les biais sociétaux existants, engendrant ainsi des données de sortie discriminatoires [2]; (iii) la désinformation, car si le contenu généré par lIA se fonde sur des ensembles de données erronées ou biaisées, cela peut induire les utilisateurs en erreur et déformer la réalité en répandant de la désinformation; (iv) la transparence et la responsabilisation, car les décisions générées par lIA doivent pouvoir sexpliquer clairement, et les développeurs doivent avoir lobligation de rendre compte des résultats de leurs systèmes; (v) la conformité réglementaire, lIA devant être utilisée dans des cadres juridiques établis et selon des normes sectorielles, par exemple le règlement général sur la protection des données (RGPD).

Image : ©ChatGPT

Approches globales de la gouvernance de l’IA

L’évolution rapide des technologies et de l’IA pose un défi important aux autorités chargées de la réglementation, dans la mesure où les cadres juridiques ont du mal à suivre le rythme. Ainsi, les pays adoptent des approches variées en matière de gouvernance de l’IA. L’Union européenne joue un rôle de premier plan depuis l’introduction du règlement sur l’IA, qui est entré en vigueur le 1er août 2024 (les règlements sur l’IA fournissent un cadre pour le développement et le déploiement en toute sécurité d’un système d’IA) [3]. Parallèlement, aux États-Unis d’Amérique, un décret présidentiel initial a défini des lignes directrices relatives à l’innovation, à la sécurité et à la sûreté dans le domaine de l’IA ; cependant, ce décret a récemment été rapporté par le nouveau gouvernement [4]. De son côté, le Royaume-Uni a adopté une position plus favorable à l’innovation, encourageant les organisations à adhérer à la norme ISO 42001, qui aborde les défis essentiels liés à l’IA tels que les biais, l’explicabilité et les considérations éthiques [5,6].

Du côté des entreprises, plusieurs sociétés technologiques ont mis en œuvre volontairement des cadres d’autogouvernance visant à intégrer des pratiques responsables en matière d’IA au sein de leurs organisations [7]. Au niveau international, les Nations unies et l’Organisation de coopération et de développement économiques ont collaboré pour élaborer des politiques mondiales relatives à l’IA, promouvant une approche cohérente et normalisée de la réglementation [8]. Ces efforts variés soulignent à quel point il est complexe d’harmoniser la gouvernance de l’IA dans différentes régions tout en faisant ressortir l’importance de la coopération internationale pour établir des cadres solides, éthiques et pérennes pour l’IA.

L’OMSA reconnaît clairement que la gouvernance des données et la gouvernance de l’IA sont profondément liées. L’harmonisation des ces deux domaines garantit un déploiement responsable et efficace de l’IA. L’une des raisons majeures de cette interconnexion réside dans le fait que les systèmes d’IA dépendent de la qualité et de la bonne gouvernance des données ; en cas de mauvaise gouvernance des données, les données de sortie de l’IA peuvent en effet être erronées, un risque mis en relief par l’adage « garbage data in, garbage data out », autrement dit « à données d’entrée pourries, données de sortie pourries » [9]. De plus, tant les données que l’IA doivent se conformer aux normes éthiques et réglementaires afin de veiller au respect de la vie privée, de la sécurité et du principe de responsabilité.

Pour répondre à ces besoins, le cadre de gouvernance des données de l’OMSA offre une approche normalisée et systématique pour gérer les données de l’Organisation. Celle-ci garantit l’exactitude, la sécurité, la cohérence et la conformité des actifs de données de l’OMSA par rapport à la législation RGPD actuelle. Ce cadre décrit en outre la façon dont les données sont collectées, stockées et utilisées tout au long de leur cycle de vie, ce qui englobe des processus allant de la création et du stockage des données à leur traitement, leur partage et leur suppression. Ce cadre sera intégré dans le projet d’architecture de données et sa plateforme associée.

En complément, la gouvernance de l’IA de l’OMSA définit des principes directeurs pour l’adoption responsable, efficace, sûre et stratégique de l’IA au sein de l’Organisation. Cela inclut des normes concernant la sélection, l’essai, l’évaluation, le déploiement et le suivi des modèles d’IA.

Des lignes directrices claires ont été mises en place pour l’utilisation des modèles d’IA au sein de l’Organisation mondiale de la santé animale. Celles-ci comportent des mesures strictes quant à la confidentialité des données ; il est notamment vivement recommandé de ne pas saisir de données organisationnelles confidentielles, personnelles ou sensibles dans les systèmes publics d’IA. Il est également capital de valider le contenu généré par l’IA à des fins d’exactitude, de pertinence et d’adéquation avant son utilisation dans des communications officielles ou pour la prise de décision.

Garantir une adoption responsable de l’IA

L’OMSA s’engage en faveur de l’adoption responsable de l’IA au moyen de procédures d’essai et d’évaluation systématiques et rigoureuses. Celles-ci sont conçues pour évaluer de manière approfondie les performances techniques et les retombées commerciales des modèles générés par l’IA. Le suivi régulier détectera les changements concernant les modèles de données, la dégradation de la précision des modèles, les vulnérabilités de sécurité et les écarts par rapport aux normes de conformité.

Des lignes directrices claires ont été mises en place pour l’utilisation des modèles d’IA au sein de l’Organisation. Celles-ci comportent des mesures strictes quant à la confidentialité des données ; il est notamment vivement recommandé de ne pas saisir de données organisationnelles confidentielles, personnelles ou sensibles dans les systèmes publics d’IA. Il est également capital de valider le contenu généré par l’IA à des fins d’exactitude, de pertinence et d’adéquation avant son utilisation dans des communications officielles ou pour la prise de décision. La transparence est une autre considération essentielle, ce qui requiert la divulgation du recours à des contenus générés par l’IA aux parties prenantes en tant que de besoin. L’accent est mis sur une utilisation éthique, avec des garanties en place pour s’assurer que les outils d’IA sont employés de manière responsable, en prévenant les biais, la discrimination ou les données de sortie inappropriées. Par ailleurs, le respect des politiques organisationnelles et de la législation en vigueur (RGPD, par exemple) est vital lors de l’utilisation de modèles d’IA publics. Enfin, les lignes directrices relatives à la sûreté mettent en évidence la nécessité de faire preuve de vigilance face aux possibles violations ou fuites de données, tous les incidents devant être notifiés sur-le-champ.

La politique en matière de gouvernance de l’IA définit également les rôles et responsabilités des principales parties prenantes dans l’adoption et la mise en œuvre de modèles d’IA à l’OMSA. Le comité d’examen de l’architecture assure la supervision, l’orientation stratégique et l’approbation finale de toute la nouvelle architecture technique. Les équipes techniques de projet, comprenant le personnel technique interne de l’OMSA ainsi que des prestataires et partenaires techniques, sont responsables de la mise en œuvre technique, des essais, du déploiement et du suivi des modèles d’IA. Les équipes de conformité et de sécurité veillent à ce que tous les modèles et déploiements répondent aux normes en matière de réglementation, de conformité et de sécurité, ce qui renforce l’intégrité des systèmes d’IA. Enfin, le conseil consultatif sur les changements régit toute modification apportée aux plateformes technologiques en ligne de l’Organisation, avec l’aide administrative de l’équipe technique de l’OMSA.

Orientations futures en matière d’IA et d’analyse de données à l’Organisation mondiale de la santé animale

L’OMSA réinvente en permanence son approche et étudie actuellement la façon dont l’IA et l’analyse avancée de données peuvent améliorer la collecte et l’interprétation des données afin de fournir de meilleures informations et indications à ses Membres et Délégués. Dans le cadre de cet effort, le projet d’architecture de données de l’OMSA appuiera le recours à l’IA dans les ensembles de données de l’Organisation au cours du développement de la plateforme. À mesure que les capacités de l’IA évoluent au sein de l’Organisation, des applications professionnelles supplémentaires comme le Système d’information sur la performance des Services vétérinaires et le Système mondial d’information zoosanitaire bénéficieront également de ces progrès. Cela permettra à l’OMSA de rester à l’avant-garde de la prise de décision efficace fondée sur les données dans le domaine de la santé et du bien-être des animaux.

Traduit de l’original en anglais.

Image principale : ©ChatGPT

 

Références

[1] Organisation de coopération et de développement économiques (OCDE). Explanatory memorandum on the updated OECD definition of an AI system. OECD Artificial Intelligence Papers, n° 8. Paris (France). Éditions OCDE ; 2024. https://doi.org/10.1787/623da898-en [en anglais]

[2] Bureau du commissaire à l’information (Information Commissioner’s Office, ICO). AI tools in recruitment: Audit outcomes report. Cheshire (Royaume-Uni) : ICO ; 2024. Disponible en ligne : https://ico.org.uk/media2/migrated/4031620/ai-in-recruitment-outcomes-report.pdf (consulté le 9 juillet 2025).

[3] Entrée en vigueur du règlement sur l’IA le 1er août 2024. Bruxelles (Belgique) : Commission européenne ; 2024. Disponible en ligne : https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_fr (consulté le 9 juillet 2025).

[4] Removing barriers to American leadership in Artificial Intelligence. Washington, D.C. (États-Unis d’Amérique) : la Maison-Blanche ; 2025. Disponible en ligne : https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/ (consulté le 9 juillet 2025).

[5] Ministère des Sciences, de l’Innovation et de la Technologie. A pro-innovation approach to AI regulation. Londres (Royaume-Uni) : gouvernement de Sa Majesté. Disponible en ligne : https://assets.publishing.service.gov.uk/media/64cb71a547915a00142a91c4/a-pro-innovation-approach-to-ai-regulation-amended-web-ready.pdf (consulté le 9 juillet 2025).

[6] Organisation internationale de normalisation (ISO). ISO 42001: Artificial intelligence. Genève (Suisse) : ISO ; 2023 [en anglais]. Disponible en ligne : https://www.iso.org/standard/42001 (consulté le 9 juillet 2025).

[7] Anthropic, Google, Microsoft, OpenAI launch Frontier Model Forum. Redmond (États-Unis d’Amérique) : Microsoft ; 2023. Disponible en ligne : https://blogs.microsoft.com/on-the-issues/2023/07/26/anthropic-google-microsoft-openai-launch-frontier-model-forum/ (consulté le 9 juillet 2025).

[8] UN and OECD announce next steps in collaboration on artificial intelligence. New York (États-Unis d’Amérique) : Nations unies ; 2024. Disponible en ligne : https://www.un.org/digital-emerging-technologies/content/press-release-un-and-oecd-announce-next-steps-collaboration-artificial-intelligence#:~:text=22%20September%202024%20%E2%80%93%20Meeting%20on%20the%20margins,UN%20and%20the%20OECD%20on%20global%20AI%20governance [en anglais] (consulté le 9 juillet 2025).

[9] Data quality and its impact on AI. Tallinn (Estonie) : AIMultiple ; 2025. Disponible en ligne : https://research.aimultiple.com/data-quality-ai/ (consulté le 9 juillet 2025).

Continue reading

07/29/2025

5 min read

Améliorer la résilience des élevages en interprétant le comportement animal grâce à l’apprentissage automatique

Stephen Kemp

artificial intelligence_the use of artificial intelligence in animal care

07/04/2025

5 min read

Étables intelligentes, chenils numériques : comment l’IA révolutionne discrètement les soins aux animaux

Santiago Alonso Sousa

07/02/2025

5 min read

Des soins réactifs aux soins prédictifs : une conversation sur l’IA et la santé animale

Intelligence artificielle (Claude)

Découvrez d’autres thèmes

Biosécurité

Collaboration

Genre

Santé animale

Santé de la faune sauvage

Vétérinaires