Conformité et gouvernance de l'intelligence artificielle
Outils pour encadrer les usages de l'IA et répondre aux exigences de l'AI Act
Acteurs français proposant Conformité et gouvernance de l'intelligence artificielle
Explorez et filtrez les entreprises françaises qui proposent cette solution.
6 entreprises trouvées
Mithril Security
Mithril Security est une entreprise française fondée en 2021 et basée à Paris, spécialisée dans la protection de la confidentialité des données lors du déploiement de modèles d'intelligence artificielle (IA). Elle développe des solutions open source s'appuyant sur le confidential computing et des enclaves sécurisées (Intel SGX, AMD SEV) pour garantir que les données des utilisateurs et les poids des modèles restent protégés, même dans des environnements cloud. Parmi ses produits phares figurent BlindLlama, une plateforme de déploiement d'IA confidentielle avec prise en charge GPU ; AICert, un outil de traçabilité cryptographique de l'origine des modèles entraînés ; et AIGovTool, un système de gouvernance matérielle pour le contrôle d'accès aux modèles. Mithril Security a été soutenue par le programme OpenAI Cybersecurity Grant et a collaboré avec le Future of Life Institute pour développer des outils d'IA responsables. En 2024, l'entreprise a été discrètement acquise par la startup française H Company, spécialisée dans les agents d'IA autonomes, marquant ainsi une nouvelle étape dans l'intégration de la confidentialité au cœur des systèmes d'IA de nouvelle génération.
Naaia
Naaia est une entreprise française fondée en 2021, spécialisée dans la gouvernance et la conformité des systèmes d’intelligence artificielle (IA) via une plateforme SaaS baptisée AIMS® (Artificial Intelligence Management System). Première solution du genre en Europe, Naaia permet aux organisations de piloter la conformité de leurs systèmes d’IA tout au long de leur cycle de vie, en intégrant les exigences réglementaires mondiales telles que l’AI Act européen, le NIST AI RMF américain, la norme ISO/IEC 42001:2023, ainsi que les législations d’autres juridictions comme la Chine ou la Corée du Sud. La plateforme se compose de cinq modules complémentaires : Naaia Repository, qui centralise l’inventaire des systèmes d’IA et leurs composants techniques ; Naaia Assess, qui évalue les systèmes selon des critères réglementaires, de risque et de gouvernance ; Naaia Core, qui génère des plans d’action personnalisés pour chaque système ; Naaia Event Tracker, qui assure le suivi des incidents et des obligations de surveillance post-marché ; et Naaia Learning, un module de formation intégré répondant aux exigences d’« AI Literacy » de l’AI Act. Naaia a été la première entreprise française à obtenir la certification ISO 42001 délivrée par l’AFNOR, attestant de son engagement en faveur d’une IA éthique et responsable. La solution est interopérable avec des outils tels que Azure, GitLab, GitHub, Slack, Teams ou ServiceNow, et s’adresse aux grandes entreprises, aux institutions publiques et aux acteurs réglementés souhaitant structurer leur gouvernance de l’IA, anticiper les risques et accélérer l’adoption de systèmes d’IA conformes et maîtrisés.
Numalis
Numalis est une entreprise française fondée en 2015 à Montpellier, spécialisée dans la validation formelle et l'explicabilité des systèmes d'intelligence artificielle (IA). Elle développe des outils permettant d'évaluer la robustesse et la fiabilité des algorithmes d'IA, en particulier dans des secteurs critiques tels que la défense, les transports, la santé et la finance. Numalis propose notamment "Saimple", un analyseur statique conçu pour accélérer les phases de conception, d'entraînement et de validation des IA, tout en facilitant leur conformité aux normes émergentes comme l'ISO/IEC 24029, qui seront intégrées dans le futur AI Act européen. L'entreprise joue un rôle actif dans les comités de normalisation internationaux (ISO, AFNOR, HAS) et collabore avec des partenaires industriels pour promouvoir une IA de confiance. En 2023, Numalis a levé 5 millions d'euros auprès d'investisseurs tels que Bpifrance, La Banque Postale, MBDA et Safran Corporate Ventures, afin de renforcer sa R&D et d'accélérer son développement à l'international. Ses solutions sont disponibles en mode SaaS ou on-premise, adaptées aux besoins des grandes entreprises comme des PME, et visent à garantir la transparence, la sécurité et la souveraineté des systèmes d'IA.
Sarus
Sarus est une entreprise française fondée en 2020, spécialisée dans la protection de la vie privée dans les projets d’analytique et d’intelligence artificielle. Sa plateforme agit comme une couche de confidentialité qui permet aux data scientists de travailler sur des données sensibles sans jamais y accéder directement, grâce à des techniques avancées telles que la réécriture de requêtes, la génération de données synthétiques et l’application automatique de la confidentialité différentielle. Compatible avec les infrastructures cloud et on-premise, Sarus s’intègre aux outils standards (SQL, pandas, sklearn) et aux bases de données existantes, facilitant ainsi l’analyse de données personnelles tout en respectant les réglementations telles que le RGPD. La solution est utilisée dans des secteurs sensibles comme la finance, la santé ou la cybersécurité, et a été adoptée dans des projets collaboratifs avec Microsoft et EY pour la détection de fraudes bancaires via des clean rooms confidentielles. Sarus a été sélectionnée par Y Combinator (batch W22) et a levé plus de 3 millions d’euros pour soutenir sa croissance. Elle se distingue par son approche « privacy by design », permettant aux organisations d’exploiter pleinement la valeur de leurs données tout en garantissant un haut niveau de sécurité et de conformité.
Skyld
Skyld est une entreprise française fondée en 2023 et basée à Rennes, spécialisée dans la cybersécurité des modèles d'intelligence artificielle embarqués. Elle développe un kit de développement logiciel (SDK) destiné à protéger les modèles d'IA déployés sur des dispositifs tels que les smartphones, objets connectés, applications desktop ou serveurs on-premise, contre le reverse engineering, le vol de propriété intellectuelle et les attaques par inversion de modèle. Sa solution, compatible avec les frameworks TensorFlow, ONNX, Keras et les systèmes Android, Linux et Windows, repose sur des transformations algébriques avancées qui sécurisent les poids des réseaux de neurones (CNN, RNN, LSTM, Transformers, LLM) pendant l'exécution, y compris sur GPU, sans compromettre les performances. En complément, Skyld propose un module de licensing pour contrôler la distribution et la monétisation des modèles, ainsi qu'une fonctionnalité de watermarking en cours de développement. Spin-off deeptech de l'Inria, Skyld est soutenue par des partenaires tels que Thales, Wavestone, Station F, SkyDeck Berkeley et la Région Bretagne. Elle a été finaliste du prix ECSO 2024, lauréate du trophée European Cyber Week 2023 et du prix European Cyber Woman 2024 décerné à sa fondatrice Marie Paindavoine. Skyld s'adresse aux éditeurs de logiciels, industriels et fournisseurs de solutions IA souhaitant sécuriser leurs modèles embarqués dans des environnements non maîtrisés.
Suzan AI
Suzan AI est une plateforme européenne de gouvernance des systèmes d'intelligence artificielle, conçue pour aider les organisations à cartographier leurs projets et actifs d'IA, à évaluer et atténuer les risques associés, et à se conformer aux réglementations en vigueur. Elle propose un inventaire automatisé des systèmes d'IA, un référentiel de modèles, une gestion du cycle de vie des données et une surveillance des outils tiers. La solution intègre un système de gestion des risques couvrant les aspects juridiques, réputationnels, opérationnels, éthiques et financiers, avec des suggestions automatisées et des plans d'action unifiés. Suzan AI facilite également la conformité aux normes et réglementations internationales, telles que le RGPD et l'AI Act de l'UE, en générant des politiques adaptées et en assurant une veille réglementaire en temps réel. La plateforme est hébergée en France et offre des options de déploiement en SaaS ou sur site.
Questions fréquentes
La gouvernance de l'intelligence artificielle désigne l'ensemble des règles, processus et outils permettant de encadrer les usages de l'IA, d'en maîtriser les risques et d'en assurer un usage conforme, responsable et maîtrisé.
L'AI Act est un règlement européen visant à encadrer le développement et l'utilisation des systèmes d'intelligence artificielle. Il introduit une approche par les risques, avec des obligations renforcées pour les systèmes d'IA considérés comme à haut risque.
Selon les cas d'usage, l'AI Act impose notamment : une analyse et une gestion des risques liés à l'IA, une documentation technique et fonctionnelle, des exigences sur la qualité des données, des mécanismes de supervision humaine, des obligations de transparence et de traçabilité.
Ces outils s'adressent aux directions générales, responsables conformité, RSSI, responsables risques, équipes juridiques et équipes métiers utilisant ou déployant des systèmes d'intelligence artificielle.
Les outils ne sont pas obligatoires en tant que tels, mais ils facilitent fortement la mise en conformité, la structuration de la gouvernance et la capacité à démontrer le respect des obligations prévues par l'AI Act.
Oui. La conformité et la gouvernance de l'IA s'intègrent naturellement dans une démarche GRC plus globale, notamment pour la gestion des risques, le pilotage des contrôles et le reporting réglementaire.
En savoir plus
Les outils de conformité et de gouvernance de l'intelligence artificielle regroupent les solutions permettant aux organisations de encadrer, documenter et maîtriser les usages de l'IA, dans un contexte réglementaire, éthique et opérationnel de plus en plus exigeant. Ces outils répondent notamment aux obligations introduites par le règlement européen sur l'intelligence artificielle (AI Act), qui impose de nouvelles exigences en matière de gestion des risques, de transparence, de traçabilité, de gouvernance des données et de supervision humaine pour certains systèmes d'IA. Ils permettent par exemple de : • recenser et qualifier les systèmes d'IA utilisés, • identifier les cas d'usage à risque, • documenter les modèles, les données et les décisions, • mettre en place des contrôles et des mécanismes de supervision, • assurer le suivi de la conformité dans le temps. Ces solutions s'inscrivent dans une logique de pilotage, en lien étroit avec les équipes sécurité, risques, conformité, juridique et métiers, et peuvent être intégrées à une démarche plus globale de gouvernance, risques et conformité. Sur CyberMarché, ce service regroupe des outils dédiés à la mise en conformité et à la gouvernance des usages de l'IA, adaptés aux organisations développant, déployant ou utilisant des systèmes d'intelligence artificielle.
