L’intelligence artificielle (IA) est au cœur de toutes les discussions. Dans le monde professionnel, l’IA bouleverse en profondeur de nombreux secteurs, du marketing à la finance en passant par la santé. Et, pour cause, ses promesses sont immenses : optimisation des processus, gain de productivité, personnalisation de l’expérience client... Mais son développement (très) rapide soulève également des questions éthiques et de sécurité légitimes.
Pour encadrer l'utilisation de l'IA et garantir un développement responsable de cette technologie, l'Union européenne a adopté l'IA Act, une réglementation historique qui vise à protéger les citoyens européens des risques liés à l’utilisation de l’intelligence artificielle.
Qu’est-ce que l’IA Act ?
L'Union européenne a franchi une étape historique en adoptant le 21 mai 2024 l'IA Act, une loi qui établit pour la première fois un cadre juridique complet pour l'intelligence artificielle en Europe.
Ce nouveau cadre juridique, fruit de trois années de réflexion et d'adaptations suite à l'évolution fulgurante de l'IA, notamment dans le domaine génératif, vise à garantir un développement responsable, éthique et transparent de l'intelligence artificielle, tout en préservant les droits fondamentaux des citoyens. L’aspect novateur de cette loi, c’est son approche de l’intelligence artificielle par le risque.
IA Act : quelles catégories de risques pour l'intelligence artificielle ?
L'IA Act s'applique à une large palette de systèmes d'IA, allant des algorithmes complexes aux robots sophistiqués. Pour mieux appréhender les risques associés à l’utilisation de l’intelligence artificielle, la loi définit quatre catégories :
- Inacceptable : systèmes d’IA interdits, car portant gravement atteinte aux droits fondamentaux ou à la sécurité des personnes. Cela inclut la manipulation comportementale nuisible, la notation sociale discriminatoire et la surveillance de masse intrusive.
- Élevé : ils sont soumis à des obligations strictes, telles que l'évaluation de conformité par des organismes indépendants et l'apposition du marquage CE. Les systèmes d'IA de reconnaissance faciale et de scoring bancaire en font partie.
- Limité : ils doivent respecter des exigences proportionnées, comme la mise en place de mesures de gestion des risques adéquates. C'est le cas des chatbots et des assistants vocaux.
- Minimal : ils ne font l'objet d'aucune exigence particulière en raison de leur faible niveau de risque. On y trouve les calculatrices et les antivirus.
Quelles sont les entreprises qui sont concernées par l’IA Act ?
L’IA Act aura un impact significatif sur les entreprises de toutes tailles et de tous secteurs. Si les plus concernées vont être celles qui utilisent des systèmes d'IA dans des domaines sensibles tels que la finance, la santé, les ressources humaines ou la sécurité, toutes celles utilisant l’IA auront des obligations basées sur le niveau de risque.
Quelles sont les obligations des entreprises pour se mettre en conformité ?
Les entreprises vont donc devoir s’assurer que leurs activités et les solutions sélectionnées sont conformes à l’IA Act, particulièrement pour les systèmes d’IA présentant un risque élevé :
- Identifier les systèmes d'IA qu'elles utilisent et évaluer leur niveau de risque
- Mettre en place les mesures de conformité requises en fonction du niveau de risque
- Former leurs collaborateurs sur les exigences de l'IA Act
- Mettre à jour leurs processus internes et leurs politiques de protection des données
Les entreprises utilisant des modèles d’IA génératives, comme ChatGPT-4 ou Gemini, bien que non considérés à haut risque, devront également se conformer à certaines règles :
- Fournir des données d'entraînement transparentes pour leurs modèles d'IA
- Produire une documentation technique pour expliquer le fonctionnement des systèmes d'IA
- Fournir un résumé des données utilisées pour entraîner les algorithmes
- Reconnaître et respecter le droit d'opposition des ayants droit qui peuvent s'opposer à la fouille et à l'analyse automatique de leurs données
Yumens et l’IA Act : une approche éthique et responsable déjà engagée
La loi IA Act n’est donc pas à prendre à la légère. À l’instar du RGPD, il est crucial pour les entreprises de vérifier rapidement leur conformité pour éviter d’éventuelles sanctions lorsque la loi entrera officiellement en vigueur en 2026.
Chez Yumens, nous avons intégré l’utilisation de l’IA depuis longtemps déjà. Avec un « Lab » dédié à l’intelligence artificielle et lancé dès novembre 2022, nous exploitons pleinement le potentiel de l’IA pour optimiser les actions et booster le succès de nos clients. Cette utilisation de l’intelligence artificielle dans nos usages, nous en avons fait une force et une maitrise qui nous permet aujourd’hui de pousser nos expertises au plus haut niveau.
Et nous n’avons pas attendu l’IA Act pour adapter nos usages et nos pratiques : nos experts sont formés à l’utilisation de l’IA et déjà sensibilisés aux enjeux liés à une pratique éthique et responsable, telle qu’elle est définie par l’IA Act.
Vous souhaitez booster votre stratégie digitale tout en étant conforme à l’IA Act ? Contactez l’un de nos experts pour lancer votre stratégie.