L’intelligence artificielle (IA) est au cœur de toutes les discussions. Dans le monde professionnel, l’IA bouleverse en profondeur de nombreux secteurs, du marketing à la finance en passant par la santé. Et, pour cause, ses promesses sont immenses : optimisation des processus, gain de productivité, personnalisation de l’expérience client... Mais son développement (très) rapide soulève également des questions éthiques et de sécurité légitimes.
Pour encadrer l'utilisation de l'IA et garantir un développement responsable de cette technologie, l'Union européenne a adopté l'IA Act, une réglementation historique qui vise à protéger les citoyens européens des risques liés à l’utilisation de l’intelligence artificielle.
L'Union européenne a franchi une étape historique en adoptant le 21 mai 2024 l'IA Act, une loi qui établit pour la première fois un cadre juridique complet pour l'intelligence artificielle en Europe.
Ce nouveau cadre juridique, fruit de trois années de réflexion et d'adaptations suite à l'évolution fulgurante de l'IA, notamment dans le domaine génératif, vise à garantir un développement responsable, éthique et transparent de l'intelligence artificielle, tout en préservant les droits fondamentaux des citoyens. L’aspect novateur de cette loi, c’est son approche de l’intelligence artificielle par le risque.
L'IA Act s'applique à une large palette de systèmes d'IA, allant des algorithmes complexes aux robots sophistiqués. Pour mieux appréhender les risques associés à l’utilisation de l’intelligence artificielle, la loi définit quatre catégories :
L’IA Act aura un impact significatif sur les entreprises de toutes tailles et de tous secteurs. Si les plus concernées vont être celles qui utilisent des systèmes d'IA dans des domaines sensibles tels que la finance, la santé, les ressources humaines ou la sécurité, toutes celles utilisant l’IA auront des obligations basées sur le niveau de risque.
Les entreprises vont donc devoir s’assurer que leurs activités et les solutions sélectionnées sont conformes à l’IA Act, particulièrement pour les systèmes d’IA présentant un risque élevé :
Les entreprises utilisant des modèles d’IA génératives, comme ChatGPT-4 ou Gemini, bien que non considérés à haut risque, devront également se conformer à certaines règles :
La loi IA Act n’est donc pas à prendre à la légère. À l’instar du RGPD, il est crucial pour les entreprises de vérifier rapidement leur conformité pour éviter d’éventuelles sanctions lorsque la loi entrera officiellement en vigueur en 2026.
Chez Yumens, nous avons intégré l’utilisation de l’IA depuis longtemps déjà. Avec un « Lab » dédié à l’intelligence artificielle et lancé dès novembre 2022, nous exploitons pleinement le potentiel de l’IA pour optimiser les actions et booster le succès de nos clients. Cette utilisation de l’intelligence artificielle dans nos usages, nous en avons fait une force et une maitrise qui nous permet aujourd’hui de pousser nos expertises au plus haut niveau.
Et nous n’avons pas attendu l’IA Act pour adapter nos usages et nos pratiques : nos experts sont formés à l’utilisation de l’IA et déjà sensibilisés aux enjeux liés à une pratique éthique et responsable, telle qu’elle est définie par l’IA Act.
Vous souhaitez booster votre stratégie digitale tout en étant conforme à l’IA Act ? Contactez l’un de nos experts pour lancer votre stratégie.