loupe-recherche
 
 
 
Blog>Transformation digitale>AI ACT, IA responsable : prêt...

Alexandre Rispal

L’Europe contre-attaque avec l’AI ACT. Objectif : exister sur le marché très convoité des technologies de rupture IA tout en protégeant les utilisateurs. Le Conseil de l’Europe vient de ratifier l’AI ACT pour le développement d’intelligences artificielles (IAs) responsables. Ce cadre juridique applicable à partir de 2026 veille « à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. ». AI ACT, tout le monde en parle de Choose France à ViVatech en passant par le CES de Las Vegas. Comment analyser ce cadre inédit ? Quels impacts pour les organisations qui souhaitent accélérer leur transformation digitale ? Pour en parler, Alexandre Rispal, operating partner. 

AI ACT : comment analyser le nouveau cadre légal européen ?

AR - Le Conseil de l’Europe[1] vient de ratifier le texte sur les IAs responsables, voté en mars dernier au Parlement européen. Ce cadre juridique sera également ouvert aux pays non-européens. AI ACT est un fait marquant. Face à l’essor de ces technologies, l’Europe adopte une législation[2] qui vise à promouvoir des pratiques d' IA responsable avec des systèmes « (…) sûrs, transparents, traçables, non discriminatoires et respectueuses de l'environnement ». L’enjeu est sociétal. Nous utilisons au quotidien les algorithmes pour nous déplacer, consommer, réserver nos rendez-vous chez le médecin. Notons que l’AI ACT est unique au monde. Cette réglementation s’inscrit dans la lignée des droits fondamentaux des citoyens et de la RSE[3] à l’image du RGPD sur le respect des données à caractère personnel. AI ACT veut protéger avec des modèles IA responsables. Et ceci avec un cadre clair. C’est une bonne chose à quelques jours d’une échéance électorale[4] cruciale qui doit élire ses représentants au Parlement.

AI ACT et RSE, c’est un différenciateur majeur pour l’Europe ?

AR - Accusée de lenteur, de bureaucratie, d’attentisme face aux Gafam et aux champions de l’Internet qui ont su imposer leurs modèles, l’Europe contre-attaque. Elle veut exister sur ce marché des innovations de pointe et marquer sa différence. Comment ? En faisant la promotion d'IAs responsables, plus éthiques, plus sécurisées, et moins sujets aux risques de manipulation pour les citoyens. L’approche se veut pragmatique et plus humaine. Et c’est clairement différenciant comparé à d’autres acteurs ; pour ne pas les citer les hyperscalers[5] américains et leurs systèmes IAs génériques très gourmands en volume de données et en énergie. C’est différenciant aussi sur le fait de ne pas voir se produire comme en Chine des IAs utilisant la biométrie permettant d’identifier en temps réel les citoyens et pouvant restreindre par exemple la liberté de circulation. Les risques sont identifiés dans le texte de l'AI ACT.[6] 

Comment ne pas perdre la bataille face aux hyperscalers américains ?

AR - C’est justement LE piège à éviter. Ne pas ressembler aux hyperscalers américains, défendre notre vision de l’innovation, sans se faire décrocher d’un point de vue technologique. Car nous avons déjà raté la révolution de l’Internet face aux Gafam, il y a 30 ans. Pas un champion européen n’a réussi à émerger faute de « clusters » et de financement structuré en recherche fondamentale. Or sans recherche fondamentale[7], pas d’innovation de pointe. AI ACT vise à protéger, certes, et à libérer les énergies créatrices de nos laboratoires de recherche. Et pourquoi pas à faire revenir nos cerveaux, nos ingénieurs et mathématiciens partis dans la Silicon Valley faute de mieux en France. Surtout que l’écosystème IA devient mature. Mistral AI[8]  la pépite française a développé un nouveau modèle de langage en à peine 1 an. Cette fulgurance entrepreneuriale - 30 collaborateurs aujourd'hui - n'aurait pas été possible sans un écosystème mature. L’Europe ne veut pas rater le train de l’IA vue comme une technologie qui va profondément transformer nos sociétés. AI ACT se veut une réponse à la course effrénée [9] du toujours plus d’IAs. Innover, c’est capitaliser sur un modèle technologiquement fiable et sécurisé tout en s'appuyant sur nos spécificités culturelles. Innover, ce n’est surtout pas copier-coller le modèle des hyperscalers.

IA responsable, quels bénéfices métier dans le secteur de l'assurance ? 

AR - J’observe l’assurance et ses évolutions technologiques depuis 20 ans. L’intelligence artificielle met le secteur en ébullition. Les modèles en apprentissage, comme les progrès réalisés en Machine Learning, Deep Learning, ont permis d'améliorer considérablement l’analyse intelligente de documents. La collecte de pièces justificatives (attestation habitation, RIB, pièce d’identité) se fait aujourd'hui quasi en temps réel. C’est un gain de temps pour les clients. C’est aussi un booster de productivité pour les métiers qui font face à de multiples défis en relation client. Et cela fonctionne si vous combinez intelligemment ces IAs dans le traitement intelligent de documents comme lors de l’instruction des dossiers clients. C'est par exemple ce que propose la solution Streamline Business d'ITESOFT qui embarque des intelligences artificielles facilitant la souscription ou la gestion d’un sinistre tout en sécurisant le parcours client. L’IA au service du besoin des métiers illustre parfaitement la volonté du régulateur européen : fiabilité, pratique et sans risque pour l’utilisateur. 

ban ia act 1

Notes de bas de pages :

[1] Le Conseil de l’Europe adopte le premier traité international sur l’intelligence artificielle, communiqué de presse 17 mai 2024.

[2] AI ACT doit entrer en vigueur à partir de 2026.

[3] Principe de responsabilité sociale et environnementale (RSE).

[4] Les élections européennes 2024 se dérouleront du 6 au 9 juin. Tous les 5 ans, les citoyens des pays de l’Union européenne élisent leurs représentants qui siègent au Parlement européen à Strasbourg.

[5] Google, Microsoft, IBM, Amazon, Meta. 

[6] Les risques inacceptables : manipulation cognitivo-comportementale, score social, système d’identification biométrique en temps réel et à distance. Les risques élevés : système IA en lien avec la sécurité des produits : jouets, aviation, voitures, médical, ascenseurs. Les risques limités : le consommateur doit être informé qu’il interagit avec une IA et le contenu généré doit mentionner qu’il a été généré par une IA.

[7] IA, notre ambition pour la France. Anne Bouverot, Philippe Aghion. Editions Odile Jacob (2024)

[8] IA Générative : Mistral AI ou la voie de l’open source avec « licence commerciale » - LeMagIT, le 25 juillet 2023. 

[9] Dans quels pays mise-t-on le plus sur l'intelligence artificielle ? Données issues du rapport "2023 AI Index Report" de l'université de Stanford. Les États-Unis arrivent largement en tête avec un montant de 248,9 milliards de dollars, suivis par la Chine (95,1 milliards de dollars) et le Royaume-Uni (18,2 milliards de dollars). Au huitième rang, la France suit de près l'Allemagne avec des investissements de 6,6 milliards de dollars sur cette période 20213-2022.

Source : Regulating facial recognition in the EU. European Parliamentary Research Service (2021). 

Source : Future of Life Lethal Autonomous Weapons Pledge - Future of Life Institute.