IA ACT (Intelligence artificielle)
Règlement UE 2024/1689 du 13 juin 2024
Entrée en vigueur progressive dès février 2025
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle
Le contexte
Volonté de l’Union européenne d’encadrer l’utilisation de l’IA en interdisant certaines pratiques contraires à ses valeurs et en harmonisant le droit applicable.
Le champ d’application
Est concerné par l’application de ce règlement :
- L’ensemble des secteurs (privé et public).
- A l’intérieur ou à l’extérieur de l’UE dès lors que le système d’IA peut entraîner des conséquences dans l’Union.
- Tant les fournisseurs (développeurs d’outil d’analyse de CV par exemple) que les déployeurs de systèmes d’IA (comme une banque qui achète cet outil).
Dérogations :
- Les activités de recherche, de développement et de prototypage qui ont lieu avant la mise sur le marché d’un système d’IA.
- Les systèmes d’IA conçus exclusivement à des fins militaires, de défense ou de sécurité nationale.
L’IA dans le secteur de l’assurance
Le marché de l’assurance est l’un des secteurs précurseurs en matière d’utilisation de l’IA, notamment sur les aspects suivants :
- Personnalisation des offres (en fonction des données ou des antécédents, recommandations de prévention pour les dommages climatique etc…),
- Service d’assurance sur mesure,
- Chatbots pour une meilleure relation client (service 24H/24, etc…),
- Détection de fraude en croisant des données. Pour information et selon l’Agence de Lutte contre la Fraude à l’Assurance (ALFA), en 2022 la fraude en assurance a atteint 587 millions d’euros.
- Automatisation des tâches répétitives, gestion des sinistres simples etc…
Les grands principes de l’IA ACT
Une approche fondée sur les risques :
Un des premiers enjeux pour l’assurance consistera à classifier les systèmes d’IA utilisés afin de s’assurer du respect des exigences posées par le règlement.
Le Règlement classe les systèmes d’IA selon 4 niveaux de risques :
- Risque inacceptable : Interdiction de pratiques contraires aux valeurs de l’Union européenne et aux droits fondamentaux.
Exemples : notation sociale, exploitation de la vulnérabilité des personnes… - Haut risque : Exigences renforcées pour les systèmes d’IA pouvant porter atteinte à la sécurité des personnes ou à leurs droits fondamentaux.
Exemples : Secteurs de la santé (exemple diagnostics médicaux) et de l’assurance-vie.
- Risque acceptable : obligations de transparence spécifiques pour certains systèmes d’IA.
Exemples : recours à des Chatbots ou génération de contenu artificiel.
- Risque minimal : pour tous les autres systèmes d’IA, le texte ne prévoit pas d’obligation spécifique. Il s’agit de la très grande majorité des systèmes d’IA actuellement utilisés dans l’UE ou susceptibles de l’être selon la Commission européenne.
Les points clés pour une utilisation responsable de l’IA
- Supervision humaine.
- Équité et absence de biais pouvant entraîner une discrimination.
- Transparence des décisions prises par l’IA.
- Protection des données: respect du RGPD.
- Conformité réglementaire: audits réguliers.
- Registre public pour les systèmes à haut risque
Sanctions et contrôle
CNIL : pour les systèmes IA transversaux.
ACPR : pour les IA spécifiques aux assurances.
Les sanctions : Amendes administratives pouvant atteindre 35 millions d’€ ou 7% du chiffre d’affaires annuel mondial.
Calendrier
1er février 2025 : interdiction totale des systèmes d’IA présentant des risques inacceptables.
2 août 2025 : application des réglementations pour les modèles d’IA à usage général et mise en place des principes de gouvernance de l’Office européen de l’IA.
Été 2026 : mise en œuvre complète des autres dispositions du règlement.