Avocat en Intelligence Artificielle

Besoin d'établir des contrats liés à l'intelligence artificielle ou d'un audit de conformité au règlement de l'Union européenne 2024/1689 ?

Contactez mon cabinet, j'accompagne les entreprises innovantes dans une conformité juridique pragmatique.

Intelligence artificielle : que doivent savoir les entreprises en 2025 ?

L’intelligence artificielle transforme notre société en profondeur et offre des opportunités immenses pour les entreprises. Cette révolution technologique s’accompagne de risques et défis juridiques inédits. Un accompagnement juridique en droit des nouvelles technologies permet d'intégrer l'intelligence artificielle de manière responsable, profitable et conforme au droit.

L’IA : une technologie puissante, des risques nouveaux

Utiliser un outil d’IA dans une entreprise, ce n’est pas comme installer un simple logiciel. En cas de dysfonctionnement (décision erronée, biais d'automatisation, erreur de diagnostic, etc.) causant un préjudice (perte d'un droit, discriminations, atteintes aux libertés fondamentales, etc.), la responsabilité peut retomber sur l’entreprise utilisatrice, même si la solution est développée par un prestataire externe.

Une législation en pleine évolution

L’Union européenne a adopté le 13 juin 2024 un Règlement 2024/1689 relatif à l'Intelligence Artificielle (« AI Act »).

Le « système d’IA » y est défini comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».

Cette législation ambitieuse encadre l’usage des systèmes d’intelligence artificielle selon leur niveau de risque. Les obligations varient selon que l'IA est :

  • à risque minimal (ex : filtre anti-spam),

  • à risque limité (ex : chatbots),

  • à haut risque (ex : IA de recrutement à l'emploi),

  • ou interdite (ex : reconnaissance faciale de masse en temps réel).

Intelligence artificielle et protection des données personnelles

Le Règlement relatif à IA et le RGPD (Règlement général sur la protection des données) sont étroitement liés. Ces deux législations concrétisent, à travers différents mécanismes et principes, le droit à l'autodétermination informationnelle des individus. Un système d'IA qui traite des données personnelles (salariés, clients, etc.) doit entre autres respecter l'exigence d'une finalité explicite et légitime, le principe de minimisation des données... Quant à l'obligation d'informer les personnes concernées (par le traitement de leurs données), déjà prévue par le RGPD, elle se trouve considérablement renforcée en cas d'utilisation d'une IA.

Un audit juridique avant toute mise en place

Une entreprise ne peut pas simplement « brancher » un outil d’IA sans en avoir préalablement évalué l’incidence. Avant d’adopter un système d’IA, il est fortement recommandé de réaliser un audit juridique :

  • Quel est le type d’IA utilisée ?

  • Quelles données (personnelles) sont traitées ?

  • Quel est le niveau de transparence du fournisseur ?

  • Quelles clauses insérer dans les contrats (prestataires, clients, sous-traitants) ?