L’AI Act introduit une approche graduée des systèmes d'IA, fondée sur le niveau de risque du système d’intelligence artificielle.
Mais une chose est claire : tout fournisseur de système d’IA est désormais concerné et doit intégrer des éléments à ses contrats, y compris lorsque le système n’est pas qualifié de « haut risque ».
Le contrat SaaS classique, même complété par un DPA, ne suffit plus. Il doit être enrichi par des clauses ou une annexe IA dédiée, afin de refléter les nouvelles obligations issues de l’AI Act et de sécuriser la relation avec les clients.
Même pour :
le fournisseur doit désormais :
Une annexe IA permet de centraliser ces obligations, sans alourdir inutilement le contrat principal.
Le premier enjeu contractuel posé par l’AI Act est la qualification des rôles.
Le contrat doit clairement identifier :
Cette clarification est indispensable, quel que soit le niveau de risque du système. Elle permet d’éviter que le fournisseur ne supporte des obligations qui relèvent en réalité de l’usage fait par le client.
Un système d’IA ne doit jamais être décrit de manière générique.
Le contrat ou l’annexe IA doit préciser :
Cette précision est essentielle pour :
Plus le système se rapproche d’un usage sensible, plus cette description doit être précise.
L’AI Act impose un niveau de gouvernance proportionné.
Tous les fournisseurs doivent démontrer :
Pour un système à haut risque, ces obligations sont formalisées et documentées. Pour les autres systèmes, la logique reste la même, mais avec un niveau d’exigence proportionné.
Contractuellement, il est pertinent de prévoir :
La question des données est critique.
Le contrat doit encadrer :
Un point ressort de manière transversale : le fournisseur ne doit pas être responsable des choix opérés par le client, notamment lorsque celui-ci paramètre des critères ayant un impact juridique ou éthique.
L’AI Act impose une obligation de transparence graduée.
Pour tous les systèmes d’IA, le fournisseur doit être capable de fournir :
Cette documentation n’est pas obligatoirement intégrée directement au contrat. Elle peut être mise à disposition via un trust center, sur demande, sous réserve de confidentialité.
Cette approche protège à la fois :
La supervision humaine n’est pas réservée aux systèmes à haut risque.
Dès lors qu’un système d’IA influence une décision, le contrat doit préciser :
Plus le système est critique, plus cette exigence devient structurante. Mais même pour des systèmes plus simples, l’absence totale de supervision peut poser problème.
Tous les fournisseurs d’IA doivent prévoir contractuellement :
Le contrat doit éviter toute ambiguïté sur :
Un point est devenu central dans toutes les négociations IA : l’entraînement des modèles.
Il est fortement recommandé de préciser que :
Cette clause est aujourd’hui déterminante pour la confiance commerciale.
L’AI Act impose une vision élargie de la chaîne de valeur IA.
Le contrat doit identifier :
Même pour des systèmes simples, cette transparence est devenue une attente forte des clients.
L’AI Act ne concerne pas uniquement les systèmes d’IA à haut risque. Il impose à tous les fournisseurs de systèmes d’IA de repenser leur contractualisation.
Le bon réflexe consiste à :


Pourquoi et comment un avocat peut structurer le déploiement d’un CLM en startup, sécuriser les contrats, les templates et les playbooks sans équipe juridique interne.

Checklist des clauses essentielles d’un contrat de développement logiciel : livrables, recette, propriété intellectuelle, paiements, responsabilité et sécurité juridique.
Avançons ensemble pour accélérer votre activité