Banques et IA générative : clauses minimales pour éviter le fiasco
Les directions innovation bancaires adorent l'IA générative, les juristes beaucoup moins. Entre promesses délirantes des fournisseurs et réalité réglementaire (DORA, RGPD, secret bancaire), les banques françaises marchent sur un fil, surtout à Paris où les régulateurs sont à portée de RER.
IA générative en production : le réel, pas la plaquette
En 2025, de nombreux établissements financiers testent ou déploient des solutions d'IA générative : assistants internes pour les chargés d'affaires, résumés automatisés de documents de crédit, analyse de contrats, aide au reporting réglementaire. Rien de farfelu en soi.
Le problème, c'est la façon dont ces solutions sont achetées et encadrées juridiquement. On voit encore des contrats SaaS, signés à la va‑vite, qui semblent issus d'une start‑up B2C, alors que l'on parle d'algorithmes susceptibles de traiter des données clients, des décisions de crédit, voire des éléments de lutte anti‑blanchiment.
Dans nos dossiers de contrats informatiques pour le secteur bancaire, nous voyons se répéter les mêmes trous d'air contractuels, parfois vertigineux. Et ce, alors même que l'Autorité bancaire européenne publie des lignes directrices toujours plus précises sur les risques informatiques et de cybersécurité.
Entre IA Act et DORA : un étau réglementaire très concret
On a parfois l'impression que les débats sur l'IA restent théoriques, confinés aux colloques. C'est un malentendu. L'AI Act européen, adopté en 2024, va s'articuler avec des textes déjà très contraignants pour les banques, au premier rang desquels le règlement DORA sur la résilience opérationnelle numérique.
Concrètement, cela signifie pour un établissement français :
- un encadrement renforcé des prestataires IT critiques, y compris ceux fournissant des briques d'IA générative
- des obligations de transparence, de traçabilité et de gestion des incidents
- une responsabilité renforcée sur les effets des modèles dans les processus de décision
Dans ce paysage, continuer à signer des contrats standards, avec des clauses de type "as is" et une limitation de responsabilité à douze mois de redevances, frise l'inconscience. Le droit des affaires n'est pas un frein à l'innovation ; c'est ce qui permet de ne pas transformer chaque POC en bombe à retardement contentieuse.
Les clauses qu'il faut bannir des contrats d'IA générative
Première étape : arrêter d'accepter, les yeux fermés, des clauses manifestement incompatibles avec l'activité bancaire. Les contrats fournis par certains éditeurs ou hyperscalers comportent encore des pépites.
1. Les autorisations de réutilisation des données trop larges
On tombe régulièrement sur des formulations du type :
"Le Fournisseur est autorisé à utiliser les données du Client pour améliorer ses services, entraîner ses modèles et à des fins de recherche, y compris après la fin du contrat."
Dans un contexte bancaire, cette rédaction est tout simplement suicidaire. Elle pose des problèmes évidents au regard :
- du secret bancaire
- du RGPD (finalité, minimisation, durée de conservation)
- des exigences de DORA sur le contrôle des prestataires critiques
La clause devrait au contraire prévoir, sauf cas très strictement bordés de données anonymisées :
- une interdiction de réutilisation des données brutes en dehors de la prestation
- des conditions drastiques d'anonymisation et de pseudonymisation
- un encadrement strict de tout usage pour l'amélioration des modèles
2. Les disclaimers délirants sur la qualité des réponses
Autre joyau : ces contrats qui prévoient que le fournisseur n'est responsable d'aucun usage des réponses de l'IA et que le client reconnaît devoir vérifier systématiquement toute sortie. En B2C ludique, pourquoi pas. En analyse de crédit ou en lutte contre la fraude, c'est intenable.
La question n'est pas de faire porter sur le fournisseur tout le poids de la conformité, mais d'obtenir :
- des engagements précis sur les taux d'erreur tolérés dans certaines tâches
- une obligation de transparence sur les mises à jour de modèles pouvant affecter les résultats
- une traçabilité minimale des données sources et des logs de requêtes
Sans cela, la banque se retrouve seule en première ligne devant le juge ou le régulateur, incapable de démontrer qu'elle a raisonnablement encadré les risques.
Ce qu'un contrat d'IA générative doit imposer au fournisseur
Une approche réaliste ne consiste pas à exiger l'impossible, mais à imposer quelques pivots contractuels non négociables. Les grandes banques parisiennes commencent à converger vers un socle minimal exigeant.
Traçabilité et auditabilité des usages
Le contrat doit garantir au moins :
- La journalisation exhaustive des requêtes et réponses, avec identifiant utilisateur et horodatage.
- La possibilité d'extraire ces logs sous un format exploitable pour un audit ou une enquête interne.
- Une documentation claire des modèles utilisés, de leurs mises à jour et de leurs limites connues.
Cela rejoint les préoccupations classiques en droit pénal des affaires : qui a fait quoi, quand, sur la base de quels éléments ? Sans cette chaîne de traçabilité, la défense d'un dossier devient acrobatique.
Maîtrise de la localisation et de la chaîne de sous‑traitance
Beaucoup de solutions d'IA générative s'appuient sur une toile de sous‑traitants, de data centers et d'API tierces. Le contrat doit :
- cartographier les localisations de traitement des données (UE / hors UE)
- interdire certains transferts à risque ou les soumettre à des conditions particulières
- obliger le fournisseur à notifier tout changement matériel dans la chaîne de sous‑traitance
À Paris, l'ACPR et la CNIL ne sont pas tendres avec les établissements qui découvrent a posteriori que des données sensibles ont été traitées en dehors de l'Union sans encadrement solide.
Intégrer l'IA dans la mécanique contentieuse classique
Au‑delà de la technique, l'IA générative va générer, mécaniquement, du contentieux des affaires. Il faut s'y préparer, sans catastrophisme mais sans naïveté.
Scénario banal demain, rare aujourd'hui
Un gestionnaire parisien utilise un assistant IA interne pour préparer une proposition de restructuration de dette à un client entreprise. L'outil commet une erreur dans l'interprétation d'une clause de complément de prix, biaisant la recommandation. La banque suit, la négociation échoue, le client se retourne contre l'établissement.
Qui est responsable ? La réponse dépendra en grande partie :
- des limites d'usage explicitement prévues au contrat et dans les politiques internes
- de la capacité à démontrer que l'IA n'était qu'un outil d'aide et non un automate décisionnel
- de la possibilité de reconstituer l'échange exact entre l'utilisateur et l'outil
Les débats que nous connaissons déjà en matière de contentieux financiers et produits défectueux vont se transposer quasi à l'identique dans l'univers de l'IA générative.
Former les juristes à dialoguer réellement avec les DSI
Il y a, dans beaucoup de banques, une fracture silencieuse entre les équipes innovation et données, et les directions juridiques. Les premières voient le droit comme un frein, les secondes voient l'IA comme une boîte noire dangereuse. Le résultat est prévisible : des contrats faibles, signés tard, pour ne pas bloquer le business.
Le remède est ennuyeux mais imparable : mettre des avocats familiers des technologies et du contentieux informatique au cœur de la discussion, dès la phase de POC, pour :
- qualifier rapidement les cas d'usage les plus risqués
- définir une doctrine d'acceptabilité des contrats fournisseurs
- structurer un plan d'escalade en cas d'incident ou de dérive
Les banques qui font cet effort en amont gagnent un temps considérable en aval, lorsque les premiers incidents surviennent, inévitablement.
Ne pas attendre le premier scandale pour ajuster le tir
Le sentiment dominant, fin 2025, est étrange : tout le monde sent qu'une affaire d'IA générative mal encadrée finira devant les tribunaux français, mais personne ne veut être le premier exemple. C'est une excellente raison pour agir vite.
Une revue ciblée des contrats et des cas d'usage les plus sensibles - scoring crédit, lutte anti‑fraude, analyse de documents juridiques - permet déjà de corriger 80 % des aberrations les plus criantes. L'objectif n'est pas d'ériger une forteresse imprenable, mais d'élever franchement le plancher de sécurité juridique.
Si vous avez l'impression diffuse que vos contrats d'IA sont moins robustes que vos contrats d'outsourcing bancaire classique, ce n'est probablement pas qu'une impression. Mieux vaut l'affronter maintenant, avec un partenaire rompu aux enjeux bancaires et digitaux, plutôt que d'en débattre, trop tard, devant un tribunal de commerce parisien.