L’utilisation inappropriée de l’IA par les avocats, notamment lorsqu’elle conduit à la production de fausses jurisprudences – appelées « hallucinations » –, suscite de vives inquiétudes dans la profession. Cette pratique soulève une question essentielle : quelle responsabilité pour l’avocat qui s’appuie sur des résultats erronés générés par une IA ?
Selon le règlement intérieur national, le principe de prudence impose à l’avocat de vérifier la fiabilité des informations fournies par ces outils. Cette obligation déontologique est incontournable.
Cette analyse, encore prospective faute de jurisprudence française établie, examine les différents régimes de responsabilité – disciplinaire, civile et pénale – liés à l’usage non contrôlé de technologies dont les limites sont connues.
Responsabilité disciplinaire : la sanction la plus immédiate
À l’international, les sanctions disciplinaires se multiplient : plus de 560 cas recensés à ce jour. Le scénario est souvent le même : pressé par le temps, un avocat demande à une IA de trouver des décisions pertinentes. L’outil, conçu pour fournir une réponse coûte que coûte, préfère inventer une jurisprudence plutôt que reconnaître son incapacité.Le cas emblématique Mata/Avianca illustre ce risque : des avocats ont déposé des écritures contenant des décisions fictives générées par ChatGPT. Malgré leurs vérifications auprès de l’IA, ils ont été sanctionnés.En France, le Livre blanc du barreau de Paris (octobre 2025) rappelle que « l’avocat qui recourt à l’IA doit impérativement vérifier la fiabilité des résultats obtenus » (article 1.3 du RIN). Le non-respect de cette obligation peut entraîner des sanctions allant jusqu’à la radiation (article 184 du décret n°91-1197).
Responsabilité pénale : l’ombre de l’escroquerie au jugement
L’article 313-1 du Code pénal qualifie d’escroquerie au jugement toute manœuvre frauduleuse visant à influencer une décision de justice, comme la production de faux documents. Une fausse jurisprudence générée par IA pourrait constituer l’élément matériel de l’infraction.Toutefois, la question de l’intention demeure : s’agit-il d’une volonté de tromper ou d’un simple manque de vigilance ? Une décision récente de la cour d’appel de Paris (8 juillet 2025) a relaxé deux avocats poursuivis pour faux, faute de preuve qu’ils connaissaient le caractère frauduleux du document. Mais la multiplication des « hallucinations » pourrait conduire à considérer qu’un avocat ne peut ignorer les limites de l’IA.
Responsabilité civile : la plus probable
La faute civile semble la plus facile à établir, mais le débat portera sur le préjudice. Si l’erreur est détectée avant le jugement, elle sera écartée, mais le juge pourrait sanctionner la partie pour manque de sérieux. Le client devra alors prouver le lien entre la fausse jurisprudence et l’échec de la procédure.Le barreau de Paris anticipe ce risque : « L’avocat doit examiner attentivement le contenu produit par l’IA pour en vérifier l’exactitude, la conformité et l’absence de biais. À défaut, sa responsabilité civile professionnelle pourrait être engagée. »Si l’erreur est découverte après le jugement, la partie lésée pourrait réclamer des dommages et intérêts, sous réserve de démontrer un lien direct entre la décision erronée et le résultat judiciaire – une preuve difficile à rapporter.
La position des assureurs : un point encore flou
Les assureurs en responsabilité civile professionnelle pourraient exclure ce type de faute, soit par des clauses spécifiques sur l’usage de l’IA, soit en invoquant la faute dolosive (article L.113-1 du Code des assurances). Le défaut de vérification pourrait être assimilé à une négligence consciente.En l’absence de cadre clair, la tendance est à inciter les avocats à vérifier eux-mêmes les résultats fournis par l’IA. Après tout, aucun avocat ne se contenterait du travail d’un stagiaire sans contrôle : pourquoi agir différemment avec une IA ?