IA et Audit : Entre innovation et responsabilité (Deloitte, 2025)
En Octobre 2025, la presse révèle un incident majeur concernant le cabinet Deloitte Australie. Maintenant, ceci fait l’objet d’un intense débat public : IA et audit : entre innovation et responsabilité.
Les faits
Deloitte a remis un rapport de 237 pages au gouvernement australien. Ce document avait été commandé par le Département de l’Emploi et des Relations professionnelles. Le problème ? Il contenait des erreurs factuelles et des références juridiques fictives.
L’origine du problème ? Une rédaction assistée par une intelligence artificielle (IA) générative, sans supervision humaine adéquate.
Face au tollé, le cabinet a dû rembourser une partie du contrat, soit 440 000 dollars (environ 250 000 euros) et présenter ses excuses. Deloitte reconnaît que l’IA avait « miné la crédibilité de l’ensemble du document ». En fait, un audit interne a révélé que « Azure OpenAI » de Microsoft était à l’origine de l’incident.
Un défi majeur : faire de l’IA un levier d’excellence et non une source de défaillance
Si cet événement s’est déroulé à l’autre bout du monde, son écho est universel. Il ne s’agit pas d’un simple faux pas technique ! En fait, c’est le symptôme d’un défi majeur qui concerne directement la profession comptable. En réalité, la réelle question est comment intégrer les outils d’IA puissants et séduisants sans trahir les fondements du commissariat aux comptes.
Effectivement, ce métier repose sur la rigueur, la sincérité, la responsabilité et la confiance. Or, l’IA générative promet des gains d’efficacité considérables. A titre d’exemple, on peut citer la synthèse de milliers de pages de contrats, l’analyse de tendances financières ou encore la rédaction de brouillons de rapports. Toutefois, son utilisation aveugle, comme l’a démontré le cas de Deloitte, peut avoir des conséquences désastreuses. Il en va de la perte de crédibilité jusqu’à des risques juridiques et réglementaires majeurs .
Quelles sont donc les leçons à tirer de ce scandale ? Dans un premier temps, nous examinerons les risques concrets liés à l’usage non supervisé de l’IA dans les missions d’audit et de conseil. Dans un second temps, nous explorerons les voies d’un encadrement responsable, à la fois professionnel, déontologique et réglementaire, en France et en Europe.
L’objectif n’est ni de céder à la peur technophobe, ni de tomber dans un enthousiasme naïf. Bien au contraire, l’objectif est de proposer une voie médiane, exigeante et réaliste. Le focus est bien le lien entre IA et audit : entre innovation et responsabilité.
IA et Audit : Entre innovation et responsabilité : Les dangers cachés
L’incident de Deloitte a mis en lumière deux risques majeurs, intimement liés. Ces risques, en fait, menacent le cœur de notre profession. Il s’agit de la fiabilité de l’information produite et la clarté de la responsabilité professionnelle.
IA et Audit : Quand la fiabilité devient une illusion technologique
Le premier piège de l’IA générative est le plus insidieux. Il s’agit de son aptitude à produire du texte d’une cohérence et d’une assurance trompeuses. Ainsi, l’IA diffère d’un moteur de recherche qui renvoie à des sources. Ici, un grand modèle de langage (LLM) prédit des séquences de mots. Il ne « sait » rien au sens humain du terme ; il « devine » ce qui sonne juste. Ce phénomène est connu sous le nom d’« hallucination ». Résultat : l’IA invente des faits, des données. Celle-ci peut même créer des citations avec une parfaite conviction.
Dans le cas de Deloitte, un universitaire a été le premier à identifier ces erreurs après la publication du rapport. Il a constaté que des références à des décisions de justice, pourtant présentées comme centrales à l’argumentaire, n’existaient tout simplement pas . Ces « faux documents » n’étaient pas le fruit d’une malveillance. En fait, il s’agit plus d’une confiance excessive dans la capacité de l’outil à produire un contenu fiable. Or, dans l’audit, chaque chiffre, chaque conclusion doit reposer sur des preuves vérifiables. Aussi, une telle erreur est inacceptable.
En conséquence, elle ne se contente pas de fausser une analyse ; Pire, elle sape la confiance des parties prenantes (actionnaires, investisseurs, autorités).
Or, ces erreurs ne sont pas anodines. Elles peuvent conduire à :
- des décisions stratégiques erronées,
- des sanctions réglementaires
- ou à des contentieux juridiques.
La crédibilité d’un cabinet se construit sur des décennies de rigueur. Elle peut être ébranlée en quelques semaines par un simple copier-coller non vérifié !
IA et Audit : La responsabilité professionnelle mise à l’épreuve
Le second risque, plus fondamental, est la dilution de la responsabilité professionnelle. En France, l’expert-comptable et le commissaire aux comptes sont des professions réglementées. L’article 2.1 du Code de déontologie des experts-comptables impose notamment l’obligation d’« exercer sa mission avec la compétence, la diligence et le soin qu’exigent la complexité et l’importance de celle-ci ». De même, le commissaire aux comptes est personnellement et légalement responsable de son rapport d’audit.
Le danger, dans un contexte d’usage massif de l’IA, est de glisser vers une forme de « délégation invisible ». L’idée que l’outil, parce qu’il est sophistiqué, pourrait assumer une partie du jugement professionnel. Or, c’est une illusion dangereuse. Le cas de Deloitte en est la parfaite illustration. En fait, le cabinet ne pouvait pas se retrancher derrière l’algorithme pour échapper à ses responsabilités. Il a été tenu pour responsable, et non le modèle d’IA utilisé .
En outre, cette confusion entre assistance et délégation menace un autre pilier : le scepticisme professionnel. L’auditeur ne doit pas se contenter de ce qu’on lui dit ; il doit chercher, vérifier, confronter. Appliquer ce même scepticisme à la production de l’IA est une compétence essentielle. Effectivement, il s’agit de la traiter comme une hypothèse à valider. Ainsi, l’IA ne peut pas être une source d’autorité. Confondre l’efficacité d’un outil avec la rigueur d’une méthode est la porte ouverte à l’imprudence.
IA et Audit : Entre innovation et responsabilité : Construire un cadre éthique
Face à ces dangers, il serait tentant de rejeter l’IA en bloc. Toutefois, une telle réaction serait à la fois excessive et surtout contre-productive. Effectivement, si les risques sont réels, les opportunités le sont tout autant.
L’IA peut automatiser les tâches répétitives. Elle libère du temps pour le dialogue avec le client et le jugement professionnel. L’enjeu est donc de réconcilier innovation et exigence déontologique. C’est précisément ce que permet un encadrement rigoureux, à la fois humain, organisationnel et réglementaire.
Pour que l’IA devienne un allié et non un danger, un cadre d’encadrement solide doit être mis en place. Ce cadre repose sur deux piliers complémentaires :
- des bonnes pratiques professionnelles au niveau des cabinets,
- et un cadre juridique et réglementaire en construction au niveau national et européen.
IA et Audit : Les piliers d’un encadrement professionnel innovant
Même en l’absence de directive officielle contraignante, la déontologie et le bon sens professionnel imposent déjà un certain nombre de garde-fous. Ces bonnes pratiques peuvent se résumer en cinq principes fondamentaux.
Premièrement, la supervision humaine systématique. L’IA peut produire un brouillon, une analyse ou une synthèse. Cependant, la validation finale, la signature et la responsabilité doivent rester exclusivement humaines. Concrètement, le professionnel doit a minima relire le document. En plus, il doit aussi comprendre et approuver chaque élément du document.
Deuxièmement, l’obligation de vérification des faits. Le croisement de toute information s’avère nécessaire avec des sources primaires et fiables. Le principe un « never trust, always verify » (« ne faites jamais confiance, vérifiez toujours ») doit supplanter un « trust, but verify » (« faites confiance, mais vérifiez »).
Troisièmement, la transparence. Elle est de bonne pratique. Bientôt ce sera peut-être une obligation de mentionner l’usage de l’IA au destinataire du document. Cela renforcera lors la confiance et permettra de gérer les attentes de manière réaliste.

Quatrièmement, la formation continue des équipes. Il ne suffit pas de donner accès à un outil d’IA. En fait, il faut former les collaborateurs à ses capacités et surtout à ses limites. Comprendre le phénomène d’hallucination, les biais algorithmiques et les enjeux de confidentialité est désormais une compétence de base.
Enfin, l’intégration dans le système qualité du cabinet. La formalisation d’une politique interne doit mentionner l’usage de l’IA. Celle-ci a minima doit inclure des procédures claires sur :
- les outils autorisés,
- les données pouvant être traitées
- et les processus de validation.
Cela permet de garantir la traçabilité et la cohérence de l’approche. Aussi, ces bonnes pratiques, si elles émergent au niveau des cabinets, gagnent à être soutenues et structurées par un cadre plus large, d’ordre réglementaire.
IA et Audit : Le nouveau paysage juridique et réglementaire
En France, ni le Conseil supérieur de l’Ordre des experts-comptables (CSOEC) ni la Compagnie nationale des commissaires aux comptes (CNCC) n’ont encore publié de directive exhaustive sur l’usage de l’IA. Néanmoins, le cadre existant s’applique pleinement. Le Code de déontologie, le secret professionnel et les Normes françaises d’exercice professionnel (NEP) imposent déjà un niveau d’exigence qui rend l’usage non encadré de l’IA incompatible avec leurs obligations.
Au niveau européen, le paysage se structure rapidement. Le Règlement général sur la protection des données (RGPD) constitue un premier garde-fou majeur. L’envoi de données clients confidentielles à une IA publique (comme ChatGPT) peut constituer une violation grave du RGPD. Le cabinet peut s’exposer à de lourdes sanctions.
Surtout, le règlement européen sur l’IA (AI Act) change la donne. Ce texte classifie les systèmes d’IA en fonction de leur niveau de risque. Ainsi, les systèmes « à haut risque » sont ceux qui ont un impact significatif sur la santé, la sécurité ou les droits fondamentaux des citoyens. Ils sont soumis à des obligations strictes .
Or, les systèmes d’IA utilisés dans le domaine de la gestion des risques, de la conformité ou de l’audit pourraient très bien être inclus dans cette catégorie. Ces systèmes devront notamment :
- faire l’objet d’évaluations de la conformité,
- garantir une supervision humaine efficace
- et mettre en place des systèmes de surveillance post-marché .
Ainsi, même en l’absence de texte contraignant spécifique, un écosystème normatif se dessine clairement. Il impose une logique de précaution, de transparence et de responsabilité. Aussi, cela va dans le sens d’un usage maîtrisé et éthique de la technologie.
Conclusion : IA et audit : Entre innovation et responsabilité
Le scandale de Deloitte en Australie ne doit pas être vu comme un simple accident de parcours. En fait, il s’agit d’un réveil salutaire. Il nous rappelle avec force que la technologie, aussi puissante soit-elle, ne saurait se substituer à l’humain. Autrement dit, jugement, rigueur et responsabilité restent le socle de la profession.
En fin de compte, ce n’est pas l’IA qui a échoué dans cette affaire. Il s’agit bel et bien de la gouvernance autour de son usage. L’erreur n’était pas d’avoir utilisé un outil moderne, mais de l’avoir fait sans les garde-fous professionnels et déontologiques élémentaires.
Plutôt que de céder à la peur ou à l’enthousiasme naïf, la profession doit prendre les devants.
Comme le souligne FormaConseils en octobre 2025 :
« L’IA doit rester un appui pour les auditeurs, et non devenir leur maître d’œuvre. »
Cela passe par :
- la formalisation de bonnes pratiques au sein des cabinets,
- une formation continue des équipes
- et une participation active à l’élaboration des cadres futurs, qu’ils soient déontologiques ou réglementaires.
L’audit et le conseil de demain seront augmentés, mais jamais automatisés. La valeur ajoutée du métier ne résidera pas dans la capacité à produire plus de rapports. Au contraire, le focus repose sur la capacité à garantir leur sincérité, leur fiabilité et leur pertinence.
Et sur ce terrain, l’humain, avec son esprit critique et son sens de l’éthique, restera toujours irremplaçable.

