AuditFINANCEintelligence artificielle

IA sans supervision humaine : Le scandale Deloitte

Le scandale Deloitte Australie ébranle la confiance et dévoile les dangers de l’IA sans supervision humaine. En effet, en octobre 2025, Deloitte Australia a été contraint de rembourser partiellement 440 000 dollars australiens (290 000 USD) après la livraison d’un rapport gouvernemental truffé d’erreurs générées par l’IA.

Ce document de 237 pages, destiné à examiner les systèmes de conformité automatisés du ministère de l’Emploi et des Relations de Travail, contenait des citations de juges fictives, des références académiques inexistantes et des erreurs systématiques. L’enquête révéla que l’IA Azure OpenAI GPT-4o avait été utilisée sans supervision adéquate. En fait, cet outil a généré ce que les experts appellent des « hallucinations » i.e. des informations plausibles mais totalement inventées.

Ce scandale révèle trois vérités essentielles :

  • premièrement, l’IA n’est pas une boussole infaillible mais un outil puissant nécessitant une gouvernance rigoureuse ;
  • deuxièmement, la confiance aveugle dans la technologie peut conduire à des erreurs systémiques d’une ampleur démesurée ;
  • troisièmement, l’expertise humaine reste irremplaçable pour valider, contextualiser et garantir l’intégrité des analyses.

Les pièges de l’IA sans supervision humaine

Quand la technologie devient source de risque

L’incident Deloitte sert ainsi de catalyseur pour une réflexion profonde sur l’équilibre entre automatisation et jugement professionnel dans l’audit moderne.

IA sans supervision humaine : L’illusion de l’automatisation totale

L’attrait de l’automatisation complète représente un piège dangereux dans le domaine de l’audit. Aussi, lorsque Deloitte a confié la rédaction d’un rapport critique à l’IA sans mécanismes de vérification humaine, ils ont démontré une croyance trompeuse.

Cette approche néglige un point essentiel : les systèmes d’IA générative sont avant tout des machines à créer du contenu plausible. De ce fait, elles ne sont pas conçues comme des outils de vérification factuelle.

Les conséquences de cette illusion sont multiples.

  • Tout d’abord, l’IA peut générer des citations et références qui semblent parfaitement légitimes. En réalité, elles sont totalement fictives.
  • Ensuite, elle peut manquer le contexte juridique et réglementaire crucial qui guide l’interprétation des données.
  • Enfin, elle opère dans un vide éthique. Autrement dit, l’IA est incapable de comprendre les implications morales et sociales de ses analyses.

Comme l’a découvert Dr. Chris Rudge de l’Université de Sydney lors de l’analyse du rapport Deloitte :

I instantaneously knew it was either hallucinated by AI or the world’s best kept secret because I’d never heard of the book and it… » (source : The Associated Press)

Ainsi, le rapport Deloitte contenait des erreurs qui auraient été immédiatement détectées par un auditeur expérimenté. Cela démontre que l’absence de supervision humaine transforme l’IA. Par conséquent, c’est un outil puissant qui peut devenir une source potentielle de désinformation systémique.

IA sans supervision humaine : Les limites fondamentales des systèmes d’IA actuels

Les systèmes d’IA, aussi avancés soient-ils, présentent des limitations structurelles qui rendent leur utilisation sans supervision problématique en audit.

La première limitation réside dans le phénomène d’hallucination 

les modèles de langage peuvent générer avec confiance des informations complètement inventées. Techniquement, il s’agit de la tendance à générer des informations factuellement incorrectes avec une haute confiance. En fait, c’est lorsque les patterns statistiques appris lors de l’entraînement ne correspondent pas à la réalité factuelle.

Comme l’explique la recherche du MIT (2024) : Les hallucinations résultent d’un déséquilibre entre la maximisation de la vraisemblance (produire du texte fluide) et la fidélité factuelle. Le modèle privilégie ce qui est statistiquement probable plutôt que ce qui est vrai.

Dans le contexte d’audit, c’est catastrophique : un modèle peut générer avec assurance une référence juridique inexistante ou une statistique financière erronée simplement parce que cela correspond aux patterns de langage observés dans ses données d’entraînement. Cette capacité à produire du contenu plausible mais factuellement incorrect représente un danger majeur dans un domaine où la précision est cruciale.

Deuxième limitation majeure : l’IA manque cruellement de compréhension contextuelle.

Elle traite les données comme de simples patterns statistiques. Aussi, l’IA est incapable de saisir leur véritable signification ou leurs implications juridiques.

Par exemple, elle peut identifier une anomalie comptable sans comprendre si elle résulte de :

  • une erreur humaine, 
  • une fraude délibérée
  • ou d’une particularité légitime du système comptable.

Cette absence de jugement contextuel rend les conclusions de l’IA potentiellement trompeuses si elles ne sont pas interprétées par un professionnel qualifié.

La troisième limitation touche à la responsabilité éthique et juridique.

L’IA ne peut pas :

  • être tenue responsable de ses erreurs, 
  • témoigner en justice,
  • faire face aux conséquences de ses recommandations.

Dans l’audit, la responsabilité professionnelle est fondamentale. C’est ce qui garantit la confiance du public dans le système financier. L’utilisation non supervisée de l’IA crée ainsi un vide de responsabilité qui mine les fondements mêmes de la profession d’auditeur.

IA sans supervision humaine : les limites

De la leçon à la solution

Le scandale Deloitte nous offre une leçon douloureuse mais précieuse : l’IA sans supervision humaine est un risque, mais l’IA bien encadrée est une opportunité.

Les chiffres parlent d’eux-mêmes : Une recherche académique intitulée « How Does Artificial Intelligence Shape Audit Firms? » publiée dans Management Science (INFORMS, 2024) analyse l’impact de l’IA dans les cabinets d’audit, y compris chez Deloitte. Or cette étude présente des données quantitatives sur les gains de productivité.

En particulier, l’étude montre que :

  • L’adoption de l’IA est associée à une réduction significative du temps consacré aux tâches répétitives.

  • Les cabinets utilisant l’IA, dont Deloitte, ont vu une amélioration mesurable de l’efficacité des audits. C’est notamment dû à des outils comme Kira Systems (utilisé sous le nom Argus en audit). Aussi, ces outils permettent de réduire le temps d’analyse des documents de 20 à 90 % selon les cas.

Ces résultats sont corroborés par un cas d’usage publié sur Best Practice AI, confirmant les gains de temps importants dans l’examen des contrats et des pièces justificatives.

En conséquence, cette perspective change tout. Plutôt que de rejeter la technologie, la réponse réside dans une collaboration intelligente où chaque acteur joue son rôle naturel. C’est exactement ce que démontre l’exemple des tests de substance (analyse exhaustive de toutes les transactions comptables, plutôt que d’un simple échantillon).

Ici, l’IA n’est pas un substitut à l’auditeur, mais son partenaire stratégique. 

L’IA comme partenaire d’audit

L’exemple révolutionnaire des tests de substance

Le cabinet Deloitte a commis l’erreur de confier des décisions critiques à un outil IA sans supervision humaine. Par contraste, les tests de substance illustrent comment l’intelligence artificielle, correctement maîtrisée, devient un levier puissant pour amplifier l’expertise humaine.

Le défi traditionnel de l’analyse des écritures comptables

Traditionnellement, l’audit des écritures comptables (les enregistrements individuels des transactions financières) reposait sur des méthodes d’échantillonnage limitées et laborieuses. Les auditeurs devaient sélectionner manuellement un petit sous-ensemble d’écritures (souvent 50 à 100 transactions sur des milliers voire des millions) basé sur leur jugement professionnel et leur perception du risque.

Cette méthode d’échantillonnage restait la seule solution pratique. Pourtant, ses limites étaient fondamentales et bien réelles.

D’une part, cette méthode laissait une grande partie des données non examinées. Cela créait des zones d’ombre où pouvaient se dissimuler des fraudes sophistiquées ou des erreurs systémiques. 

De l’autre, la sélection basée sur le jugement humain pouvait être biaisée. En effet, elle pouvait manquer des anomalies subtiles qui ne correspondaient pas aux patterns attendus. 

Enfin, le processus était extrêmement chronophage, consommant des heures précieuses qui auraient pu être consacrées à l’analyse et à l’investigation.

Cette approche manuelle créait ainsi un compromis douloureux entre l’exhaustivité désirée et la faisabilité pratique.

L’IA comme détective financier : mécanismes techniques et résultats concrets

L’intervention de l’IA transforme radicalement cette dynamique grâce aux tests de substance avancés. Contrairement aux modèles génératifs (comme ceux impliqués dans le scandale Deloitte), les systèmes d’audit utilisent principalement l’apprentissage non supervisé. Ce sont des algorithmes qui apprennent les patterns normaux sans supervision humaine préalable.

Prenons quelques exemples :

  • Isolation Forest : Un algorithme qui isole les anomalies plus rapidement que les points normaux. C’est comme un détective qui trie des dossiers suspects en quelques gestes.
  • Autoencodeurs (réseaux de neurones) : Ces modèles apprennent à compresser puis à reconstruire les données normales. Les anomalies sont les données que le système ne parvient pas à reconstruire fidèlement.
  • Analyse multi-dimensionnelle : L’IA examine simultanément des dizaines de caractéristiques (horaire, montant, historique fournisseur, libellé textuel) pour identifier des combinaisons subtiles d’anomalies.

Contrairement aux méthodes traditionnelles qui analysaient moins de 1% des transactions, l’IA examine désormais 100% des données du grand livre comptable (le registre central qui contient toutes les transactions financières d’une entreprise) en temps réel .

Le résultat est spectaculaire : Par exemple, l’IA améliore significativement l’efficacité du ciblage des fraudes fiscales par rapport aux méthodes traditionnelles. 

Types d’anomalies détectées par l’IA :

  • Horodatages suspects : Écritures passées en dehors des heures de bureau
  • Montants « ronds » : Transactions juste en dessous des seuils d’approbation
  • Fréquences anormales : Fournisseurs mineurs devenant soudainement majeurs
  • Relations contreparties inhabituelles : Transactions entre entités sans lien opérationnel
  • Descriptions atypiques : Utilisation de mots-clés étranges dans les libellés

Le processus collaboratif idéal fonctionne ainsi :

Étape Rôle de l’IA Rôle de l’Auditeur
1. Traitement Ingère et nettoie l’ensemble des données brutes Définit le périmètre et les sources de données
2. Analyse Produit une liste priorisée d’alertes (ex. : « Top 50 écritures les plus atypiques ») Ne fait pas confiance aveuglément. Comprend la logique des alertes
3. Investigation Met en évidence les corrélations entre les données Mène l’enquête, interroge le personnel, demande les pièces justificatives
4. Conclusion Fournit des recommandations basées sur les patterns détectés Prend la décision finale, valide ou infirme l’alerte, documente son raisonnement

Les garde-fous : Comment mettre en œuvre la validation humaine

La synergie homme-machine ne fonctionne que si des mécanismes de validation robustes sont en place.

D’après les meilleures pratiques des Big 4, quatre niveaux de contrôle sont essentiels :

IA sans supervision humaine

 

Le résultat : une synergie parfaite

En conséquence, les 4 niveaux de validation humaine constituent précisément la supervision qui a fait défaut chez Deloitte Australie. 

L’auditeur ne passe plus des heures à chercher une aiguille dans une botte de foin. Il se concentre sur les points de risque les plus élevés, identifiés de manière objective par l’IA.

Son temps est alors réalloué vers des tâches à plus haute valeur ajoutée : l’investigation, l’entretien avec la direction, l’exercice d’un jugement éclairé. Par exemple, le cabinet EY, dans ses programmes anti-fraude à l’assurance a déclaré que 4% des dépenses totales de réclamations ont été économisées grâce à un programme anti-fraude optimisé.

IA sans supervision humaine : Nouvelle ère collaborative

Le scandale Deloitte n’est pas la fin de l’IA en audit, mais son vrai commencement. En fait, il marque le passage d’une ère d’illusion technologique à une ère de maturité professionnelle. Le message est clair et sans ambiguïté : l’IA ne remplace pas l’auditeur, elle le libère des tâches mécaniques.

Désormais, il peut se concentrer sur ce qui définit vraiment son métier :

  • le jugement critique,
  • l’investigation perspicace,
  • et surtout, la responsabilité éthique face aux chiffres qui gouvernent nos économies.

Aussi, les tests de substance ne sont qu’un premier pas. 

In fine, l’intelligence artificielle transforme profondément l’audit et la comptabilité en automatisant les tâches répétitives, améliorant la rapidité et la fiabilité des traitements. Désormais, elle permet d’analyser exhaustivement les données financières. En effet, l’IA détecte plus efficacement les anomalies et fraudes, tout en libérant les professionnels du chiffre pour des missions à plus forte valeur ajoutée comme l’analyse et le conseil.

Toutefois, en fin de compte, la supervision humaine reste indispensable pour garantir l’éthique, la qualité et la responsabilité des audits.

Françoise Rennes

Marquée par un intérêt grandissant pour l’audit, je décrypte avec un regard critique et pédagogique les évolutions de l’audit, de l’information financière et des enjeux extra-financiers, notamment ESG, qui redéfinissent notre profession. À travers ce blog, j’explore les sujets d’actualité, les innovations technologiques (comme l’IA) et les défis de gouvernance qui façonnent l’avenir de la confiance en entreprise. Chaque article se veut une invitation à réfléchir, questionner et faire évoluer ensemble les pratiques du métier. Si un point vous interpelle, n’hésitez pas à partager votre avis en commentaire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *