Rapport Deloitte avec des références inventées par l’IA : un avertissement salutaire pour les consultants en stratégie
Que dit « l’affaire Deloitte » des usages et risques pris par les cabinets de conseil en matière d’IA ? En Australie, le cabinet a été contraint de rembourser une partie de ses honoraires.

En août, The Australian Financial Review révèle que Deloitte a remis au gouvernement un rapport contenant des erreurs dues au recours à l’IA générative. Le contrat s’élève à 440 000 dollars australiens. Trois références universitaires inexistantes, ainsi qu’une citation juridique fabriquée, sont identifiées dans un premier temps (le chercheur australien ayant prévenu les médias en identifiera jusqu’à 20).
Alerté, le ministère australien de l’Emploi et des Relations professionnelles (DEWR) exige des explications et obtient le remboursement d’environ 98 000 dollars. Devant le Sénat, sa secrétaire adjointe déplore que ses équipes aient dû « vérifier les notes de bas de page d’un prestataire censé être un expert ».
Deloitte a, depuis, demandé à l’équipe ayant produit le rapport de suivre une formation complémentaire « sur l’utilisation responsable de l’IA ».
Sur place, EY a réagi immédiatement à l’affaire, affirmant disposer de règles strictes exigeant « la vérification humaine de toute production issue de l’IA », encadrées par sa politique mondiale de « Responsible AI ». KPMG, PwC et le BCG lui ont emboîté le pas. McKinsey a, pour sa part, refusé de commenter son utilisation de la GenAI. Tous mettent en avant des pratiques avancées en la matière auprès de leurs clients.
Sous la pression politique, le gouvernement australien a annoncé un durcissement de ses règles : les consultants devront désormais déclarer explicitement l’usage de la GenAI dans leurs travaux et obtenir l’accord préalable des administrations concernées.
Un électrochoc pour le monde du conseil – en France également ?
L’épisode a en effet tout d’un avertissement.
« Nous l’avons utilisé comme un wake-up call vis-à-vis de nos équipes, explique Michael Majster, associé d’Arthur D. Little responsable du Digital pour la France, la Belgique, les Pays-Bas et le Maroc. Tout le monde ayant accès à ces outils, il est important que chacun ait une discipline et éthique personnelle en la matière, au-delà de la gouvernance mise en place. Les consultants, les associés et le cabinet sont responsables de l’output, IA ou pas. »
Même écho chez Oliver Wyman. « Après cette affaire, nous avons rappelé à tous nos consultants que la valeur ajoutée de notre métier tient dans le regard critique que l’on porte sur les informations et données figurant dans nos rapports », souligne Hugues Havrin, leader mondial Tech & Services du cabinet. Xavier Boileau, partner en charge de la practice Digital & Technology en France, renchérit. « Se former aux outils, ce n’est pas seulement en maitriser les aspects techniques, c’est aussi apprendre à développer un regard critique. Quand les sources se multiplient et que tout s’accélère, il faut savoir tirer le maximum d’informations tout en vérifiant ce qui est produit. »
Mobiliser la GenAI sans la substituer à la réflexion humaine
Dans les faits, ces outils et, parfois, agents IA, sont présents au sein des grands cabinets pour la recherche documentaire, le premier jet d’une synthèse ou la structuration d’un rapport. « Mais leur usage s’accompagne toujours d’une relecture humaine, parfois plusieurs fois par semaine, avec le partner », insiste Xavier Cimino, pilote de la Stratégie chez Publicis Sapient. « Normalement, un associé suit chaque livrable, réunit son équipe, challenge le contenu. S’il ne le fait pas, ce n’est pas l’IA le problème », ajoute-t-il.
D’autres y voient le symptôme d’un emballement collectif. « Quand on vend du rêve autour de l’IA, certains finissent peut-être par y croire un peu trop, fait observer Morand Studer, managing partner du cabinet eleven, spécialisé en stratégie IA et data. Là, visiblement, il y a eu une grosse erreur dans la chaîne de relecture. Rien de nouveau : c’est le travail d’un manager ou d’un partner de vérifier, challenger, recouper. »
Qui dit gains de productivité avec l’IA, dit risque réputationnel ?
Les cabinets avancent sur une ligne de crête : exploiter la puissance de la GenAI sans entamer la confiance des clients. « Notre métier repose sur la crédibilité. Il faut la protéger collectivement », insiste Michael Majster.
Selon lui, la structure « lean » d’Arthur D. Little constitue « une force et une forme de protection naturelle » contre ces dérives. « Chez nous, les circuits sont très courts : un livrable ne peut pas sortir sans avoir été relu ni challengé. »
Un point de vue partagé par les associés d’Oliver Wyman. « Notre ratio partner/nombre de consultants – 1 associé pour 4 ou 5 consultants – contribue à limiter les risques. » Mais la protection la plus efficace « est ancrée dans le métier lui-même : s’assurer de la fiabilité des sources et vérifier les informations ».
Quant à Olivier Leroy, responsable de la practice Data/IA de PMP Strategy, il met en avant l’importance « de la gouvernance de l’IA [mise en place au sein du cabinet] et, plus précisément, de son monitoring ». Ce qui induit « de former les consultants » pour que leurs usages deviennent, de fait, éthiques – parce qu’ils ont pleinement conscience des enjeux. « Nous avons construit une couche de compliance et de trust faite de garde-fous, de sensibilisation, rattachée à la cybersécurité. Les workflows AI complexes sont créés dans l’équipe Data/AI par des data engineers déjà sensibilisés à la sécurité des données. »
Pour Xavier Cimino de Publicis Sapient, il est possible qu’à l’avenir, « il y ait une demande de transparence sur la GenAI dans les contrats – savoir à quel endroit on l’utilise, ou pas ».
Au-delà du cas australien, cette affaire rappelle une évidence : dans le conseil comme ailleurs, l’IA ne remplace pas l’expertise. D’autres erreurs dans des rapports, et c’est toute la réputation du secteur qui pourrait vaciller. Or, comme le reconnaît un autre associé préférant rester anonyme : « À ce stade, personne n’est totalement safe sur le sujet. »
Un tuyau intéressant à partager ?
Vous avez une information dont le monde devrait entendre parler ? Une rumeur de fusion en cours ? Nous voulons savoir !
commentaire (0)
Soyez le premier à réagir à cette information
secteur public
- 01/09/25
Fabien Hassan, membre du Boston Consulting Group (BCG) pendant près de 10 ans, quitte le cabinet de conseil pour le secrétariat général à la Planification écologique. Il y occupera le poste de chef du pôle « Milieu et Ressources ». C’est le troisième ancien du BCG à passer par le SGPE en 3 ans.
- 30/06/25
D’autres consultants – AlixPartners, Ernst & Young et FTI Consulting – sont aussi dans le viseur de l’Administration générale des Services (GSA). Les cabinets ont jusqu’au 11 juillet pour fournir les informations demandées.
- 09/06/25
Des consultants du cabinet demandent des comptes aux instances dirigeantes. Le BCG se dit « choqué et indigné » des actions menées par deux de ses partners.
- 19/05/25
Il était attendu depuis le 13 mai, date annoncée dans l’avis de marché informatif : l’appel d’offres de l’Union des Groupements d'Achats Publics (UGAP) courant sur les 3 prochaines années vient d’être publié.
- 14/05/25
Plusieurs années passées au BCG et une série de fonctions de direction dans des groupes des télécoms, de l’énergie et de l’électronique grand public : voilà le parcours du nouveau ministre allemand du Digital, Karsten Wildberger.
- 08/04/25
En provenance du Boston Consulting Group, Sylvain Descazeaud est nommé auprès du ministre Jean-Noël Barrot.
- 18/03/25
Entre 2018 et 2022, McKinsey, le BCG et Roland Berger ont contribué à l’organisation de grands sommets internationaux en pro bono.
- 12/03/25
Le BCG va épauler l’Agence exécutive du Conseil européen de l’innovation et des PME (EISMEA) durant 4 ans maximum.
- 04/03/25
Roland Berger est coattributaire d’un lot avec S2H Consulting, le binôme ayant déjà été sélectionné en 2022 par un autre opérateur de compétences.