le media indépendant du
conseil en stratégie

icone burger fermee

rechercher sur le site

icone recherche
Featured

Rapport Deloitte avec des références inventées par l’IA : un avertissement salutaire pour les consultants en stratégie

Que dit « l’affaire Deloitte » des usages et risques pris par les cabinets de conseil en matière d’IA ? En Australie, le cabinet a été contraint de rembourser une partie de ses honoraires.

Lydie Lacroix
21 Oct. 2025 à 05:00
Rapport Deloitte avec des références inventées par l’IA : un avertissement salutaire pour les consultants en stratégie
© NicoElNino/Adobe Stock

En août, The Australian Financial Review révèle que Deloitte a remis au gouvernement un rapport contenant des erreurs dues au recours à l’IA générative. Le contrat s’élève à 440 000 dollars australiens. Trois références universitaires inexistantes, ainsi qu’une citation juridique fabriquée, sont identifiées dans un premier temps (le chercheur australien ayant prévenu les médias en identifiera jusqu’à 20).

Alerté, le ministère australien de l’Emploi et des Relations professionnelles (DEWR) exige des explications et obtient le remboursement d’environ 98 000 dollars. Devant le Sénat, sa secrétaire adjointe déplore que ses équipes aient dû « vérifier les notes de bas de page d’un prestataire censé être un expert ».

Deloitte a, depuis, demandé à l’équipe ayant produit le rapport de suivre une formation complémentaire « sur l’utilisation responsable de l’IA ».

Sur place, EY a réagi immédiatement à l’affaire, affirmant disposer de règles strictes exigeant « la vérification humaine de toute production issue de l’IA», encadrées par sa politique mondiale de « Responsible AI ». KPMG, PwC et le BCG lui ont emboîté le pas. McKinsey a, pour sa part, refusé de commenter son utilisation de la GenAI. Tous mettent en avant des pratiques avancées en la matière auprès de leurs clients.

Sous la pression politique, le gouvernement australien a annoncé un durcissement de ses règles : les consultants devront désormais déclarer explicitement l’usage de la GenAI dans leurs travaux et obtenir l’accord préalable des administrations concernées.

Un électrochoc pour le monde du conseil – en France également ?

L’épisode a en effet tout d’un avertissement.

« Nous l’avons utilisé comme un wake-up call vis-à-vis de nos équipes, explique Michael Majster, associé d’Arthur D. Little responsable du Digital pour la France, la Belgique, les Pays-Bas et le Maroc. Tout le monde ayant accès à ces outils, il est important que chacun ait une discipline et éthique personnelle en la matière, au-delà de la gouvernance mise en place. Les consultants, les associés et le cabinet sont responsables de l’output, IA ou pas. »

Même écho chez Oliver Wyman. « Après cette affaire, nous avons rappelé à tous nos consultants que la valeur ajoutée de notre métier tient dans le regard critique que l’on porte sur les informations et données figurant dans nos rapports », souligne Hugues Havrin, leader mondial Tech & Services du cabinet. Xavier Boileau, partner en charge de la practice Digital & Technology en France, renchérit. « Se former aux outils, ce n’est pas seulement en maitriser les aspects techniques, c’est aussi apprendre à développer un regard critique. Quand les sources se multiplient et que tout s’accélère, il faut savoir tirer le maximum d’informations tout en vérifiant ce qui est produit. »

Mobiliser la GenAI sans la substituer à la réflexion humaine

Dans les faits, ces outils et, parfois, agents IA, sont présents au sein des grands cabinets pour la recherche documentaire, le premier jet d’une synthèse ou la structuration d’un rapport. « Mais leur usage s’accompagne toujours d’une relecture humaine, parfois plusieurs fois par semaine, avec le partner », insiste Xavier Cimino, pilote de la Stratégie chez Publicis Sapient. « Normalement, un associé suit chaque livrable, réunit son équipe, challenge le contenu. S’il ne le fait pas, ce n’est pas l’IA le problème », ajoute-t-il.

D’autres y voient le symptôme d’un emballement collectif. « Quand on vend du rêve autour de l’IA, certains finissent peut-être par y croire un peu trop, fait observer Morand Studer, managing partner du cabinet eleven, spécialisé en stratégie IA et data. Là, visiblement, il y a eu une grosse erreur dans la chaîne de relecture. Rien de nouveau : c’est le travail d’un manager ou d’un partner de vérifier, challenger, recouper. »

Qui dit gains de productivité avec l’IA, dit risque réputationnel ?

Les cabinets avancent sur une ligne de crête : exploiter la puissance de la GenAI sans entamer la confiance des clients. « Notre métier repose sur la crédibilité. Il faut la protéger collectivement », insiste Michael Majster.

Selon lui, la structure « lean » d’Arthur D. Little constitue « une force et une forme de protection naturelle » contre ces dérives. « Chez nous, les circuits sont très courts : un livrable ne peut pas sortir sans avoir été relu ni challengé. »

Un point de vue partagé par les associés d’Oliver Wyman. « Notre ratio partner/nombre de consultants – 1 associé pour 4 ou 5 consultants – contribue à limiter les risques. » Mais la protection la plus efficace « est ancrée dans le métier lui-même : s’assurer de la fiabilité des sources et vérifier les informations ».

Quant à Olivier Leroy, responsable de la practice Data/IA de PMP Strategy, il met en avant l’importance « de la gouvernance de l’IA [mise en place au sein du cabinet] et, plus précisément, de son monitoring ». Ce qui induit « de former les consultants » pour que leurs usages deviennent, de fait, éthiques – parce qu’ils ont pleinement conscience des enjeux. « Nous avons construit une couche de compliance et de trust faite de garde-fous, de sensibilisation, rattachée à la cybersécurité. Les workflows AI complexes sont créés dans l’équipe Data/AI par des data engineers déjà sensibilisés à la sécurité des données. »

Pour Xavier Cimino de Publicis Sapient, il est possible qu’à l’avenir, « il y ait une demande de transparence sur la GenAI dans les contrats – savoir à quel endroit on l’utilise, ou pas ».

Au-delà du cas australien, cette affaire rappelle une évidence : dans le conseil comme ailleurs, l’IA ne remplace pas l’expertise. D’autres erreurs dans des rapports, et c’est toute la réputation du secteur qui pourrait vaciller. Or, comme le reconnaît un autre associé préférant rester anonyme : « À ce stade, personne n’est totalement safe sur le sujet. »

Arthur D. Little (ADL) eleven Oliver Wyman PMP Strategy Publicis Sapient Strategy Hugues Havrin Morand Studer Xavier Boileau Xavier Cimino
Lydie Lacroix
21 Oct. 2025 à 05:00
tuyau

Un tuyau intéressant à partager ?

Vous avez une information dont le monde devrait entendre parler ? Une rumeur de fusion en cours ? Nous voulons savoir !

écrivez en direct à la rédaction !

commentaire (0)

Soyez le premier à réagir à cette information

1024 caractère(s) restant(s).

signaler le commentaire

1024 caractère(s) restant(s).
10 - 2 =

secteur public

Adeline
secteur public
Deloitte Australie, gouvernement, IA générative, GenAI, cabinets de conseil, erreurs, scandale, responsabilité des cabinets, gouvernance de l’IA
14972
Arthur D. Little (ADL) eleven Oliver Wyman PMP Strategy Publicis Sapient Strategy
Hugues Havrin Morand Studer Xavier Boileau Xavier Cimino
2025-10-21 07:00:55
0
Non
Deloitte et l’IA : le scandale australien qui secoue le secteur ?
En Australie, le rapport de Deloitte, généré en partie par l’IA, révèle les risques pris par les cabinets en l’absence de supervision humaine. Quelles sont les réactions dans le monde du conseil en stratégie, en France ?
à la une / articles / Rapport Deloitte avec des références inventées par l’IA : un avertissement salutaire pour les consultants en stratégie