Telechargé par driss chakaoui

vf mfe

publicité
Il En préambule à ce mémoire nous remerciant ALLAH qui nous aide et nous donne la patience et le
courage durant ces longues années d’étude.
Je souhaite adresser mes remerciements les plus sincères aux personnes qui m’ont apporté leur aide
et qui ont contribué à l’élaboration de ce mémoire ainsi qu’à la réussite de cette formidable année
scolaire.
Ces remerciements vont tout d’abord au corps professoral et administratif de L’ECOLE DE
COMMERCE ET DE MANAGEMENT : TOULOUSE BUSINESS SCHOOL, pour la richesse et la qualité de
leur enseignement et qui déploient de grands efforts pour assurer à leurs étudiants une formation
actualisée.
Je tiens à remercier sincèrement Monsieur YASSINE CHERRAT qui, en tant qu’encadrant de ce
mémoire, qui s’est toujours montré à l’écoute et très disponible tout au long de la réalisation de ce
travail, ainsi pour l’inspiration, l’aide et le temps qu’il a bien voulu me consacrer et sans qui ce
mémoire n’aurait jamais vu le jour.
Sans oublier mes parents pour leur contribution, leur soutien et leur patience.
Enfin, j’adresse mes plus sincères remerciements à tous mes proches et amis, qui m’ont toujours
encouragée au cours de la réalisation de ce mémoire.
Merci à tous et à toutes.
Remercîment
Sommaire :





I.
Table de matières………………………………………………………………………………….…………………………2
Tableaux……………….…………………………………………………………………………………………………………3
Table des illustrations………………………………………………………………………………………………………4
Avant-propos………………………………………………………………………………………………..…………………5
L’intelligence artificielle : Apparition, ses fruits et ses réalisations dans des divers domaines
(Assurance, Marketing…)…………………………………….............................................................6
Le machine Learning : une méthode future pour l’audit dans le discernement de la
fraude……………………………………………………………………………………………………………………………….10
1.
Définition, histoire, rôles, son impact sur l’identification des fraudes dans le
domaine d’audit…………………………………………………………………………………………..14
2.
Intelligence artificielle et audit : d'une approche axée sur les risques à une approche
digitalisée…………………………………………………………………………………………………….15
3.
Le cadre juridique et les pratiques disponibles pour un auditeur…………………..15
4.
Passage de la pensée restreinte à l'abstraction émotionnelle : d’une amorce à
l'intelligence artificielle………………………………………………………………………………..22
5.
Développements dans la pratique de l'audit grâce à l'intelligence artificielle : la
révolution du machine learning……………………………………………………………………27
6.
La neutralité et la fiabilité de la machine learning et son assujettissement à une
complexité de mise en œuvre………………………………………………………………………28
II.
Investigation sur le terrain, Analyse des résultats et recommandations…………………………..38
1. Méthodologie de l’investigation sur le terrain………………………………………………………………….38
1.1. Les différentes méthodes d'enquête et leur relevance……………………………………38
1.2. Désignation des répondants………………………………………………………………………….41
1.3. Les guides d'entretien……………………………………………………………………………………42
2. Contrôle des hypothèses de recherche - Examen des résultats d'entrevues……………………..51
2.1. affichage et étude des résultats obtenus par l'entrevue…………………………………51
2.2. vérification de pertinence des démonstrations de recherche………………………….55
2.3. recommandations et consignes……………………………………………………………………..57
Conclusion :……………………………………………………………………………………………………………….63
Table des annexes :……………………………………………………………………………………………………64
Annexes :…………………………………………………………………………………………………………………..65
Bibliographie :……………………………………………………………………………………………………………81
2
Tableaux :
Tableau 1 : Cadre juridique et règlementaire pour les fraudes d'audit…………………………17
Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude…..……………20
Tableau 3 : Quatre-vingt-huit plus grands scandales comptables………………………….……25
Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs……………...........30
Tableau 5 : Exemple d’illustration du paradoxe de Simpson…………………………………….36
Tableau 6 : récapitulatif des approches d’investigation……………………………………….....40
Tableau 7 : Liste des répondants approchés (Modifié pour préserver son anonymat)……….41
Tableau 8 : Synthèses des hypothèses de recherche……………………………………………….43
Tableau 9 : Manuel d'entrevues pour les CAC qui n'adoptant pas Le machine learning….…45
Tableau 10 : Manuel d'entrevues pour les CAC qui adoptant Le machine learning…………47
Tableau 11 : Manuel d'entrevues pour les professionnels du machine learning………………49
Tableau 12 : Guide d’entrevues liées au Benchmarking………………………………………….50
Tableau 13 : Liste des répondants interrogés dans le cadre de l’entrevue terrain (Modifié
pour des garder l’anonymat)………………………………………………………………………….52
Tableau 14 : Vérification des hypothèses de recherche…………………………………………...55
3
Table des Illustrations :
Illustration 1 : Triangle de Kranacher & al. (2020) et Dorminey (2012) comparé à celui de
Cressey (1950……………………………………………………………………………………...……18
Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission,
équipe/cabinet et réglementation……………………………………………………………………..24
Illustration 3 : L'apprentissage machine au croisement de deux concepts………………………28
Illustration 4 : Variation des principales applications de l'apprentissage machine…………….29
Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning……………....32
Illustration 6 : cadre et paramètres expérimentaux………………………………………………..35
Illustration 7 : Guide pratique en 10 points sur l'utilisation correcte de l'apprentissage
automatique par les sociétés d’audit…………………………………………………………………59
4
AVANT PROPOS
Extrêmement ému par les transformations technologiques et plus précisément l’intelligence artificielle,
le choix de ce sujet et le fait de m’approfondir dans sa recherche m’a permis de lier mes centres
d’intérêt et mon domaine des études .
C’est au travers des profonds recherches, et études que j’ai été amenée à réaliser sur les étapes de
mener une mission d’audit et la détection de la fraude. Aussi, le choix de ce sujet m’a permis
d’apprendre les pratiques qui appliquent les professionnels dans le domaine et mieux comprendre les
origines et les enjeux des travaux menés par les commissaires aux comptes (CAC).
La première partie de ce mémoire présente L’intelligence artificielle, Apparition, ses fruits et ses
réalisations dans des divers domaines (Assurance, Marketing…).
La seconde partie aborde le sujet de << L'intelligence artificielle & L'audit - le machine e- Learning et
son rôle dans la découverte de la fraude d'audit >>.Elle se décompose en une revue de littérature
(articles de recherche, presse, MOOCs, etc.) et sa confrontation avec les discours des chercheurs et des
professionnels du monde de l’audit et du Machine Learning.
Conformément à la méthodologie de livret mémoire professionnel pour l’obtention d’un grade de
master. J’utilise le << nous >> de modestie pour m’adresser aux lecteurs.
L’intelligence artificielle : Apparition, ses fruits et ses réalisations dans des divers domaines
(Assurance, Marketing…).
« Réussir à créer une intelligence artificielle efficace pourrait être le plus grand évènement de
l'histoire de notre civilisation, ou le pire. Nous ne savons tout simplement pas. Nous ne pouvons
donc pas savoir si nous seront infiniment aidés par l'intelligence artificielle, ou ignorés par elle et
écartés ou éventuellement détruits par elle »
Ces mots, prononcés par Stephen Hawking, à l'occasion de son discours d'ouverture de la Web Summit
20174, témoigne du contexte actuel englobant l'essor de l'intelligence.
Introduction :
L’histoire de l’intelligence artificielle débute en 1943, avec la publication de l’article « A Logical
Calculus of Ideas Immanent in Nervous Activity. » par Warren McCullough et Walter Pitts. Dans ce
document, les scientifiques présentent le premier modèle mathématique pour la création d’un réseau de
neurones.
Le premier ordinateur à réseau de neurones, Snarc, sera créé en 1950 par deux étudiants de Harvard :
Marvin Minsky et Dean Edmonds. La même année, Alan Turing publie le Turing Test qui sert encore
aujourd’hui à évaluer les IA.
En 1952, Arthur Samuel crée un logiciel capable d’apprendre à jouer aux échecs de manière autonome.
Le terme d’intelligence artificielle, quant à lui, sera prononcé pour la première fois durant la conférence
« Dartmouth Summer Research Project on Artificial Intelligence. » de John McCarthy en 1956.
Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Beaucoup considèrent
cette conférence comme la véritable naissance de l’intelligence artificielle telle qu’elle est connue
aujourd’hui.
En 1959, Arthur Samuel invente le terme de Machine Learning en travaillant chez IBM. De leur côté,
John McCarthy et Marvin Minsky fondent le MIT Artificial Intelligence Project. En 1963, John McCarthy
crée aussi le » AI Lab » de l’université de Stanford.
Au cours des années suivantes, le doute jettera un froid sur le domaine de l’IA. En 1966, le rapport
américain ALPAC souligne le manque de progrès dans la recherche en traduction automatique visant à
traduire le langage russe instantanément dans un contexte de guerre froide. De nombreux projets financés
par le gouvernement des États-Unis seront annulés.
De même, en 1973, le gouvernement britannique publie son rapport » Lighthill » mettant en lumière les
déceptions de la recherche en IA. Là encore, des coupes budgétaires viennent entailler les projets de
recherche. Cette période de doute s’étendra jusqu’en 1980, et est aujourd’hui qualifiée de » premier
hiver de l’IA «.
6
Cet hiver prendra fin avec la création de R1 (XCON) par Digital Equipment Corporations. Ce système
expert commercial est conçu pour configurer des ordres pour nouveaux systèmes informatiques, et
provoque un véritable boom des investissements qui se poursuivra pendant plus d’une décennie.
Le Japon et les États-Unis investissent massivement dans la recherche en IA. Les entreprises
dépensent plus d’un milliard de dollars par an dans les systèmes experts et l’industrie se développe.
Malheureusement, le marché des machines » Lisp » s’effondre en 1987 face à l’apparition d’alternatives
moins onéreuses. C’est le » deuxième hiver de l’IA «. Les entreprises perdent leur intérêt pour les
systèmes experts. Les gouvernements américains et japonais abandonnent leurs projets de recherche, et
des milliards de dollars ont été dépensés pour rien.
Dix ans plus tard, en 1997, l’histoire de l’IA est marquée par un événement majeur. L’IA Deep Blue
d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, l’Homme est
vaincu par la machine.
Dix ans plus tard, les avancées technologiques permettent un renouveau de l’intelligence artificielle. En
2008, Google réalise de formidables progrès dans le domaine de la reconnaissance de discours et lance
cette fonctionnalité dans ses applications pour smartphones.
En 2012, Andrew Ng nourrit un réseau de neurones à l’aide de 10 millions de vidéos YouTube en guise
d’ensemble de données d’entraînement. Grâce au Deep Learning, ce réseau de neurones apprend à
reconnaître un chat sans qu’on lui ait appris ce qu’est un chat. C’est le début d’une ère nouvelle pour le
Deep Learning.
Nouvelle victoire de l’IA sur l’Homme en 2016, avec la victoire du système AlphaGo de Google
DeepMind sur Lee Sedol, le champion de jeu de Go. L’intelligence artificielle conquiert aussi le domaine
du jeu vidéo, avec notamment DeepMind AlphaStar sur Starcraft ou OpenAI Five sur Dota.
Le Deep Learning et le Machine Learning sont désormais utilisés par les entreprises de toutes les
industries, pour une multitude d’applications. L’IA ne cesse de progresser et surprendre par ses
performances. Le rêve d’une intelligence artificielle générale se rapproche de plus en plus de la réalité…
Dans un contexte où les données occupent une place fondamentale dans l'économie numérique,
l'intelligence artificielle semble s'imposer non seulement comme une réponse concrète au traitement des
données, mais également de tirer profit des données afin de fonder de nouveaux modèles disruptifs pour
les entreprises.
Dans sa Communication du 25 avril 2018 sur l'Intelligence artificielle pour l'Europe, la Commission
européenne soulignait que « l'intelligence artificielle (IA) désigne les systèmes qui font preuve d'un
comportement intelligent en analysant leur environnement et en prenant des mesures - avec un certain
degré d'autonomie - pour atteindre des objectifs spécifiques.
Les systèmes dotés d'IA peuvent être purement logiciels, agissant dans le monde virtuel (assistants
vocaux, logiciels d'analyse d'images, moteurs de recherche ou systèmes de reconnaissance vocale et
faciale, par exemple) mais l'IA peut aussi être intégrée dans des dispositifs matériels (robots évolués,
7
voitures autonomes, drones ou applications de l'internet des objets, par exemple) ». Toutefois, cette
définition ne se concentre que sur l'aspect fonctionnel, par référence aux systèmes, support de
l'intelligence artificielle.
Le Conseil de l'Europe, très actif s'agissant des questions liées aux rapports entre les libertés
fondamentales et l'intelligence artificielle, définit cette dernière comme « l'ensemble de sciences, théories
et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie
computationnelle, informatique) qui ambitionne d'imiter les capacités cognitives d'un être humain. Initiés
dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de
l'informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne
pouvaient être auparavant que déléguées à un humain ».
Laissant entrevoir de larges perspectives économiques, le cabinet IDC, dans ses dernières prévisions,
estimé que les dépenses mondiales en intelligence artificielle devraient atteindre les 110 milliards de
dollars en 2024. Plus particulièrement, le cabinet estime qu'au regard des nouvelles possibilités offertes
par l'intelligence artificielle s'agissant de l'organisation du travail et de relation client, ce sont
principalement les secteurs de la vente au détail et de la finance qui dépenseront le plus en solutions
d'intelligence artificielle.
L'intelligence artificielle est au cœur des recherches, des débats et bien souvent sujet à critique aujourd'hui
: que ce soit par l'intermédiaire des entreprises multinationales, spécialisées ou locales mais également par
l'intermédiaire d'organisations, touchant ainsi de multiples secteurs à des degrés divers.
Son utilisation est grandissante au sein des entreprises, particulièrement dans les services marketing,
comptabilité, assurance, médecine et dans d’autres services. Et plus spécifiquement à des fins prédictives
et stratégiques, grâce à l'ensemble des données offertes par le BIG Data notamment. Des perspectives
positives sont à prévoir, autant sur les technologies que sur l'utilisation des outils marketing.
John McCarthy et Marvin Minsky sont les premiers à avoir utilisé l’expression « intelligence
artificielle » en 1955. À cette époque, ils croyaient que l’IA générale allait être possible dans
quelques années. Mais la technologie nécessaire pour faire des recherches sur l’IA coûtait très cher.
La recherche en IA a évolué plus rapidement dernièrement parce que les scientifiques ont pu
utiliser l’apprentissage machine. L’apprentissage machine est beaucoup plus rapide que la
programmation informatique faite par les humains.
L’intelligence artificielle est davantage liée au processus et à la capacité de réflexion et d’analyse de
données approfondies au maximum qu’à un format ou une fonction particuliers. Bien que l’intelligence
artificielle évoque des images de robots ultraperformants ressemblant à des humains et envahissant le
monde, l’intelligence artificielle n’est pas destinée à nous remplacer. Elle vise à améliorer de manière
significative les capacités et les contributions humaines. Cela en fait un atout commercial très précieux.
L’intelligence artificielle ne cesse d’avancer et de se développer ce que explique le fait qu’elle touche à
des domaines divers autre que l’audit comme MARKETING,LES ASSURANCES,LA
MEDECINES…ECT, où on voit vraiment la progression de ses résultats.
8
Comme par exemple dans le domaine du MARKETING L'intelligence artificielle est aujourd'hui un
moyen efficace de performer en marketing digital. Il permet notamment d'améliorer les pratiques de
ciblage, de personnalisation, de création de contenu...
L'engouement pour l'IA dans le domaine du marketing, tient à sa capacité à améliorer l'expérience client et
donc le business, sous réserve que les règles de respect de l'individu soient respectées et que la data
collectée pour nourrir l'IA soit légitime et vecteur d'un bénéfice partagé entre le consommateur et
l'entreprise. Ainsi, concrètement, l'IA va contribuer à améliorer les parcours d'achat des consommateurs
grâce au moteur de recherche et de recommandation, aider le Chief Marketing Officier (CMO) à mieux
connaitre et anticiper les besoins des clients grâce à des scores prédictifs pour développer une meilleure
relation avec eux et maximiser la performance des campagnes de communication. Enfin pour la marque,
l'IA va apporter des enseignements grâce à la lecture et à l'interprétation de toute la donnée digitale sous
forme de navigation, de texte, d'image ou de voix pour nourrir les créatifs qui pourront ainsi imaginer de
nouvelles idées pour assoir ses valeurs et ainsi, améliorer sa considération, son image.
L’Intelligence Artificielle regroupe différentes théories et techniques qui permettent de développer des
programmes informatiques complexes. Ce type de programme permet de recréer en partie une intelligence
humaine pour traiter d’importantes quantités d’informations. Dans de nombreux secteurs, l’IA apparaît
comme une solution efficace pour optimiser et perfectionner certaines tâches. Appliquée au
marketing, l’Intelligence Artificielle offre de nombreux avantages pour les entreprises et représente
un véritable atout concurrentiel.
Au niveau des techniques de marketing, l’IA apparaît comme un outil efficace pour améliorer la prise de
décision et l’élaboration de la stratégie. En effet, l’Intelligence Artificielle permet aux équipes marketing
de profiter d’outils performants. Les informations obtenues grâce à cette technologie favorisent une
analyse claire et rapide des données afin d’anticiper les tendances et les futurs besoins.
D’autre part, le secteur des assurances a été influencé lui aussi par les innovations connu par le monde, ce
dernier marqué par l'importance de la donnée, qui constitue le cœur de l'activité assurantielle, l'intégration
des procédés d'intelligence artificielle apparait comme une solution aux nouveaux besoins exprimés par
les assurés, dans un contexte le secteur connait une concurrence toujours plus importante, une
réglementation toujours plus contraignante en matière de portage des risques, et un volume de données en
constante augmentation. En ce sens, ce contexte général pousse les assureurs à devoir se réinventer et
trouver de nouveaux leviers de croissance. À cet égard, si certains auteurs qualifiaient le cloud, la data et
l'intelligence artificielle comme le tiercé gagnant des assureurs, triptyque qui permettrait aux acteurs du
secteur de pouvoir se démarquer par un processus de création de valeur fondé sur le numérique.
Dans ce contexte où l'intelligence artificielle semble répondre aux besoins du secteur par une remise
d’outils et processus prévalant et satisfaisants les attentes de ce secteur.
En l'état, il est indéniable que le Deep Learning doit conduire à une mutation profonde du modèle
assurantiel traditionnel. En effet, si l'intelligence artificielle peut permettre de répondre à un besoin de
création de valeur par une refonte des processus et des métiers traditionnels, elle doit également permettre
9
de mieux cerner les besoins des assurés. Néanmoins, si les perspectives offertes par les procédés
d'intelligence artificielle semblent positives et nécessaires dans un contexte où le besoin de
personnalisation est toujours plus accentué, force est de constater que le manque de repères clairs,
notamment s'agissant des règles applicables à l'intelligence artificielle, constitue un frein à son
intégration dans le secteur.
Le secteur de l'assurance devrait profiter du potentiel offert par le machine Learning, dont l'intégration
constitue non seulement un outil de développement opérationnel et de culture des transversalités
entre les différents métiers, mais également un moteur essentiel afin de voir émerger de nouvelles
activités à haute valeur ajoutée.
Avec ces nouvelles techniques d'approches d’audit, des changements sur la captation et l'anticipation des
méthodes de détection de fraude sont mis en œuvre, mais c'est aussi en interne, au sein des entreprises, que
des processus sont en cours à des degrés divers et des impacts à des échelles différentes.
Les innovations dans le secteur informatique ne font que continuer et améliorer la qualité des audits
légaux menés par les commissaires aux comptes (CAC) ainsi que d’optimiser le temps d’intervention.
Tant sur le plan matériel que logiciel, l’outil informatique s’est mis au fur et à mesure au service des
métiers de la comptabilité, et notamment l’audit.
Aussi depuis la publication de WILL en 1975 1 expliquant le langage Audit command language,
plusieurs travaux ont abouti au concept de Computer-aided audit tools 2 (en français, techniques
d’audit assistées par ordinateur, TAAOs ). L’outil informatique qui ne cesse d’évaluer et de se
développer, basé sur l’interdépendance entre l’être humain et la machine qui se trouve actuellement
complété par l’outil numérique qui arrive à agir individuellement de l’intervention humaine. Le
développement de l’intelligence artificielle, dont les métiers de la finance dont fortement exposant,
s’inscrit dans cette tendance.
En ce qui concerne le commissariat aux comptes, l’utilisation des machines et logiciels, en particulier
les tableaux tel qu’EXCEL, sont devenus une nécessité. Ces dernies permettent le traitement de
volumes de données toujours plus important. Aujourd’hui c’est devenu indispensable de travailler
sans outil informatique, ce dernier facilite le travail de l’auditeur et parfois engendre des bénéfices de
qualité par la crédibilité et intégralité du traitement qu’il permet. Dans le cas particulier de la fraude,
les auditeurs sont tenus lors de leurs interventions de mettre en place des tests permettant de
l’identifier. Indépendamment des différents travaux spécifiques menés sur chaque cycle.
1
https://www.tandfonline.com/doi/abs/10.1080/03155986.1975.11731597
Techniques d’audit assistées par ordinateur, TAAOs sont à la disposition des auditeurs et, en particulier, des
Commissaires aux comptes afin d’analyser les données d’une entreprise, parallèlement aux techniques de
sondages sur les procédures. (CNCC)
2
10
I.
Le machine Learning : une méthode future pour l’audit dans le discernement de
la fraude.
Le processus que nous suivons dans le cadre du test de la fraude consiste généralement à effectuer un
test de détail sur la base du FEC (fichier des écritures comptables) et à immatriculer les sources
potentielles de fraudes au travers d’un questionnaire permettant la compréhension des méthodologies
de contrôle et l’environnement de l’entité auditée. Le test sur FEC, plus communément connu sous le
nom de JET (Journal Entry Testing), s’apparente à la démarche que suit le machine Learning (en
français, apprentissage automatique), à la différence près que la sélection découle d’un arbitrage
humain sur la base de nos considérations quant aux origines du risque de fraude dans le FEC (libellé
de l’écriture, montant saisie, date de saisie …).
En effet, dans le cadre du machine Learning, l’intervention de l’homme se limite à la préparation et
l’incorporation des données exhaustives dans l’algorithme et donc le rôle du capitale humain se fait
seulement en début de processus. Cette transformation inscrite dans l’intelligence artificielle se
définie par le groupe WHALTS comme << un type d’intelligence artificielle qui confère aux
ordinateurs la capacité d’apprendre sans être explicitement programmés. Cette technologie s'appuie sur
le développement de programmes informatiques capables d'acquérir de nouvelles connaissances afin
de s'améliorer et d'évoluer d'eux-mêmes dès qu’ils sont exposés à de nouvelles données. »3 Sans
oublier que l’intelligence artificielle (IA, ou AI en anglais pour Artificial Intelligence) est fortement
prise comme une pratique qui consiste à mettre en œuvre des certains nombres de techniques visant à
permettre aux machines d’adapter une intelligence réelle.4
L’ensemble de ces concepts s’inscrit dans le cadre général de la BIG DATA, en plein essor
aujourd’hui. Déchiffrer par << métadonnées » le phénomène de BIG DATA répercute l’idée que les
sociétés, les consommateurs et plus communément, l’activité économique produisent un nombre
impressionnant de données brutes que les outils d’analyse ou de gestion peinent à adopter. Il en
découle une volonté de vouloir maitriser ces données avec, notamment, la forme la plus avancée de
L’IA au travers de procédés appelés DEEP LEARNING (en français, apprentissage profond). Très
présent dans le marketing digital, Le Deep Learning tolère d’avoir, à l’aide d’algorithmes, une
synthèse sur des tendances ou des classifications à partir d’une importante de données grâce à un
traitement par couches successives.
L’éducation algorithmique s’applique aussi dans la conduite autonome, les assurances, la finance, le
médical et l’audit dans le but de détecter les anomalies. Dans ce mémoire, nous nous allons
s’intéresser particulièrement à la détection de la fraude, appliquée au métier de l’audit. Alors que la
prestation de commissariat aux comptes n’est tenue qu’à une obligation de moyens, l’auditeur doit
3
4
https://www.lemagit.fr/definition/Machine-Learning
https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/
11
mettre en œuvre tout ce dont il est capable dans la réalisation de son métier en vue de se prononcer sur
la situation financière d’une entité5 . Dans sa condition humaine, il reste soumis à un certain nombre
de contingences auxquelles l’outil numérique tend à remédier. La technologie du machine learning
pourrait faire partie des supports numériques qui sont exploités dans le but d’éliminer au maximum les
biais liés au raisonnement étroit au sens de Simon (1958)6 à laquelle un CAC est soumis.
D’après les travaux contemporains de RICHARD THALER, qui ont permis de mettre en avant la
nécessité de la prise en considération les facteurs sociologiques et psychologiques dans le
comportement des agents économiques. Ses études sur la finance comportementale montrent qu’il
existe une diversification de forces qui font une pression volontairement, ou non, sur les agents dans
leurs processus décisionnel. Sa réflexion a commencé comme suit : « Quand les choses se
compliquent, les simples mortels se prennent parfois les pieds dans le tapis. » et Il a marqué la fin de
sa rationalité au sens de l’école néoclassique comme une situation dans laquelle les agents disposent
de l’ensemble de l’information disponible pour agir et identifie une limite à l’homo œconomicus7.
La rationalité limitée, telle qu’elle a été définie par Herbert Simon en tant qu’une idée selon laquelle la
capacité de décision d'un individu est altérée par un ensemble de contraintes comme le manque
d'information, des biais cognitifs ou encore le manque de temps. Dans cette optique, les décideurs ont
tendance à choisir des solutions satisfaisantes plutôt qu'optimales, et que s’oppose à l’optimisation et
se trouve au cœur des processus décisionnels. Selon lui, il existe trois facteurs principaux qui
remettent en cause le choix d’une décision optimale : L’information disponible (et/ou cout de
l’information), les motivations du décideur (psychologie, valeurs, personnalité, freins…) et sa capacité
cognitive. Cette approche est à mettre en lien avec nos démarches subjectives d’approches par les
risques. Qu’il s’agisse de la définition de nos seuils de matérialité8 ou des sources potentielles de
risques, le résultat est le fruit d’une démarche intellectuelle et professionnelle qui nous amène à
prendre une décision.
Depuis la digitalisation et de numérisation des processus métier, les architectes ne dessinent plus
manuellement à l’aide d’un rapporteur, L’expert-comptable et le CAC eux aussi ont commencé à
numériser leur processus à travers de leur campagne « Cap sur le numérique »9. Dans le métier de
l’audit, la notion de TAAOs évoqué supra qui a été définit en tant un ensemble de techniques utilisées
par les auditeurs en faisant appel à l'ordinateur pour mettre en œuvre des procédures permettant
d’avoir des tests plus poussés afin d’acquérir une meilleure maitrise des données comptable et
financières. Egalement, dans le cadre de la détection de la fraude au travers des états financiers.
5
https://www.cncc.fr/mission-legale.html
https://www.cairn.info/revue-regards-croises-sur-l-economie-2018-1-page-54.htm
7
L'homo œconomicus est une représentation théorique du comportement de l'être humain, qui est à la base
du modèle néoclassique en économie. L'homme économique est considéré comme rationnel et maximisateur.
6
8
Seuil de signification global (également appelé taux de matérialité) concerne les états financiers dans leur ensemble. il
repose sur les éléments raisonnablement susceptibles d'influencer les décisions économiques des utilisateurs des états
financiers, prises sur la base des états financiers.
9
https://www.capsurlenumerique.ca/
12
L’auditeur se heurte au volume de données du FEC selon la taille de l’entité auditée, mais aussi à sa
dissimulation au travers.
Cernée par la norme d’exercice professionnelle 240 (NEP-240)10 qui dit que « Prise en considération
de la possibilité de fraudes et d'erreurs lors de l'audit des comptes », stipule que le commissaire
aux comptes doit mettre en œuvre une dose d’imprévisibilité dans ses contrôles et attire la réflexion du
CAC sur les différentes irrégularités illustrant la fraude et à sa distinction de l’erreur. Cette NEP
révoque particulièrement que la fraude se distingue de l’erreur du fait du caractère intentionnel,
matérialisé par le fait qu’elle est « généralement accompagnée de procédés destinés à dissimuler les
faits » (NEP-240). Le CAC est impérativement obligé à faire « preuve d’esprit critique et tient le
compte, toute au longue de sa mission d’audit, en respectant les règles d’éthiques, et du fait qu’une
anomalie significative est le résultat d’une fraude qui peut exister. » (NEP-240).
Eventuellement présente dans les différents cycles revus lors des missions d’audit, la méfiance de
fraude aboutira à des tests spécifiques de la part de l’équipe de l’audit dans le but de s’assurer que
cette dernière n’existe pas. Néanmoins, notre sujet n’as pas vocation à pointer l’ensemble des fraudes
de chacun des cycles qui puissent exister, mais spontanément par l’analyse des états financiers en se
basant sur le FEC11.
En ce qui concerne les notions précédemment définis, de la mission légale du CAC et de ses freins
potentiels, on se trouve dans l’obligation de poser les questions suivantes : « quelles sont les
techniques et les tests actuels utilisé pour détecter la fraude ? », « que sont-ils leurs limites ? »
« Qu’est-ce qu’une machine Learning et comment fonctionne ? » « Est-ce que cette dernière peut
remplacer le rôle de l’auditeur et sa démarche
?»
Ces questions spécifiques conduisent à la problématique suivante : « Comment le machine Learning
va abonnir la détection de la fraude dans les travaux du CAC en utilisant le FEC ?
Pour pouvoir exposer notre problématique, nous traiterons dans un premier temps l’approche par
risques préconisée dans la détection de la fraude, puis nous allons présenter les rectifications attendues
après l’adaptation de l’intelligence artificielle dans les différents cycles d’une mission d’audit (I). A
l’issu, nous évaluerons ces éléments avec les avis des chercheurs, professionnels et d’experts dans le
domaine en vue d’obtenir des consignes et des recommandations de nos analyses (II)
10
Cette norme d'exercice professionnel qui correspond à l'adaptation de la norme ISA 240 a été homologuée
par arrêté du 10 avril 2007 publié au J.O. n° 103 du 03 mai 2007. Elle remplace la norme 2-105
11
https://www.compta-facile.com/fichier-des-ecritures-comptables-fec-definition-contenu-utilite/
13
1.
Définition, fonctionnement, rôles, et son impact sur l’identification des fraudes dans le
domaine d’audit.
Le Machine Learning ou apprentissage automatique est un domaine scientifique, et plus
particulièrement une sous-catégorie de l’intelligence artificielle. Elle consiste à laisser des
algorithmes découvrir des » patterns «, à savoir des motifs récurrents, dans les ensembles de données.
Ces données peuvent être des chiffres, des mots, des images, des statistiques…
Tout ce qui peut être stocké numériquement peut servir de données pour le Machine Learning. En
décelant les patterns dans ces données, les algorithmes apprennent et améliorent leurs
performances dans l’exécution d’une tâche spécifique.
Pour résumer, les algorithmes de Machine Learning apprennent de manière autonome à effectuer
une tâche ou à réaliser des prédictions à partir de données et améliorent leurs performances au fil du
temps. Une fois entraîné, l’algorithme pourra retrouver les patterns dans de nouvelles données.
Le développement d’un modèle de Machine Learning repose sur quatre étapes principales. En règle
générale, c’est un Data Scientist qui gère et supervise ce procédé.
La première étape consiste à sélectionner et à préparer un ensemble de données d’entraînement.
Ces données seront utilisées pour nourrir le modèle de Machine Learning pour apprendre à résoudre le
problème pour lequel il est conçu.
La deuxième étape consiste à sélectionner un algorithme à exécuter sur l’ensemble de données
d’entraînement. Le type d’algorithme à utiliser dépend du type et du volume de données
d’entraînement et du type de problème à résoudre.
La troisième étape est l’entraînement de l’algorithme. Il s’agit d’un processus itératif. Des variables
sont exécutées à travers l’algorithme, et les résultats sont comparés avec ceux qu’il aurait dû produire.
Les » poids » et le biais peuvent ensuite être ajustés pour accroître la précision du résultat.
La quatrième et dernière étape est l’utilisation et l’amélioration du modèle. On utilise le modèle sur
de nouvelles données, dont la provenance dépend du problème à résoudre. Par exemple, un modèle de
Machine Learning conçu pour détecter les spams sera utilisé sur des emails.
Le Machine Learning est massivement utilisé pour la Data Science et l’analyse de données. Il permet
de développer, de tester et d’appliquer des algorithmes d’analyse prédictive sur différents types de
données afin de prédire le futur.
En automatisant le développement de modèle analytique, le Machine Learning permet d’accélérer
l’analyse de données et de la rendre plus précise. Il permet d’assigner aux machines des tâches au
cœur de l’analyse de données comme la classification, le clustering ou la détection d’anomalie.
Les algorithmes ingèrent les données et délivrent des inférences statistiques, et peuvent s’améliorer de
manière autonome au fil du temps. Lorsqu’ils détectent un changement dans les données, ils sont
capables de prendre des décisions sans intervention humaine.
14
Pour l’heure, un humain reste toutefois nécessaire pour passer en revue les résultats des analyses
produites par les algorithmes de Machine Learning. Son rôle est de donner du sens à ces résultats, ou
encore de s’assurer que les données traitées par l’algorithme ne soient ni biaisées ni altérées.
La data science, et particulièrement le machine learning, sont déjà aujourd’hui largement utilisés
pour des problématiques telles que la détection de spams, le diagnostic médical ou encore la
recommandation de contenu média. Le machine learning consiste en l’analyse des données afin de
comprendre, prédire et classer l’information. Cette technologie est donc idéale pour la détection de
fraude.
En effet elle permet d’analyser les fraudes passées, identifier leur origine et l’environnement dans
lequel elles sont commises. Ainsi, les équipes peuvent prendre des mesures et appliquer de nouveaux
contrôles automatiques ou des points de vigilance à rappeler aux employés dans le cadre du plan de
prévention.
2.
Intelligence artificielle et audit : d'une approche axée sur les risques à une
approche digitalisée.
L’habileté d’un CAC est insérée par une nécessité de moyens, orientant aussi sa méthode d’audit,
n’étant pas contraint d’étudier et d’analyser le fonctionnement d'un ou plusieurs de ses services afin
d’expliquer chaque flux et chaque solde de l’entité, il va devoir par contre déterminer des niveaux de
risques afin de prioriser ses travaux et conformer sa planification.
Tandis que la profession s’est adaptée au contexte socioéconomique, l’auditeur ne reste pas moins
attaché à des limites cognitives et émotives.
Elle permet au commissaire aux comptes de définir les domaines où les contrôles seront approfondis,
d'identifier les cycles d'activité significatifs, de planifier des interventions intercalaires pour la
réalisation de certains contrôles ou le suivi de certains éléments.
3.
Le cadre juridique et les pratiques disponibles pour un auditeur.
En ce qui concerne le NEP 315, il est établi que le professionnel de la vérification est uniquement tenu
de se concentrer sur les éléments "matériels", Cela signifie que les répercussions non significatives sur
les comptes ne font l'objet que d'un examen et non d'un test approfondi (sauf dans des cas
exceptionnels). Potentiellement présente dans tous les cycles comptables, la fraude est abordée à l'aide
de diverses méthodes comme le Registre des transactions diverses (DO) ou le FEC.
Amélioration du rôle de l’auditeur au regard de la Fraude
15
Juridiquement, la fraude est un acte « réalisé en utilisant des moyens déloyaux destinés à surprendre un
consentement, à obtenir un avantage matériel ou moral indu ou réalisé avec l'intention d'échapper à
l'exécution des Lois.»12 Le droit pénal définit la fraude comme une escroquerie ou un acte de mauvaise
foi « Par lequel on lèse quelqu’un en se soustrayant aux règlements.»13
Dans la circonférence
comptable, la fraude est définit comme suit : « La fraude comptable est un acte intentionnel commis
par des parties liées à une entreprise (direction, employés, clients, etc.) qui est effectué dans le but
d'obtenir un avantage déloyal ou illégal par le biais de la tromperie.»14, Les normes d’Exercice
Professionnel (NEP) de la CNCC, considère la fraude comme un acte « les actes intentionnels portant
atteinte à l'image fidèle des comptes et de nature à induire en erreur l'utilisateur de ces comptes. »
Autrement dit : un détournement d’actifs.
La mission d’un auditeur est de recueillir et d’analyser les données et les informations financières d’une
entreprise afin de confirmer l’exactitude de ses comptes publiés. Son rôle dans la détection de fraudes a
évolué selon les contextes socioéconomiques. Carassus et Cormier (2003) rappellent que jusqu’au début
du XX éme siècle, selon eux les objectifs d’un audit légal se résume en 3 : premièrement, de détecter
les fraudes, deuxièmement, de détecter les erreurs techniques, troisièmement, de détecter les erreurs de
principe comptable15. Ce classement des objectifs a été construit par Dicksee dans son œuvre Auditing
de 190516. Le rapport de Montgoméry qui a été publié en 1913 met en premier lieu la conformité aux
principes comptables et la rectification des erreurs, faisant de l’identification de la fraude un rôle
inférieur dans la mission du CAC.
La règle des 3D (Déréglementation, Désintermédiation et Décloisonnement.)17Apparu après la fin des
trente glorieuses et qui a dû changer et donner à nouveau aux CAC un rôle précieux celui de garant de
la transparence et de fiabilité sur les marchés. C’est l’assurance que les comptes présentent une image
fiable des données publié par une société et qui devient le premier objectif de la mission d’audit, 8% des
CAC seulement qu’ont considéraient que la prévention
et la détection de la fraude est l’objectif
principale de l’audit des comptes en 1995 selon l’enquête de NOBES. Aujourd’hui, la finalité de l’audit
légal comprend plusieurs objectifs complémentaires sont on cite :
12
https://www.dictionnaire-juridique.com/definition/fraude.php
https://www.cnrtl.fr/definition/fraude
14
https://economy-pedia.com/11030577-accountingfraud#:~:text=La%20fraude%20comptable%20est%20un,le%20biais%20de%20la%20tromperie.
15
file:///C:/Users/hp/Downloads/CCA_091_0171.pdf
16
https://fr.scribd.com/document/81308225/Auditing-a-Practical-Manual-for-Auditors-Lawrence-R-Dicksee1905
13
16
 Exprimer une opinion sur la fiabilité des états financières au regard de la situation financière
des résultats des opérations de l’organisation.
 Fournir des contrôles sur les mentions des états financières et sur le processus comptable.
 Ajouter de l’assurance à l’information communiquée au public…
Les dérèglementations et le non contrôle ont donnés lieu à des scandales financiers qui ont conditionné
les régulateurs à mettre à jour leurs approches d’audit afin de faire face à ces nouveaux enjeux. Donnant
exemple par l’affaire d’ENRON qui était découvert en 2001 et il s’agit à l’époque de la plus grande
faillite de l’histoire américaine à côté de celle de world.com. Cette affaire a donné lieu à un nombre sans
précèdent d’enquêtes officielles, d’actions en justice et de réaction des médias à travers le monde.
Tous ses scandales et surtout celle d’ENRON, ont menés à la création de nouvelles lois (Loi NRE :
nouvelles réglementations économiques)18 et normes (SAS-82 ET SAS-99)19 dans le domaine de la
gouvernance d’entreprise de l’audit avec le renforcement de la NEP-240 par la publication CNCC-2002
ainsi que l’article L225 et L23520 du code de commerce, et est devenue, dans la culture populaire, un
symbole de la fraude à grande échelle.
Nous avons synthétisé l’ensemble des normes qui accentuent sur le rôle nécessaire du contrôle interne
dans la détection de la fraude et aussi le renforcement de criticisme chez les auditeurs dans le
suivant :
Tableau 1 : Cadre juridique et règlementaire pour les fraudes d'audit.
Pays
Cadre législatif
Régulateur
Normes
International
N/A
IAASB-IFAC
ISA-240
USA
Sarbanes-Oxley
AICPA-PCAOB
SAS-82 & SAS-99
France
NRE
CNCC-H3C
NEP-240
Les outils utilisés dans la détection de la fraude sur la base du FEC
La NEP-240 prédit que l’auditeur doit déterminer le degré de risque de fraude dans sa programmation
lorsqu’il se prononce sur l’appréciation du risque d’anomalies significatives. Cette appréciation sera
déterminante pour le reste de la mission d’audit en ce sens qu’elle conditionne l’étendu des tests de
préventions et de détection qui seront effectués lors des immixtions. Plusieurs études ayant trait à la
fraude ont été réalisées. L’une d’entre elles, émanant de Donald R. CRESSEY, précurseur en la matière,
date des années 195021. Ce concept regroupe les 3 grandes motivations qui encouragent la fraude, ce
18
La loi n° 2001-420 relative aux nouvelles régulations économiques est une loi française promulguée par le
gouvernement Jospin le 15 mai 2001, qui concerne les entreprises cotées en Bourse.
19
file:///C:/Users/hp/Downloads/CCA_091_0171%20(1).pdf
20
https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000038610458/2019-0901#:~:text=Article%20L225%2D235%20(abrog%C3%A9)&text=Les%20commissaires%20aux%20comptes%2C%2
0s,ou%20%C3%A0%20l'article%20L.
21
L’hypothèse émise est que la réunion de trois facteurs peut favoriser la propension naturelle d’une personne
à la fraude.
17
résultat a été défini sur la base de plus de 200 entretiens avec des criminels incarcérés pour escroquerie.
Cette hypothèse est plus connue sous l’expression “triangle de la fraude” nous allons la présenter comme
suit :
Depuis, cette notion de triangle de la fraude a été largement reprise par la littérature inhérente au sujet.
Des compléments et précisions ont été apportés comme les mises à jours effectués par Kranacher et al
(2011) et Dorminey (2012)22, sans toutefois remettre en cause ce fondement théorique. De ce fait on
déduit les caractères de la fraude de la manière suivante (Le maux et al.2013 p.5) :
 L’acte frauduleux consiste à développer une méthodologie et la mettre en pratique ;
 La dissimulation représente l’acte ayant pour objectif de cacher la fraude ;
 La conversion est le processus de transformation des bénéfices mal-acquis en actifs utilisables
par le fraudeur.
La présentation traditionnelle du triangle de fraude, tel que décrit Cressey en 1950, avec celui mis à
jour par les travaux de Kranacher & al. En 2011 et ceux de Dorminey en 2012.
Illustration 1 : Triangle de Kranacher & al. (2020) et Dorminey (2012) comparé à celui de Cressey
(1950)
22
https://reader.elsevier.com/reader/sd/pii/S1877042814059205?token=0F4DD5E2D8DB5F53F6D3CB9595D3A
FE20907ADFC62DD8DE2DB5DF631706049F601D78B170802FD573121A36AF6A22646&originRegion=eu-west1&originCreation=20220925203123
18
Sources : A partir de wells (2001) et le Maux et al. (2013)
Le premier modèle permet à l’auditeur de répondre à la question « Qui est susceptible d’être à
l’origine de la fraude ? » Le deuxième modèle permet de mieux identifier les mécanismes et les
processus au travers desquels la fraude a le plus de chance de se retrouver. Par exemple, le journal des
opérations divers faites souvent l’objet d’une revue spécifique car les écritures sont généralement
passées et/ou approuvées par un membre de direction. Or, les membres de direction sont parmi les plus
concernés par le triangle de la fraude, d’autant plus lorsqu’il s’agit d’anciens auditeurs.
Dès lors que le CAC décide de mettre en place des tests spécifiques sur la comptabilité, il adapte de
divers outils dans le but de déterminer le fait «qu’une anomalie significative résultant d’une fraude
puisse exister ». Le fondamental dispositif dont détient l’auditeur, avant même de solliciter des
supports analytiques, reste son jugement professionnel. La définition de l’IAASB a été traduit par
Milédi et pigé (2013) comme suit : « L’atteinte des objectifs des ISA […] dépend d’un déterminant
essentiel- les gens qui assurent l’audit. C’est à travers leur connaissance, leur expérience et leur
esprit critique et leur compréhension du client qui fait une réelle différence dans la qualité de l’audit.
Il est indéniable que l’achèvement efficace de la plupart des conditions des ISA dépend d’une
compétence personnelle essentielle et d’un jugement professionnel indépendant. Attendre l’objectif
d’une mission d’audit de qualité provient de la capacité des auditeurs à exercer un jugement
professionnel pertinent et adéquat tout au long de leur mission. »
Le pouvoir d’exprimer un jugement professionnel de qualité repose sur l’assemblage du savoir et
celui de l’harmonisation aux éventualités propres à une entité (Milédi & Pigé, 2013). Dans le cas de
fraude, l’auditeur énonce son jugement a priori grâce à la maitrise de connaissance en terme de droits
des affaires, atomismes de fraude, normes d’exercices professionnels et sciences de gestion…etc.
C’est avec l’étude et l’analyse de l’entité, particulièrement au travers son environnement, sa matrice
SWOT, de son organisation et de sa façon de faire naitre de l’information que le CAC nécessitera
compléter avec son savoir-faire pour énoncer son jugement professionnel et se prononcer sur les
travaux à mener dans la détection et la prévention de la fraude.
Le jugement professionnel se base essentiellement sur la normalisation des procédés de travail
(Mintzberg, 1982). En effet, dès lors que l’audit est « industrialisé », cela signifie que la partie de
réflexion du CAC répond en amont à un standard de travaux d’audit à appliquer selon le contexte.
C’est une fois que l’auditeur comprend les travaux à appliquer, compte tenu de la procédure qu’il va
s’ajuster aux éventualités de l’entité auditée. Aussi, bien qu’une procédure courante préconise de
19
publier uniquement des tests sur les opérations diverses (OD) dans le cadre de la fraude, le CAC doit
faire preuve de jugement professionnel et peut décider d’orienter ses travaux sur les opérations des
cycles pour lesquels il considère que le risque de frauder est plus élevé. L’ordre des experts
comptables et à l’occasion du 64éme congrès, a présenté les majeurs points d’attention par cycle
lorsqu’on examine la fraude (annexe 2). L’auditeur peut aussi achever avec les travaux de recherches
de l’Association Of Certified Fraud Examiners (ACFE), de l’Autorité des Marchés Financiers (AMF),
des revues professionnelles et des articles d’enseignants chercheurs. Le tableau 2 présente une
synthèse des points d’attention en matière d’enquête de fraude par l’auditeur, rencontrés dans nos
lectures.
Tableau 2 : Etat des lieux des points d’attention en matière
d’audit de fraude
Auteurs
Démarches
Points d’attentions
Feroz el al.
Etude réalisée sur 224 cas de fraudes
-Cycle client (50% des cas).
(1991)*
recensés par la sécurité & exchange
-Stocks (25% des cas).
commission (SEC).
La circonstance de la fraude est négativement
Beneish
Beneish se focalise sur les provisions
(1997)*
(accruals) discrétionnaires sur plus de attachée au niveau des accruals discrétionnaires et
350 entités ayant faites l’objet
la performance boursière passée et le délai de
d’enquêtes par la SEC.
règlement client (DRC) est positivement lié à la
fraude.
Green et choi
Mise en place d’un modèle augurtif
Leur système de prédiction neuronale : créances
(1997)*
neuronal. Le système annoncé à
douteuses/chiffre d’affaire (CA), créances
détecter 74.03% de cas de fraudes
douteuses/créances totales, CA/Créance totales,
avérés parmi 86 cas différents.
marge brute/CA, créances totales/actif comptable.
Summers &
Le taux de prédiction de leur modèle
Score Altman23, rendement de l’actif, taux de
Sweency
algorithmique atteint 72.2% sur 51
croissance du CA, créances/stocks, changement
(1998)*
cas de fraudes.
d’auditeur ou non, variation de la participation des
insiders24
Beneish
Deux ans après ses travaux basés sur
Taux de croissance du DRC, croissance de la
(1999)*
les provisions, Beneish met en place
marge brute, immobilisations corporelles/Actif
un modèle prédictif efficace à 76% sur total, Croissance de volume des ventes et
la base de 74 firmes.
accruals/CA.
23
Formule d’EDWARD ALTMAN nommé Altman Z-Score qui permet prédire la probabilité qu'une entreprise
fasse faillite dans les deux ans.
24
Personnel interne d’une entreprise qui possède des actions de celle-ci.
20
Johnson et al
A l’aide d’une méthode basée sur la
Dès lors qu’il s’agit d’actions et non d’options
(2009)*
régression logistique, identification de d’achat, plus intéressement des cadres au capital
71 cas de fraudes sur 87
est plus élevé, plus le risque de fraude l’est aussi.
Cecchini et al.
Méthode statistique d’apprentissage
Charges administratives et
(2010)*
basé sur des variables permettant de
commerciales/investissement (relation négative
déterminer les plus fortes corrélations avec la probabilité de fraude)
prédisant une fraude.
CA/valeur comptable des actions préférentielles et
actif comptable/investissement à court terme
(relation positive avec la probabilité de fraude).
Dechow et al.
Dechow s’est intéressé aux éléments
Nombre d’employée/Variation de l’actif net entre
(2011)*
hors bilan pour tester l’hypothèse
N-1 et N (plus l’actif est surévalué par rapport au
selon laquelle plus il y’a d’éléments
nombre de salarié, plus la fraude est probable).
hors bilan, plus la probabilité de
Le nombre de contrats de locations simples sont
fraude est élevée.
positivement liés au risque de fraude.
Ndofor et al.
A partir d’un rapport de 2006 du
Même la rémunération des cadres par attribution
(2013)
Gouverenment Accountability Office,
d’options accroit le risque de fraude.
mise en place d’un modèle de
régression logistique pour
probabiliser une force de corrélation.
Sources : d’après Le Maux et al. (2013), Johnson et al. (2009), Dechow et al. (2011), Ndofor
et al. (2013).
Les auteurs marqués d’un astérisque ont été appréhendés grâce aux travaux de Le Maux
et al. (2013).
Assistance par outils analytiques
Lors de son enquête, Carassus et Cormier (2003) se sont adressés au travail comptable pour demander
si la mise en place d’outils analytiques spécifiques à la fraude est obligatoire. La réponse a été
favorable pour cette approche de la part de 63% des enquêtés. Le refuge aux outils analytiques
consiste à faire appliquer un traitement informatique sur une base de données numérique. Dans le
cadre du FEC, l’auditeur peut se baser sur des logiciels ou des tableurs aptes d’exécuter des calculs et
des analyses de corrélations grâce aux statistiques. Concernant la fraude, l’analytique permet
d’intégrer la loi de Benford25, afin d’effectuer un MUS : (Monetary unit sampling, en français :
sondage en unité monétaire) ou encore de réaliser des sélections aléatoires.
25
Initialement appelée loi des nombres anormaux, fait référence à une fréquence de distribution statistique observée
empiriquement su - r de nombreuses sources de données dans la vraie vie, ainsi qu'en mathématiques.
21
Pour qu’il soit utilisable par l’auditeur, Le MUS doit répondre au triptyque suivant : un niveau de
confiance souhaitable, un taux de déviation acceptable et un taux d’écart attendu sur la population
(Messier, Glover et Prawitt, 2014). La loi de Benford donne la probabilité attendue que le chiffre
constituant le début d’un nombre (représenté par une lettre D dans la formule) ait la plus forte
occurrence d’apparition dans une base de données chiffrée. Dans la suite [14.0896 ; (-0.140896) ;
14089.6] le premier chiffre de la suite est à chaque fois 1 car la loi de Benford fait abstraction des 0 et
du sens (+/-) du nombre. Gomes da Silva et Carreira (2013) ont expérimenté et modélisé une méthode
d’audit dite «Silva method» qui base l’ensemble des sélections lors d’un audit de fraude sur la loi de
Benford. L’idée sous-jacente est que la fréquence de D liées à des données frauduleuses ou manipulées
sera différente de la fréquence de D dans un contexte hors fraude. La formulation avec m la valeur
maximale de l’échantillon, j une variable d’ajustement égale à 1 pour faire abstraction du 0 de la loi de
Benford se fait comme suit :
Prob (D1 = d1, D2 = d2,……, Dn= dn) =log⁡(1 + (∑𝑛𝑗=1 10𝑛−𝑖 𝑑𝑗)−1)
En Admettant comme point de commencement le scandale WorldCom, où un article a été publié par
Lanza et Gilbert (2007) dans la presse professionnelle sur l’obligation des outils analytiques dans les
tests d’audit sur la fraude. Ils soulignent également l’importance de fusionner le contrôle interne avec
un test sur la base du general ledger (en français le grand livre général) que l’on peut l’assimiler au
FEC en comptabilité fraçaise. Aussi, les auteurs préconisent l’usage d’un journal entry testing (JET :
Test sur les écritures comptables) assisté par ordinateur car l’outil analytique tolère de concentrer le
temps et l’énergie de l’auditeur sur l’étude des opérations ayant une haute cadence de risque. C’est par
le biais du Practice alert 2003-02 que les concepteurs comptent notamment pour se prononcer sur la
pertinence du JET, du fait, spécialement, d’une meilleure aisance des CAC face aux chiffres et la
comptabilité par rapport au contrôle interne.
La fraude est un acte protéiforme et bien souvent dissimulé. Bien que le CAC dispose d’un échantillon
d’outils lui permettant de détecter la personne et les instruments engagés dans la fraude, des scandales
comme celle d’Enron (2001), Worldcom (2002), EADS (2006) et plus récemment, WIRECARD
(2022) posent la question sur les freins des outils classiques.
4.
Passage de la pensée restreinte à l'abstraction émotionnelle : d’une amorce à
l'intelligence artificielle.
22
Plusieurs travaux ont étés menées par Herbert Simon26 en 1975 ont servi à résumer les principaux
éléments à l’origine des freins au processus décisionnel que sont :
 L’information disponible ou son coût.
 Les motivations du décideur (Psychologie, personnalité, freins...).
 La capacité de frauder (notamment cognitives).
L’auditeur mène alors en place des mesures permettant de tester la fraude de la manière la plus
pertinente possible, tout en respectant les règles des NEP.
Cadre théorique de la rationalité limité
Dans sa recherche sur le « self-compassion » (L’auto-compassion en français) Neff27 a abouti une
étude posant en exergue les biais cognitifs dans la vie quotidienne. A travers un questionnaire adressé
à différentes populations (âge, sexe, nationalité) elle posait des questions de type « Etes-vous bon(es)
conducteur (trice)» avec 4 réponses possibles « A- dans les meilleur », « B- meilleur que la moyenne
», « C- moins bien que la moyenne », « D- parmi les plus mauvais ». Les taux de réponses A & B ont
montré que 90% de la population étudiée se considère comme meilleur que la moyenne. Ce
phénomène a été vérifié chez les enseignants (91% d’entre eux considèrent comme meilleur que la
moyenne des enseignants), les entrepreneurs ou encore les mariés dont le score atteint quasiment
100%.
Olivier Sibony, Professeur à HEC et spécialiste de la « stratégie comportementale » définit les biais
cognitifs de la façon suivante : «Un biais cognitif est un schéma de pensée trompeur et faussement
logique. Cette forme de pensée permet à l’individu de porter un jugement, ou de prendre une décision
rapidement ». Il existe une multitude de biais de confiance qui limitent la rationalité décisionnelle,
dont les trente plus populaires sont référencés en annexe 3 (P : N). Les fondamentales apports en
psychologie comportementale imputés à la stratégie décisionnelle sont dus à Simon, Tversky et
Kahneman28.Tversky et Kahneman ont prospecté à détecter les principaux biais cognitifs qui freinent
la rationalité. Dans cette suite, Simon est à l’origine d’un paradigme à travers lequel la décision est
systématiquement fallacieuse par l’information, la motivation du décideur et ses capacités cognitives
(Annexe 3, P). Jean Philippe Denis (2009) propose une approche de la rationalité limitée en 2009
reposant sur trois facteurs spécifiques les uns des autres : le facteur calculatoire (capacité à se baser sur
les sciences mathématiques pour prendre des décisions), Le mimétisme (La capacité à s’imiter sur le
26
Herbert Alexander Simon est un économiste et sociologue américain ayant reçu le prix dit Nobel d'économie
en 1978. Il s'est d'abord intéressé à la psychologie cognitive et la rationalité limitée qui constitue le cœur de sa
pensée.
27
Kristin Neff est professeur associé au département de psychologie de l'éducation de l'université du Texas à
Austin.
28
Professeur à l'université de Princeton, lauréat du prix dit Nobel d'économie en 2002 pour ses
travaux fondateurs sur la théorie des perspectives, base de la finance comportementale.
23
marché) et le 3éme c’est le facteur d’exemplarité (prise en compte des variables juridico-financieres,
managériales ou de la gouvernance d’entreprise dans le processus décisionnel).
Facteurs de rationalité limitée dans le métier de commissariat aux comptes
Dans le cadre d’une approche empirique, en 2012 Gonthier-Besacier et al. Ont placé en évidence une
vingtaine de facteurs qui influencent de manière significative la qualité d’une mission d’audit. Des
spécialistes en gestion ayant des audits externes dans les entités dans lesquelles ils travaillent ont été
interrogés, Le 1er groupe correspond à des gestionnaires exerçant dans des entités engendrant plus de
200 millions d’euros de CA et qui n’est pas guidée par un EC. Le deuxième groupe est élaboré de
répondants appartenant à une société dont le CA est inclus entre 100 et 200 millions d’euros et étant
possiblement guidée par un EC.
Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission,
équipe/cabinet et réglementation
Source : Gonthier-besacier et al. (2012). P : 46
Les répondants du 1er groupe considèrent que les facteurs ayant un effet positif dans la qualité de
l’audit étaient essentiellement liés à la mission (Complicité du CAC signataire, appréhension du
dossier et l’organisation du temps et des teams). Par ailleurs, bien que la taille du cabinet soit un
témoignage de qualité, les règlements de travail, gravement normalisées dans les grands cabinets, ont
un effet négatif sur la valeur d’un audit. A propos de 2eme groupe, les éléments de qualité d’un audit
sont multiples (13 contre 3 pour le groupe 1). Les plus marquants étant le changement de mandat
24
(indépendance), l’actionnariat à des instances professionnelles (gage de professionnalisme) et le
respect des règles en dehors de la mission (exemplarité).
Les limites de la rationalité intrinsèquement attachées à la structure du cabinet
Les fondamentaux scandales financiers et comptables annoncent une forte connexité avec les cabinets
comme celle de BIG4. En effet, le tableau suivant annonce que 45 des 88 cas évalués étaient sous
mandat BIG4. La question qui se pose alors, Est-ce que la taille du cabinet influence la qualité d’un
audit ou bien c’est le type d’entité auditée par les BIG4 sont plus admissible de frauder.
Tableau 3 : Quatre-vingt-huit plus grands scandales comptables
Cabinet d’audit
Nbre de scandales
Pays
Alexander Grant & Company
1
Etat Unis (USA)
Arthur Andersen
12
Bermudes, Canada, France et
USA
Arthur Andersen & KPMG
1
USA
Arthur Young & Co
1
USA
Coopers & Lybrand
1
USA
DTT
11
CA, USA
EY
14
Australie, CA, Chine, Irlande,
Japon, USA
Fox & Company
1
USA
Frienhling & Horowitz
1
USA
Grant Thornton
1
ITALIE
Homes and Davis
1
USA
Other Audit Firms
2
IRAN
KPMG
8
Belgique, Canada, Usa
Lybrand, Ross Brothers, &
1
USA
Peat, Marwick, Mitchell & Co.
2
USA
PWC
12
Angleterre, Bermudes, Canada,
Montgromery
Indes, Usa
Touche, Niven & Co.
1
Usa
Wagman, Fruitman & Lando
1
Canada
Wolfson Weiner ; Ratoff & Lapin
1
Usa
Non renseigné
15
Angleterre, Australie, Brésil,
Canada, Usa
25
Grand Total
88
Source : D’après https://en.wikipedia.org/wiki/Accounting_scandals
Sur la règle d’une caractérisation mathématique, un modèle énonce de mesurer la qualité d’une
mission audit en fonction de la taille du cabinet (Sirois et al.2016). Soit π la valeur de marché de
l’entité auditée en fonction du niveau contrôle qui s’exerce sur elle. AEi le volume d’heures d’audit
acheté par l’entité audité et y le niveau des autres mécanismes d’audit et de gouvernance interne :
𝜋 = 𝑓(𝐴𝐸𝑖, 𝑦) = 𝛼 ln(𝛿𝑖𝑥𝑖) + (1 − 𝜎) ln(𝑦)
Par extension, Sirois et al. (2016) définissent également la valeur de π au travers des variables :

𝜹𝒊𝒙𝒊 : Qualité de l’audit achetée à, et livrée par, un auditeur i (c’est-à-dire, aptitude de
l’auditeur i à constater une ou des anomalies significatives dans les états financiers, en
écartant les problématiques liées à l’indépendance).

𝜶 : Proportion du budget B alloué à l’audit externe

Y : tel que décrit précédemment
Les synthèses de ces travaux posent en avant le fait que les BIG4 amènent plus d’agrément à leur
travail, spécifiquement grâce aux outils analytiques et aux investissements en innovations
technologiques. Cependant, si les non-Big4 persiste sur le marché de l’audit c’est parce qu’ils
présentent des services d’audit légaux plus adaptés aux structures n’ayant soit pas les moyens ou
l’intérêt de mandater un BIG4, soit des besoins ne nécessitant pas de faire appel aux dispositifs
analytiques et technologiques qu’offrent ces grands cabinets. Par ailleurs, l’harmonie de type Big4
permet de pallier les biais cognitifs par la prise de décision collégiale. En effet, lors de leur enquête sur
le jugement professionnel en audit, Milédi et Pigé (2013) rapportent les propos d’un CAC selon qui
l’absence de comité technique en interne n’accorde pas la communication et le partage des
connaissances, pesant le devoir de la responsabilité dans la décision chez un CAC non-Big4.
Mis à part la taille du cabinet, Olivier Herrbach énonce une approche de limite à la qualité de l’audit
liée à la relation d’agence qui existe entre les collaborateurs et l’associé signataire. A partir de sa thèse,
il éclaire particulièrement que cette situation détermine un biais décisionnel chez l’auditeur étant
donné qu’il peut exister des asymétries d’informations pour les différents raisons citées en annexes 3.
La formation comptable : socle de la capacité cognitive
Le tableau 3 indique que les ETATS-UNIS figurent dans presque toutes les lignes, Aussi, en 2008,
Pearson & Singleton proposent à L’AICPA (L'American Institute of Certified Public Accountants ) un
module de formation dit « Fraud & Forensic Accounting » à intégrer dans le CPA (Certified Public
Accountant ) équivalent du Diplôme d’Expert-Comptable (DEC) au Etats-Unis.
26
La compétence des auditeurs est fondée sur la connaissance, la formation et la qualification et
suffisamment d’expériences pour réaliser une vérification financière. Sur la base d’une hypothèse
semblable, Pearson & Singleton (2008) ont signalé des déficiences cognitives liées à un manque de
formation en comptabilité aux Etats-Unis. Prenant l’exemple du scandale WorldCom ils soulèvent les
enjeux et les défis de la formation, notamment la sensibilisation à l’environnement numérique et les
techniques d’audits assistés par ordinateur.
C’est aussi l’exemple utilisé par Lanza et Gilbert (2007) pour accroitre la sensibilisation à l’utilisation
d’outils analytiques dans la détection des fraudes. Dans une enquête de l’ACFE menée de 2002 à
2006, il s’est avéré que seulement 11% des cas de fraude sont recensés par le CAC, ce qui met en
évidence le manque de formation de la profession. On distingue deux lacunes :

Notions de base de la fraude (cycle à risque, secteurs d’activité sensibles, Schématiques…).

La pertinence de la formation par rapport à l’environnement technologique (Cybersécurité,
données, Data mining…..)
Selon nos recherches sur le cadre juridiques et les pratiques dont dispose le vérificateur dans le cadre
de l’audit de la fraude, l’ensemble de force et de partis pris agissant sur le CAC (voir annexes 3, p74)
et (4 P.77), la qualité de sa mission de vérification et la pertinence des travaux effectués, nous
proposons l’hypothèse de recherche (HR1) suivante :
HR 1 : La découverte de la fraude par « Journal Entry Testing » est faussée par les motivations de
l’auditeur et son intelligence émotive.
La responsabilité et les exigences du commissaire aux comptes vis-à-vis de la fraude ont
considérablement évolué depuis la révolution industrielle. Parallèlement, son approche et ses outils se
sont adaptés d'une part aux exigences des autorités de régulation et d'autre part à celles de ses clients.
Par conséquent, à l'ère de l'intelligence artificielle, il y a des possibilités pour les cabinets de
vérification et de consultation.
5.
Développements dans la pratique de l'audit grâce à l'intelligence artificielle : la
révolution du machine learning.
Différents outils dérivent du concept général de l'intelligence artificielle, y compris l'apprentissage
automatique, apprécié pour sa neutralité et sa fiabilité (I.2.1). Dans les secteurs marketing ou médical,
il transforme les professions actuelles sans les remplacer, soulever la question des changements dans
l'environnement des audits (I.2.2).
27
6.
La neutralité et la fiabilité de la machine learning et son assujettissement à une
complexité de mise en œuvre.
Même si le concept d'apprentissage automatique est nouveau, les outils statistiques qui le composent
sont utilisés depuis plus longtemps dans la détection des fraudes. Aussi, la contribution de
l'intelligence artificielle se caractérise par l'enchaînement de ces différents modèles statistiques et offre
l'établissement d'un développement endogène soutenu par l'expérience, même si sa démocratisation
reste freinée par différents facteurs.
Implémentation d'outils de machine learning.
Le but de machine learning est d'enseigner à la machine à faire ce que l'homme fait, pour l'instant,
mieux qu'elle. A ses locaux, l'IA à la fin du 20ème siècle consistait en des processus cognitifs
«singer», les enjeux des data scientists au 21ème siècle est de faire mieux que l'esprit humain29. Le
concept de machine learning est systématiquement référencée à l'IA comme un outil dérivé de
l'intelligence artificielle. Cependant, comme le souligne Alexandre Gramfort30, le machine learning
peut exister indépendamment du concept d'intelligence artificielle (figure 3).
Illustration 3 : L'apprentissage machine au croisement de deux concepts.
Source : Les neurosciences ont inspiré l'intelligence artificielle : le modèle neuronal et les
concepts – [2/2] (journaldunet.com)
En effet, les prédispositions requises pour le passage à l'apprentissage automatique, à savoir
l'amélioration des algorithmes, à savoir, les algorithmes améliorés, l'explosion des données et le
renforcement des capacités de calcul des ordinateurs n'ont convergé que récemment.
Cette technologie fonctionne selon deux méthodes différentes, comme le montre l'illustration 3 :
29
C. Berthet, rapporteur de la commission Villani, lors de la conférence JUREM, 29/05/2018.
28
- L'approche « supervisée » consiste à prévoir une donnée T appelée « cible » à partir de données
classées et connues a priori. Elle est capable de répondre à une question close comme Blanc ou Noir ?
» Ou une demande d'information ouverte Quelle serait la valeur vraisemblable de ce bâtiment? »
- L'approche « sans surveillance » est utilisée lorsqu'une des variables est manquante ou n'a pas été
indiquée. Elle consiste, pour la fraude, à reconnaître les situations d'anomalies par une phase
préliminaire d'apprentissage autonome de ce que sont les situations «normales» à partir de multiples
exemples.
Illustration 4 : Variation des principales applications de l'apprentissage machine.
Source: IA COGNITO - EP03 - Le Machine Learning (neovision.fr)
A l’égard de la profession de commissaire aux comptes, ces procédures permettent de réaliser des
évaluations de risque, de la programmation, des choix pour épreuves de détails ou aussi se substituer à
des revues analytiques de confirmations (Perols, 2011). Dans le cadre de la découverte de la fraude,
l’algorithme est exercé à mettre en évidence les incohérences qu’il détecte dans sa base de données.
Par défaut, une approche non supervisée est mise en place avec comme cible d’immatriculer les outlier
que détecter le machine. La notion d’outlier indique un cas écarté ou déviant par rapport au reste du
dataset, c’est-à-dire que l’algorithme apportera un « deviation standard » (en français, écart type) qui
sera l’étalement approuvable par rapport à une valeur de raisonnement. Les valeurs les plus éloignées
sont alors déterminées comme une anomalie. Relativement à l’approche supervisée, elle ne répond pas
à la solution d'un cas de fraude, celle-ci n'étant pas a priori connue. Une telle approche n'est réalisable
qu'en amont pour la prévision des risques de fraude ou en aval pour la classification des profils de
fraude une fois qu'ils ont été identifiés (Andrew Ng, MOOC, Standford university).
Les critères de fiabilité de machine learning
Feroz et al. (1991) ou Green et Choi (1997), dont nous avons déjà discuté en examinant les outils de
détection de la fraude énonçaient des méthodes algorithmiques dans la détection de la fraude. La
dissemblance significative avec les travaux les plus frais de Perols (2011), Zhang et ling (2013) song
29
et al. (2014) ainsi que Hajek et Henriques (2017) est la capacité de calcul des outils informatiques
tolérent l’alliance d’algorithmes propre au machine learning comme outil d’intelligence artificiel.
L'ensemble de l'apprentissage consiste à utiliser dans un modèle unique une multitude d'algorithmes
d'apprentissage pour augmenter les performances de l'outil. Les différentes approches utilisées par ces
auteurs sont abrégées dans le tableau ci-dessus :
Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs
Méthode
Résumé
Réseau de Neurones
Programme imitant le parcours intellectuel humain. Il est basé sur le principe de
artificiels (ANN)
l'inférence bayésienne, c'est-à-dire qu'il utilise les éléments du passé pour
spéculer sur l'avenir à des fins de cohérence.
Stacking
Le stacking consiste à combiner des algorithmes afin d'augmenter l'efficacité de son
modèle par le dessin des avantages de chaque algorithme.
Régression logistique
Permet d'exprimer le rapport d'une variable en fonction d'une ou plusieurs autres
(la probabilité X d'être malade à l'égard des symptômes Y1, Y2, ... Yn). elle sert à
établir si un événement se produit ou non.
Machine à vecteur
méthode de discrimination au moyen de laquelle l'algorithme classifie les
support (support vector
prédictions d'une variable de manière à mettre en évidence plusieurs tendances
machine SVM)
parmi la base des énonciations.
Booststrap aggregating
Méthode visant à accroître la précision et la stabilité d'un modèle en réduisant la
(bagging)
variance (dispersion d'un échantillon) en créant des données supplémentaires qu'il
estime pertinentes.
Arbre de décision C4.5
Un modèle d'apprentissage basé sur un arbre de décision qui permet de réaliser
une classification encadrée de la manière suivante :
- Juger si une boucle n’est pas extrême, échantillonner un test à lui associer
-Juger si une boucle est extrême
- si une boucle est extrême, lui attribuer une classe.
Source : Perols (2011), Zhang et Ling (2013), Hajek et Henriques (2017), Song et al. (2014)
Le codage de ces modèles algorithmiques est effectué au moyen de bibliothèques de code qui
respectent les normes informatiques. Dans leurs approfondissements, Perols (2011) et Zhang et ling
(2013) emploient comme base de code Weka30, une collection d'algorithmes d'apprentissage
automatique, développé par les chercheurs de l’université de Waikato en Australie. Margaret Rouse,
Director of Whalts.com définit l'open source comme étant L’Open Source est une méthode
d’ingénierie logicielle qui consiste à développer un logiciel, ou des composants logiciels, et de laisser
30
Weka 3 - Data Mining with Open Source Machine Learning Software in Java (waikato.ac.nz)
30
en libre accès le code source produit pour qu’il puisse] être exploité par les développeurs et les
entreprises souhaitant soit l’adapter à leurs besoins métiers, soit affiner son intégration avec leur
système d’information.» Outre la gratuité pour l'utilisateur, Les codes open source sont alimentés en
continu par la connaissance de la communauté des utilisateurs, assurant ainsi une fiabilité toujours
plus grande, comme le souligne Rouse dans sa présentation. Dont les essentielles bibliothèques open
source d’apprentissage automatique utilisées par les professionnels TensorFlow (Google), Apache
MXnet (Apache Software Foundation), FeaturFu (LinkedIn), DMTK (Microsoft), Keras (Google,
Microsoft, NVidia et Amazon) sont des exemples d'instruments mis au point par des entreprises
privées. Il y a aussi des projets en cours des recherches universitaires comme Scikit-Learn et Weka.
Ainsi, le recours à des bases ouvertes permet aux sociétés de rester au diapason des évolutions
numériques et technologiques et réaliser des économies en actualisant ses outils.
Nous savons qu'il y a des facteurs de fiabilité qui rendent le machine learning célèbre, en particulier
la possibilité d'associer les modèles mathématiques et statistiques, la capacité de la communauté des
sciences des données de renforcer ces outils grâce à l'accès libre. Ainsi, en ce qui concerne notre
sujet, nous proposons les hypothèses de recherche ci-après :
HR 2 : L'intelligence artificielle, par l'apprentissage automatique, pourrait tester le FEC de
façon pertinente, fiable et rentable.
Des empêchements de financement en machine learning
Dans son exposition « Le machine learning de A à Z»31Alexia Audevart dissocie l’enchaînement de
mise en place du machine learning en quatre étapes. A l’opposition des idées reçues, la phase de
caractérisation représente la plus courte de toutes. Selon elle, les data scientists consacrent le plus de
temps à la récupération et au nettoyage des données pour les rendre utilisables. Cependant, le précise
le rapport de la CNIL, « L’algorithme sans données est aveugle. Les données sans algorithmes sont
muettes » (p.20). Le défi pour les équipes de science des données est de saisir l'information, de la
traduire en une variable utilisable et de l'intégrer de façon uniforme à l'ensemble de dataset32. Ce
développement porte le nom de data wrangling.
Dans son analyse, Microsoft Azure souligne que les principaux obstacles rencontrés sont le bruit
(aberrations, erreurs) les incohérences (incohérences entre les données) et le caractère incomplet de
l'information (manque de valeur ou de caractéristiques). Déjà en 2016, le magazine Forbes a publié
des résultats selon lesquels la récupération de données occupe une moyenne de 19% du temps de
31
4 Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France. (Retranscription
disponible à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY)
32
https://learn.microsoft.com/fr-fr/azure/architecture/data-science-process/prepare-data
31
l'équipe, Le nettoyage et l'organisation occupent 60% du temps et près de 9% du projet consiste en
l'identification de schémas33.
Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning
récupération des données brutes
Nettoyage & Traitement des données
Consutruction du modèle
Analyse /Prédiction
Source :
D’après
blog
O.Klose
(http://oliviaklose.azurewebsites.net/machine-learning-11-
algorithms explained/)
D’après l’illustration ci-dessus, nous constatons que le point suivant celui de récupération et traitement
des données est la construction du modèle. A l’opposé des étapes précédentes, celle-ci ne présente pas
caractère chronophage et occupe seulement 3% du temps. Durant cette étape, l’enjeu n’est pas la gestion
du temps, mais la recherche de la précision et la qualité de l’algorithme. Alors que la majorité des
services de qualité tolèrent une marge d'erreur de 10% à 25% pour démarrer la production, la précision
d'un renseignement destiné à aider ou à remplacer l'homme peut parfois nécessiter une marge d'erreur
de seulement 10^8 de déviation (Charly Berthet, rapporteur de la commission Villani), Autrement dit,
une probabilité acceptable d'erreur est de 1/10 000 000.
De surcroit, dans l’étude d’Eugène Bohm-Bawerk sur l’investissement34, énoncé le « Détour de
production », il est indispensable de mettre en œuvre des projets d'investissement si l'entreprise veut
profiter des économies futures. En effet, en réinterprétant son étude, une personne qui désire avoir accès
à de l'eau potable fera un premier investissement dans un phoque afin de limiter le nombre de
déplacements aller-retour à la source. Puis, à terme, il installera un système de plomberie de la source à
son domicile, de sorte qu'il n'aura pas à marcher jusqu'au puits.
L’investissement (le réseau de plomberie) lui permet in fine d’économiser du temps et de l’énergie (l
(aller-retour jusqu’à la source d’eau potable) de sorte qu’il puisse se consacrer à de nouveaux projets ou
se focaliser sur des activités à plus forte valeur ajoutée, particulièrement l’augmentation de son capital
humain (Gary Becker, 1992). Dans ce processus, Böhm-Bawerk met en évidence le paradoxe selon
lequel l'agent économique réduira sa productivité au cours de la phase de conception et de construction
33
Série ou séquence dde donnée qui se répète et constitue un modèle
http://easynomie.com/le-detour-de-production-illustre/ (Esteban Giner, Professeur d’économie, Université
Paris Est)
34
32
du joint ou du réseau de plomberie. Néanmoins, cette étendue dédiée à l’investissement prochain lui
permet d’accentuer son rendement futur, une fois la mise en place effectuée. Dans la sphère de machine
learning, on perce de l’étude de Forbes que le projet peut absorber un temps appréciable en terme
d’analyse des données et d’attraction du modèle algorithmiques.
Aussi qu’il se trouve des bases open source qui aide à abaisser les coûts de mise en œuvre, la
mobilisation de team d’ingénieurs, de Data scientists et d’auditeurs compose un appui stratégique et
financier pour les cabinets d’audit en ce sens qu’il ne s’agit pas de la durée de travails exploitées pour
la réalisation de l’audit des compte des entités clientes mais à de la recherche et développement.
Il existe des obstacles à l'entrée, avant tout techniques et financiers. Nous exprimons notre hypothèse de
recherche HR3 à partir de cette observation de la façon suivante :
HR 3 : La mise en œuvre d'un outil d'apprentissage automatique dans une firme de vérification
comporte des obstacles.
Vers une amélioration du métier de l’auditeur
L’utilisation du machine learning conduira à des améliorations dans des divers dont la data n’est pas le
cœur de métier. Il sera dirigé à transformer l’approche et le poste de l’auditeur dans sa mission et aboutira
à de nouveaux enjeux dans la pratique de ces fonctions.
Dualité machine learning & Homme et arrangement du temps
La possibilité que le machine learning se trompe est limitée à 8%, alors que le taux de succès obtenus
par les chercheurs d'Harvard Médical school dans la détection de cancer du sein est de 99.5% lorsque le
médecin est associé au machine learning. Ce type de recherche permet de statuer en faveur d'une
complémentarité de l'Homme & la machine.
Yann LeCun, chercheur français considéré comme l’un des fondateurs du Deep Learning, reconnait que
l’apprentissage automatique est plus efficace que des ingénieurs dans certains domaines, ce qui peut
s’avérer « désespérant pour des gens qui ont passé leur carrière à essayer de faire le design de ces [outils],
mais c’est un fait » 40 . Yannick Meiller, met également en garde quant à l’appréhension de la machine
par l’homme. Il souligne l’existence d’un « risque psychosocial » qu’il ne faut pas négliger car selon lui
« c’est aussi un douloureux sentiment d’inutilité qui peut dominer, un sentiment d’incapacité,
d’inaptitude et d’échec permanent ». En ce qui concerne la profession de CAC nous pouvons considérer
qu’à l’instar des médecins, il y aura moins de personnes impliquées dans la préparation et l’analyse des
éléments nécessaires au diagnostic. Nous assisterons à une revalorisation du diplôme et des
compétences, rendant le niveau d’expertise exigé d’autant plus important. Enfin, l’un des risques
abordés par le rapport de France Stratégie est celui de la surcharge de travail que peut amener
l’apprentissage automatique. Considérant en effet que les tâches simples et fastidieuses sont traitées par
33
l’outil numérique, l’expert se focalisera sur des opérations plus complexes nécessitant plus d’attentions,
des analyses plus fines et donc plus de connaissances. Parmi les plus grands travaux de recherches menés
par des institutions françaises tel que l’ordre des médecins, la CNIL, France Stratégie et tant d’autres, la
rapidité de traitement de l’information par la machine est unanimement reconnue. La question que soustend ce constat est celle de la gestion du temps de l’expert à l’ère du machine learning. En prenant
comme exemple le domaine de la santé, le rapport France Stratégie considère que l’usage de
l’apprentissage automatique permet à l’expert de se « recentrer son activité sur les cas les plus
complexes, sur la formation et bénéficier d’un apprentissage continu ». Le médecin « sera aussi conduit
à renforcer la relation et le dialogue médecin-patient, afin d’apporter l’information nécessaire à la
compréhension des diagnostics. » Dans les métiers de l’audit, et notamment l’investigation de la fraude,
nous avons vu au travers des précédentes sous-parties que l’analyse des chiffres sur la base de différents
ratios permettait d’identifier des cas de fraudes internes au travers de la comptabilité (tableau 3). Tandis
que l’outil d’apprentissage statistique détecte rapidement les risques de fraudes au travers de la
comptabilité, l’auditeur pourra privilégier l’investigation au travers d’entretiens avec des interlocuteurs
de l’entité auditée. Il pourra étendre son analyse au-delà des chiffres et du fichier des écritures
comptables de sorte à percevoir ce que la machine ne peut percevoir au travers du comportement humain.
Par ailleurs, un tel outil permet également une meilleure allocation des ressources humaines sur une
mission d’audit. C’est du moins ce que met en avant le Conseil National de l’Ordre des Médecins
(CNOM) dans son livre blanc dédié à l’intelligence artificielle lorsqu’il présente le quotidien du Pr
Francois et son assistante Galiena
D’après cette recherche avérée en médecine, on constate principalement l’hypothèse HR4 de la manière
suivante :
HR4 : Le recours à l’apprentissage automatique libérera du temps pour l’auditeur au profit de
l’analyse et de la maintenance des clients.
Clarté des algorithmes
Si nous poursuivons le cas de l’industrie aéronautique, les chercheurs comme Clément Ader (1897) se
sont inspirés de la biologie pour mimer des animaux tel que la chauve-souris et s’inspirer de leur façon
de voler pour concevoir des avions41. Concernant l’IA, les ingénieurs, au travers de techniques
s’appuyant sur des réseaux de neurones artificiels, s’inspirent du cheminement intellectuel humain pour
mettre en place leurs outils. Or, même si nous sommes en mesures de comprendre le fonctionnement du
cerveau par le jeu des neurones et des synapses, le raisonnement intellectuel d’un individu est quant à
lui imperceptible. Cet aspect « boîte noire » s’applique également aux algorithmes qui composent les
outils d’apprentissages automatiques. C’est-à-dire qu’il est impossible de comprendre comment la
machine produit ses outputs, qu’elle ait tort ou raison. Selon Eric Topol, cardiologue généticien et
chercheur en médecine numérique aux Etats-Unis, l’intelligence artificielle et les outils d’apprentissages
34
automatiques resteront complémentaires aux experts pour des raisons évidentes de capacité à expliquer
le résultat de leurs observations. Or, dans un rapport annuel sur les comptes d’une société, le
commissaire aux comptes doit justifier ses appréciations et ses commentaires. L’absence d’explicabilité
de l’algorithme remet en cause le fondement du jugement professionnel du CAC ayant conduit à ses
appréciations. Meiller rappelle aussi qu’un des enjeux pour l’utilisateur est de ne pas accorder une
confiance aveugle au machine learning car il peut mettre en évidence des corrélations entre des éléments
par l’identification de patterns, mais ces relations ne sont pas systématiquement causales.
Illustration 6 : cadre et paramètres expérimentaux
Source: Mining corporate annual reports for intelligent detection of financialMining corporate
annual reports for intelligent detection of financial
En se basant sur l’exemple ci-dessus, extrait de l’analyse de Hajek et Henriques (2017). A partir de
cette présentation schématique, il est facile de définir sur quelles méthodes va favoriser l’exemple
d’apprentissage. Les résultats sont plutôt convaincants car l’outil atteint jusqu’à 90% de fiabilité sur
certains lots de tests. Il sera pourtant impossible de définir comment l’outil a déterminé si oui ou non
l’état financier était frauduleux. Dans la synthèse du rapport Villani proposée par Le Figaro35, le
phénomène des « boites noires » remonte des questions juridiques de preuve et d’explicabilité.
Berthet, l’un des juristes de la commission Villani considère qu’au regard du ratio
35
Matsas P. (29/03/2018), Intelligence articille : Les propositions de Cédric Villani, Le Figaro, 20-21.
35
auditabilité/efficacité, des régulateurs ou des experts publics devront être en mesure de s’accuser sur la
fiabilité de l’outil et évoquer son raisonnement en cas de besoin.
Puissance du dataset
Si le machine learning a aujourd'hui un tel niveau de performance, c'est aussi grâce à la qualité et à la
solidarité de l'apprentissage qu'ils ont vécu. Cependant, la base de la formation est la base de données
qui va conduire l'algorithme avant son démarrage opérationnel.
En outre, il est nécessaire de veiller à la qualité des données utilisées pendant la phase de confrontation
des données que nous avons présentées précédemment, Un dataset inapproprié peut aboutir à un
algorithme discriminant, un jugement périmé, un étalons de faux positifs assez considérable ou par
surcroit négligence de variables significatifs. Le compte rendu de la CNIL irrigue les propos de
Philippe Besse36, qui met en garde au sujet du problème de représentativité des échantillons et des
populations utilisés en médecine prédictive assistée par intelligence artificielle. Selon lui, « si vous
êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous
concerne ».
En outre, l’antithèse de Simpson mentionne l’obligation d’alimenter les algorithmes de données les
plus servant possible afin d’obvier les biais de l’assemblage d’information. Ce phénomène montre que
les données agrégées peuvent donner des renseignements contradictoires par rapport aux données
détaillées qui les constituent37. Dans l’exemple pris par Arthur Charpentier, professeur de sciences
actuarielles à l’université de Montréal, deux hôpitaux A et B sont comparés sur la base du taux de
survie de leurs patients « sains » versus le taux de survie des patients « malades ». Dans l’analyse par
découpage « sain » versus « malade », l’hôpital A apparait comme le plus performant. Cependant,
l’effet volume fait qu’au global, l’hôpital B accorde plus de chance de survie au patient, quel que soit
sa situation comme l’illustre le tableau ci-dessous :
Tableau 7 : Exemple d’illustration du paradoxe de Simpson
Situation
Hopitaux
population
Survivants
Décès
Personnes
Saines
Malades
Total
Taux de
Choix
survie
rationnel
A
600
590
10
98%
V
B
900
870
30
97%
X
A
400
210
190
53%
V
B
100
30
700
30%
X
A
1000
800
200
80%
X
36
Professeur émérite à l'INSA & Membre de l'équipe Statistique et Optimisation de
L'Institut de Mathématiques (UMR CNRS 5219)
37
https://www.yrgestion.fr/fr/le-paradoxe-de-simpson
36
B
1000
900
100
90%
V
Source : Paradoxe de Simpson expliqué par un dessin | Freakonometrics (hypotheses.org)
Conservation des données : questions de cybersécurité et des problèmes réglementaires
Le défi de la conservation des données n’est pas récent pour les cabinets, la question de l’incursion
vers les appuis de cloud-coumputing avait restauré la discussion environ des années38. La déviation
avec le Big Data est que la responsabilité est renforcée en raison du volume de données et de la
menace grandissante des cyberattaques. Dans son rapport de 2017, Cisco a publié un rapport sur les
cyberattaques connues qui touchent les entreprises. En outre, il se trouve que 8% des attaques coûtent
4 millions d'euros et plus pour les entreprises et les organisations touchées en 2017 ». Les données
financières et stratégiques des sociétés d'audit qui conservent dans le cadre de leurs obligations légales
sont sensibles, voire confidentielles. De plus, si les entreprises décident de les accumuler pour
répondre aux besoins de leur technologie d'intelligence artificielle, ils subissent des répercussions qui
sont d'autant plus importantes en cas de brèche dans leurs systèmes de cybersécurité.
Applicable à compter du 25 mai 2018, le règlement général de la protection des données (RGPD)
concerne l’ensemble des sociétés collectant des données en Europe, de personnes résidant sur le
territoire européen. En principe, les données recueillies au cours de la mission de vérification ne sont
que des renseignements sur l'entreprise. Il ne fait donc aucun doute que les règlements relatifs au
RGPD s'appliquent aux cabinets d'audit en ce qui a trait à la collecte de données. Toutefois, dès lors
que les outils de type machine learning seront entrainés ou traiteront des données comportant des
informations rapportant à « une personne physique identifiée ou identifiable »39, le cabinet entre dans
le champ d’action du RGPD. Il sera dans l'obligation, vis-à-vis des entités clientes concernées, de
prendre les mesures nécessaires pour la mettre en conformité avec le RGPD. En règle générale, la FEC
ne transmet pas de données personnelles. Toutefois, il s'agit d'une contrainte à prendre en compte, car
une enquête approfondie sur la fraude exigera la collecte de données à caractère personnel.
En concluant, le machine learning autoriserait à l’auditeur d’accomplir ses tests de détections de
fraudes plus hâtivement, accordant un apport idéal du temps de mission d’analyse et d’exploration de
la fraude. Bien que le caractère confidentiel des renseignements financiers ait amené les vérificateurs à
s'inquiéter de la sécurité de leurs données, la rectification des données par apprentissage automatique
comporte des problèmes de conformité et de sécurité qui étaient jusque-là spécifiques aux
organisations GAFA qui vivent à partir de données.
38
Guide pratique sur le bon usage du Cloud Computing par les cabinets d’expertise comptable, Collection des
études Institutionnelles (Bacchi M. et al. (2014))
39
« Une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à
un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou
à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique,
économique, culturelle ou sociale »
37
II.
Investigation sur le terrain, Analyse des résultats et recommandations
Dans le contexte d'une méthode hypothético-déductive, nous avons déduit quatre hypothèses de
recherche de notre recension littérature. La présente section vise à présenter comment nous allons
aborder les divers intervenants impliqués dans nos hypothèses afin de les mettre à l'essai; les résultats
du sondage seront analysés dans le but d'établir des recommandations et des prescriptions.
1. Méthodologie de l’investigation sur le terrain
Avant de la mettre en œuvre, nous définirons les méthodes et les échantillons qui conviennent le
mieux à notre approche. Nous présenterons également les guides d'entrevue qui forment le fondement
de nos sondages.
1.1. – les différentes méthodes d’enquête et leur relevance
Les actions en secteur de Marketing, sciences sociales et communications ont autorisé de rénover et
enrichir l’ensemble des démarches de sondage. Ainsi, l’appellation contemporaine reconnait les
sondages notariaux, qualitatifs et quantitatifs. De manière accidentelle, le Benchmarking ou
l’échantillonnage est un ensemble de procédures de recherches et d'analyses comparatives de la
concurrence qui se base sur les 3 démarches susmentionnés.
Les démarches utilisées
Une démarche qualitative peut prendre la forme d'une discussion ou d'une observation en tête-à-tête
ou en groupe. Celles-ci sont mieux adaptées aux études sociologiques ou managériales. C’est par
exemple la démarche pratiquée par Crozier à travers 1959 et 1963 afin de dévoiler l’efficacité de la
composition déstructurée et les espaces de soupçons dans l’organisation. Dans notre investigation, on
accordera la priorité aux entrevues plutôt qu'aux remarques, puisque nos besoins ne sont pas fondés
sur l'analyse psychosociale du comportement humain. C'est l'expérience de Mayo chez Western
Electric qui a servi de point de départ à l'utilisation de la maintenance comme outil pertinent dans
l'enquête sur le terrain à travers Blanchet et Gotman (2007). Dans son travail de 1985, Alain Blanchet
a conclu que l'entrevue non directive a le bénéfice de ne pas mettre en cause les préjugés générés par
l'enquêteur lui-même parce que le répondant s'exprime en toute liberté et se limite au sujet assujetti
dans le guide d'entrevue40.
Contrairement à l'interview directive est plus rigoureuse et similaire au formulaire dans la mesure où
les questions sont définies à l'avance dans un ordre précis et que la réponse attendue est habituellement
fermée. C'est ainsi que la semi-directive apparaît comme l'équilibre entre ces deux méthodes. Il permet
de libérer davantage les réponses des personnes interrogées tout en conservant la possibilité de
réorienter le dialogue à l'aide d'une liste de questions préétablies. L'apprentissage automatique est basé
40
L'entretien - Livre Sociologie générale de Alain Blanchet - Dunod
38
sur des processus algorithmiques très complexes dont l'utilisation est très variés. En outre, afin de
donner libre cours aux réactions spontanées des personnes interrogées, tout en gardant la possibilité de
conserver nos questions vers nos mots-clés tels que la fraude ou la vérification, nous choisissons
d'utiliser le procédé de maintenance semi-directive. En effet, il s'agit d'une approche exploratoire et
une entrevue directive implique le risque d'être close aux éléments que nous connaissons à partir de
nos recherches. En outre, une entrevue non dirigée ne permet pas à l'intervieweur d'exercer un contrôle
sur l'entrevue, ce qui l'empêche de concentrer la discussion sur des points précis. Quant à notre
première démonstration sur les éléments de rationalité limitée, cette méthode permet aussi de laisser
l’interrogé libre, tout en cadrant l'interview en fonction des réponses données.
Le Benchmarking anglicisme qui signifie "parangonnage" ou "échantillonnage’’ , est une
technique marketing ou de gestion de la qualité qui consiste à étudier et analyser les techniques de
gestion, les modes d'organisation des autres organismes, entreprises ou administrations, afin de s'en
inspirer et d'en tirer le meilleur. Dans le cas du sondage sur le terrain, l'étalonnage est un processus
dans le cadre duquel l'intervieweur compare deux types différents de répondants qui sont soumis à la
même matière de manière à observer les différences qui ont été observées à l'intérieur de ses
différentes catégories et ainsi déterminer la meilleure façon.
Les sources de l'échantillonnage peuvent être facultatives, c'est-à-dire que l'analyse comparative d'un
sujet peut être fondée sur des données collectées par la presse professionnelle ainsi que des instituts
d'enquête spécialisés ou fiables. Il est donc nécessaire de faire un recoupement de l'ensemble des
ressources secondaires afin d'obtenir l'analyse la plus complète possible.
En ce qui concerne notre étude, la mise en œuvre de l'analyse comparative est pertinente en raison des
divers secteurs d'activité qui opèrent l'apprentissage machine. Ce n'est pas une question de
comparaison entre cabinets d'audit, mais pour s'ingérer dans des domaines voisins comme les finances
ou complètement étrangers au Bureau du vérificateur général comme la cyberdéfense. Grâce à nos
entrevues, nous chercherons ensuite à détecter une meilleure façon, Il s'agit des « pratiques
exemplaires » de l'apprentissage automatique grâce aux commentaires des répondants.
Les approches expulsées
Les procédures documentaires impliquent la valorisation de la recherche effectuée par un tiers, une
entreprise ou un institut de statistique. Aussi, des enquêtes réalisées par l'Institut National de
Statistique et d'Etudes Economiques (INSEE), des études réalisées par des entreprises privées telles
que le Groupe Xerfi ou des enquêtes issues d'articles de recherche constituent des sources
d'information fiables et exploitables dans ce type d'approche. Bouzon et al. (1996) soulèvent deux
aspects de la recherche documentaire qui constituent des composants essentiels à l'efficacité de cette
méthode. Il y a d'abord le travail collectif. Ils notent que l'étudiant au doctorat qui est seul dans la
recherche en autonomie se noie dans l'information et peine à faire un pas en arrière. Il encourage la
39
recherche collective pour réduire le temps de recherche, diminuer les biais de compréhension en
partageant l'analyse, et permettre l'échange de méthodes d'enquête. Deuxièmement, ils recommandent
la formation. Il est essentiel que les chercheurs reçoivent une formation leur permettant d'avoir une
vision critique et objective des conclusions et des analyses des auteurs qu'ils évoquent.
L’étude quantitative est une technique de collecte de données qui permet au chercheur d’analyser des
comportements, des opinions, ou même des attentes en quantité. L’objectif est souvent d’en déduire
des conclusions mesurables statistiquement, contrairement à une étude qualitative. De fait, la
démarche quantitative accord de quantifier des phénomènes pour constituer des statistiques et des
analyses mathématiques pour approuver ou non les conclusions d'un sondage qualitatif préliminaire.
D'autre part, Dumez ajoute qu'en ce qui concerne les approches quantitatives, l'accent est mis sur les
variables, et les acteurs ne se manifestent réellement que lorsque les variables ne parviennent pas à
expliquer un phénomène. Dans les approches qualitatives, il faut privilégier les acteurs plutôt que les
variables. »Dans l'étude d'une matière naissante, Il est essentiel pour les intervenants d'être en mesure
d'exprimer leurs commentaires et de donner ensuite des pistes d'enquête statistique pour vérifier les
tendances à une plus intense échelle.
Notre étude étant centrée sur un outil dont l'utilisation par les professionnels en est à ses premiers
balbutiements, la recherche est expérimentale, comme on le voit dans les expériences de Perols (2011),
Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek et Henriques (2017). De même, l'étude
quantitative ne serait pas significative car l'utilisation de l'apprentissage automatique n'est pas
démocratisée et émerge uniquement dans les pratiques professionnelles. Nous nous intéresserons
également au sondage qualitatif (voir ci-dessus).
Tableau 6 : récapitulatif des approches d’investigation.
Intitulé
Investigation qualitative –
entrevue semi directif
Commentaire
-Liberté d'expression de l'intimé
-entrevue non ciblée
-L'enquêteur demeure maître de la discussion.
Approches
Echantillonnage
retenues
-Développement des connaissances du point de
vue des autres utilisateurs de l'apprentissage
automatique;
-Détection les bonnes manières dans différents
domaines
-aide à rogner les recommandations.
Sondage notarial
-insuffisance des ressources
-inadaptées aux démonstrations de recherche.
40
Sondage quantitative
- Encore exploratoire
- Se concentrer davantage sur les variables que
Approches
sur les intervenants.
exclues
Source : D’après Blanchet et Gotman (2007), Bouzon et al. (1996), Dumez (2011) et Gautron et al
(2003).
1.2. Désignation des répondants
Mathématiciens, ingénieurs, auditeurs et data scientists sont tous impliqués dans l'avènement de
machine learning dans les cabinets d'audit et de comptabilité. Pour l'analyse comparative
(Benchmarking), nous allons essayer de comparer l'implémentation de l'outil d'apprentissage
automatique dans d'autres domaines professionnels. En nous fondant sur nos démonstrations de
recherche, nous avons identifié quatre catégories de répondants aux fins de nos entrevues.
Les CAC ont été volontairement divisés en deux groupes : ceux qui utilisent l'IA pour détecter les
fraudes et ceux qui ne l'utilisent pas. En fait, le guide d'entrevue sera présenté de façon différente selon
que le CAC interrogé utilise ou non l'apprentissage automatique. Si jamais il ne l'exploite pas, nos
questions seront adressées à l'attente et à ce qu'il pense de cette technologie même s'il ne l'exploite pas.
Il s'agit aussi d'une façon de déterminer les raisons qui expliqueraient l'absence de cet outil dans leurs
processus opérationnels. Nous appellerons AAM « Auditors With Machine Learning », pour faire
référence aux vérificateurs, diplômés ou non, qui utilisent ou conçoivent des outils algorithmiques. Les
ASM sera le « Auditors Without Machine Learning » qui à la place n'a pas ces outils.
En outre, nous chercherons à interviewer les professionnels de l'apprentissage automatique qui
l'installent en leur propre nom ou au nom des clients. Diplômés d'écoles d'ingénierie, de mathématiques
ou d'informatique et étant à l'origine des outils, ils sont plus en mesure de répondre aux points pratiques
et théoriques de l'apprentissage automatique. Nous mettrons donc à l'épreuve avec eux les hypothèses
de recherche HR2, HR3 et HR4. Tel que mentionné plus haut, l'entrevue semi-directionnelle perrmettras
aux experts de discuter leurs commentaires et non des variables (H.Dumez 2011). On les appellera « DS
» pour « sciences-data ».
Enfin, dans le contexte de l'analyse comparative, nous solliciterons des professionnels qui utilisent aussi
l'apprentissage automatique dans des domaines semblables ou sans rapport. Notre approche aura pour
objectif de diversifier les domaines d'activité afin de répondre aux attentes de tous, mais pas de tous
également les difficultés éventuelles rencontrées dans la mise en place de cet outil et la contribution de
l'intelligence artificielle dans la réalisation de leur tâche. Ceux-ci seront désignés par l'abréviation «
Bench » par la suite.
Tableau 7 : Liste des répondants approchés (Modifié pour préserver son anonymat)
41
Qualité
Catégorie
Secteur
Responsable R&D
Conseil & audit
AAM
Data scientist
chercheurs
AAM
Directeur stratégique
audit
AAM
associé Audit
audit
ASM
Manager Audit
Audit
ASM
Directeur Qualité & Risque
audit
ASM
Juriste
droit
Bench
Directeur avant-vente
Informatique
Bench
Professeur en stratégie
Enseignement supérieur
Bench
Chercheur associé en Cyber
Cyber sécurité
Bench
Data scientist
santé
Bench
Cadre supérieur
Finance public
bench
Chercheur en IA
aérospatial
DS
Politique
DS
conseil
DS
sécurité
Mathématiciens
Associé risk management
1.3. Les guides d’entrevu
Le guide d'interview est un outil de sondage qualitatif qui résume tous les sujets couverts et les
questions posées par catégories de personnes interrogées. Il présente une certaine chronologie qui peut
être modifiée lorsque l'entretien invite à modifier le plan d'entretien par exemple. Toutes les questions
posées sont issues des lectures résumées dans l'analyse documentaire. Afin de garantir la pertinence de
ces questions lorsqu'elles sont posées à des professionnels, nous avons mené un processus
exploratoire. Autrement dit, le guide d'entrevue a déjà été présenté aux professionnels et aux étudiants
en IT et en marketing.
Nous avons donc identifié deux grands thèmes à partir de nos quatre hypothèses de recherche. Le
tableau suivant illustre la pertinence de chaque thème en regard des hypothèses de recherche. Les
tableaux ci-dessous ont pour but de présenter le guide d'entrevue pour les différentes catégories de
répondants dont nous avons discuté précédemment. Enfin, la dernière table rassemble les questions
posées dans le cadre de notre analyse comparative à d'autres professionnels utilisant l'apprentissage
automatique.
42
Tableau 8 : Synthèses des hypothèses de recherche
Réf
Hypothèses
HR1
La découverte de la
En raison de la quantité considérable
fraude par
d'écrits dans la FEC, le vérificateur mettra
« Journal Entry
en place des moyens de "purifier" la
Testing » est faussée
par les finalités de
Thème
Contenu
Test Jet & Rationalité
restreint
population et viser des types décrits pour
mener des essais qu'il juge plus
l’auditeur et son
pertinents. Le choix est ensuite réduit par
intelligence émotive.
une partie de la population initiale
susceptible d'être frauduleuse.
HR2
HR3
HR4
L'intelligence
Machine learning est un enchaînement de
artificielle, par
beaucoup de modèles différents basés sur
l'apprentissage
Pertinence et fiabilité
un processus fiable basé sur le triptyque
automatique,
de machine learning
"Trainig, validation et application". En
pourrait tester le
raison de son orientation spécifique, il est
FEC de façon
possible de mettre en évidence des
pertinente, fiable et
corrélations que l'auditeur n'est pas en
rentable.
mesure de les détecter
La mise en œuvre
Formalités pour
À la lumière de nos lectures,
d'un outil
l’implémentation du
l'implémentation semble présenter un
d'apprentissage
machine
certain nombre de conditions, y compris
automatique dans
learning « apprentissage techniques. Que ce soit le choix de
une firme de
automatique »
modèles statistiques ou de la base de
vérification
données consacrée à l'apprentissage
comporte des
automatique, sa mise en œuvre constitue
obstacles.
un obstacle à l'entrée.
Le recours à
L'arrivée de l'intelligence artificielle dans
l’apprentissage
les processus de travail peut arriver à
automatique
libérera du temps
Utilité du machine
remplacer l'homme (assurance, conduite
learning
autonome). Dans ce cas, ce sera plus une
pour l’auditeur au
économie de temps pour le vérificateur
profit de l’analyse
qui n'aura pas à faire un choix ou à se
et de la
donner du temps pour justifier son
maintenance des
approche. Ils délaisseront les aspects
clients.
techniques et se concentreront sur les
43
entretiens et les relations avec les clients
pour mieux analyser la fraude.
Source : Moi-même
44
Tableau 9 : Manuel d'entrevues pour les CAC qui n'adoptant pas Le machine learning.
hypothèses
thèmes
Auditeurs n’adoptant pas le machine
learning
Q1 : À votre avis, en quoi consiste
Intro
une vérification?
Q2 : À votre avis, quels critères
La découverte de la fraude
devraient être pris en compte pour
par « Journal Entry
Rationalité limitée Testing » est faussée par
les finalités de l’auditeur et
détecter la fraude?
Test Jet & Rationalité
restreint
son intelligence émotive.
Q3 : Comment procédez-vous à la
vérification des fraudes?
Q4 : Quelle est votre opinion à
propos de JET?
Q5 : Dans quelle mesure est-il
pertinent pour le dépistage de la
fraude?
Q6 : Pensez-vous qu'il y a des
distorsions en ce qui concerne le test
de fraude du JET? Lesquels ?
Q7 : Comment diminuer ces
distorsions ?
Machine learning
L'intelligence artificielle,
Pertinence et fiabilité de Q8 - Selon vous, l'intelligence
par l'apprentissage
machine learning
artificielle, à travers l'apprentissage
automatique, pourrait
automatique, pourrait-elle tester le
tester le FEC de façon
FEC de façon pertinente et fiable ?
pertinente, fiable et
Q9 - Selon vous, cela permet-il au
rentable.
cabinet de réaliser des économies?
La mise en œuvre d'un
Formalités pour
Q10 - Pour quelle ou quels motifs
outil d'apprentissage
l’implémentation du
n'avez-vous pas mis en œuvre cet
automatique dans une
machine
outil dans votre bureau?
firme de vérification
learning « apprentissage Q11 - Le cas échéant, à quelles
comporte des obstacles.
automatique »
conditions?
Le recours à
Utilité du machine
Q12 - Pensez-vous que l'application
l’apprentissage
learning
de l'IA aux cabinets d'audit peut
automatique libérera du
libérer du temps pour le vérificateur?
45
temps pour l’auditeur au
Q13 – Pensez-vous que ce sera
profit de l’analyse et de la
avantageux pour la relation avec la
maintenance des clients.
clientèle?
Source : Moi-même
46
Tableau 10 : Manuel d'entrevues pour les CAC qui adoptant Le machine learning.
hypothèses
thèmes
Auditeurs adoptant pas le machine
learning
Intro
Q1 - Depuis quand offrez-vous ce
service à vos clients?
Q2 - Qu'est-ce que vous entendez par
IA (concept, outil, développement...)?
Rationalité limitée
L'intelligence artificielle,
Q3 - S'il s'agit d'apprentissage
par l'apprentissage
automatique, comment le définissez-
automatique, pourrait
vous?
tester le FEC de façon
pertinente, fiable et
Pertinence et fiabilité de Q4 - Dans quel domaine procédezmachine learning
vous à son élaboration?
Q5 - Quels avantages escomptez-vous
rentable.
d'un tel instrument?
Q6 - Qu'est-ce qui constitue
exactement la base d'un apprentissage
automatique fiable?
Q7 - Comment vous sentez-vous par
rapport à son utilisation dans la
détection des fraudes de vérification?
Q8 - En ce qui concerne le fichier
d'écritures comptables (le FEC),
s'agit-il d'un ensemble de données
approprié pour mettre à l'essai la
fraude par apprentissage automatique?
Pourquoi ?
Q9 - Quels seraient les avantages
d'appliquer le machine learning pour
mettre à l'essai le FEC (pertinence,
fiabilité, économie, etc.)?
Machine learning
La mise en œuvre d'un
Formalités pour
Q10 - Avez-vous tenu compte des
outil d'apprentissage
l’implémentation du
désavantages liés à la mise en œuvre
automatique dans une
machine
(coûts, personnel qualifié,
firme de vérification
learning « apprentissage équipement, financement, désuétude,
comporte des obstacles.
automatique »
etc.)?
47
Q11 - Quels ont été les principaux
obstacles rencontrés lorsque vous avez
mis en œuvre cet outil dans votre
pratique?
Q12 - À votre avis, les bénéfices
attendus sont-ils suffisants pour les
contraintes de mise en œuvre?
Lesquels ?
Q13 - Selon vous, s'agit-il d'un outil
mis à la disposition des cabinets
d'audit?
Le recours à
Utilité du machine
Q14 - Qu'avez-vous observé depuis
l’apprentissage
learning
l'utilisation de l'apprentissage
automatique libérera du
automatique?
temps pour l’auditeur au
Q15 - Quel serait le principal avantage
profit de l’analyse et de
que vous me donneriez?
la maintenance des
Q16 - Est-ce que l'apprentissage
clients.
automatique permet de mettre
davantage l'accent sur d'autres aspects
d'une profession? Pourquoi. ?
Q17 - En ce qui a trait à la
vérification, qu'est-ce qui, selon vous,
va changer dans une mission?
Q18 - L'utilisation du machine
learning est-elle une garantie de
qualité dans le contrôle de la fraude ?
Pourquoi ?
Conclusion
Q19 - que pensez-vous du futur de la
machine learning dans le monde
professionnel ?
Q20 - conseillez-vous cet outil aux
spécialistes en comptabilité? pourquoi
?
Source : Moi-même
48
Tableau 11 : Manuel d'entrevues pour les professionnels du machine learning.
Hypothèses
thèmes
Professionnels du machine learning
Q1 - Quelle est votre définition de
Intro
l'apprentissage automatique?
Q2 - Si je vous parle du machine learning,
quelle est votre définition ?
Q3 - Quels avantages devrait-on tirer de ce type
d'outil?
Q4 - Comment vous sentez-vous par rapport à
Machine
L'intelligence artificielle, par
Pertinence et fiabilité de
son utilisation pour la détection des fraudes?
learning
l'apprentissage automatique,
machine learning
Q5 - En ce qui concerne le fichier d'écritures
pourrait tester le FEC de
comptables (le FEC), s'agit-il d'un ensemble de
façon pertinente, fiable et
données approprié pour mettre à l'essai la fraude
rentable.
par apprentissage automatique? Pourquoi ?
Q6 - Avez-vous prévu des difficultés
La mise en œuvre d'un outil
d'apprentissage automatique
Formalités pour
dans une firme de
l’implémentation du machine
vérification comporte des
obstacles.
learning « apprentissage
d'installation auparavant?
Q7 - Quelles contraintes ont fini par être
rencontrés?
automatique »
Le recours à l’apprentissage
Q8 - Le machine Learning a-t-il rendu possible
automatique libérera du
de libérer du temps pour vos collaborateurs?
temps pour l’auditeur au
Q9 - Si oui, à quel avantage a permis de gagner
profit de l’analyse et de la
maintenance des clients.
Utilité du machine learning
du temps?
Q10 - En ce qui a trait à la pratique
professionnelle, est-ce que cela change l'opinion
des auditeurs?
Conclusion
Q11 - Si vous aviez à conseiller un collègue au
sujet de cet outil, quels conseils lui donneriezvous?
Source : moi même
49
Tableau 12 : Guide d’entrevues liées au Benchmarking
thèmes
Intro
benchmarking
Q1 - Dans quel champ pratiquez-vous?
Q2 - Depuis combien de temps vous exercez-vous en la matière?
Q3 - Qu'est-ce que l'IA pour vous (concept, outil, développement, etc.)?
Q4 - De quelle façon avez-vous configuré cet outil au sein de votre
entreprise? (Prestataire, décision, conseil...) ?
Le machine learning
Q5 - Quels avantages espériez-vous tirer de l'installation du machine à
pencher?
Q6 - Avez-vous rencontré certains obstacles? Lesquels ?
Q7 - Estimez-vous que votre investissement est rentable?
Q8 - Avez-vous observé des évolutions dans vos pratiques professionnelles
depuis qu'elles ont été adoptées? Lesquelles. ?
Conclusion
Q9 - Que conseilleriez-vous à un collègue qui aimerait basculer vers le
machine learning
Source : Moi même
50
2. Contrôle des hypothèses de recherche - Examen des résultats d'entrevues
Le contrôle des hypothèses de recherche s’est effectué à travers une dizaine des interrogés
compartimentés en quatre catégories différentes. Afin de contrôler nos hypothèses de recherche, nous
allons mettre en place une analyse de leur réponse par type de répondant.
2.1.
affichage et étude des résultats obtenus par l'entrevue
L'ensemble de nos entrevues présente un cumul de 4h30min d’échanges, 2 différentes nationalités
(Maroc et France) et 10 personnes interrogées au travers de 4 entretiens téléphoniques, 2 rencontres
physiques et un retour par e-mail.
Présentation des différentes entrevues
Le taux de réponse des répondants interrogés s'élevait à 9 sur 12, ou 75 % des réponses. En fin de
compte, nous avons pu procéder à des entretiens physiques & téléphoniques avec 8 d'entre eux.
Alors que l'accroissement de cette technologie bat son plein, la peur de « l'espionnage industriel » a été
remontée par certaines des personnes contactées afin de justifier leur abstention.
S'agissant des data scientists et des personnes approchées dans le cadre du benchmarking, certains ont
préféré ne pas donner un résultat favorable à notre demande d'interview parce que la fraude et la
vérification sont des sujets qu'ils n'abordent pas dans leur entreprise.
En ce qui concerne la représentativité de l'échantillon, la population interrogée est constituée de 3
d'employés et d'associés travaillant à Deloitte et 1 chez EY. 3 de la population étudiée est constituée
des personnes travaillant chez d'autres cabinets d'audit et d'expertise. Les Big4 représentent donc 4 de
la population totale. Suite au retour favorable du Directeur Général d'une Start-Up en justice prédictive
pour une interview nous en avons également profité pour faire participer Maitre M, représentant de
l'Ordre, afin de faciliter une rencontre entre un avocat et un membre du Barreau, pour se familiariser
avec les sujets et les questions qui affectent les avocats.
51
Tableau 13 : Liste des répondants interrogés dans le cadre de l’entrevue terrain (Modifié pour des
garder l’anonymat)
société
secteur
Poste
Type
Durée
anonymat
Big4 FR
Audit & consulting
Manager
Téléphonique
45min
AAM
Big4 fr
Forensic
Partner - CAC
Téléphonique
30min
Bench
Big4 MA
Audit & consulting
CAC
Face to face
1h
ASM
Autre cab
Audit
Auditeur
Face to face
45min
ASM
Autre cab
Audit & Consulting
Manager
téléphonique
20min
ASM
Cybersécurité
Chercheurs Associés en
E-Mail
N/A
DS
CR**
cyber
Start up
Justice prédictive
Juriste
Téléphonique
30min
Bench
Barreau
Normalisateur
Membre représentant
Téléphonique
30min
Bench
Source : Moi-même
52
Démonstration des résultats par catégorie des interrogés
A la demande des répondants, Les annexes de 8 à 11 de la version initiale qui résument toutes les
transcriptions des entrevues que nous avons menées n'ont pas été retenues dans cette version publique.
L'annexe 8 présente la méthode utilisée pour transcrire les interviews sous forme de tableaux.
Ils ne répètent pas textuellement ce qui vient d'être dit, mais rapportent les idées essentielles soulevées
par nos interrogés. Afin d'être en mesure de les comparer, nous avons choisi de présenter ces résumés
par catégorie de répondants (ASM, AAM, DS et Bench.) tels que nous les avons définis
précédemment.
Les auditeurs, tant diplômés que non diplômés, qui n'utilisent pas le machine learning (catégorie
ASM) ont tous présenté des arguments allant dans la direction des limites du test de détection des
fraudes sur la base de la FEC à l'aide des outils d'analyses. En effet, on remarque que les exigences du
CAC sont flexibles et que le NEP 240 ne comporte pas un niveau de participation équivalent à celui
des Services judiciaires ou de l'Autorité des marchés financiers (AMF) tel qu'indiqué dans ASM 1, ce
qui confirme les déclarations de Carassus et Cormier (2003). D'un autre côté, les vérificateurs d'origine
américaine estiment que les vérificateurs manquent de scepticisme professionnel (« professional
skepticism ») pendant leurs vérifications et qu'ils ne posent pas assez de questions. Les deux signalent
l'absence de connaissance du milieu des affaires et de son fonctionnement.
En outre, ce défaut peut être dû au manque de temps que l'apprentissage automatique pourrait corriger.
Par ailleurs, bien que les outils analytiques existants soient efficaces pour les contrats de type "middle
market", il comporte des défauts en cas de volume d'écriture trop élevé vers la FEC. L'une des raisons
qui sous-tendent l'apprentissage automatique est la capacité à traiter des données en vrac. Finalement,
nous comprenons que le FEC est une base de données, en principe complète, qui mérite d'être
complétée par un plus grand contrôle interne. Tandis que ASM conseil de faire davantage de tests sur
procédures lors de la phase d’intérim, ASM imagine l'intégration de paramètres additionnels outre le
FEC dans les données traitées par le machine learning, faire l'objet de procédures de contrôle interne
(comptes bancaires, comptes auxiliaires...etc.).
A propos de l’auditeur adoptant le machine learning pour leurs besoins d’audit (AAM), il reconnaît
l'efficience de l'apprentissage automatique. Malgré tout, il nous met en garde au sujet de la « nature
protéiforme de la fraude » et le manque de considération du contrôle interne dans un test basé
uniquement sur le fichier d'écritures comptables. Il a en outre ajouté que l'investissement de base est
considérable et que les cabinets d'audit n'ont pas coutume de mobiliser des ressources financières et
humaines pour répondre aux besoins en R&D.
Par ailleurs, l'open source ne suffit pas à réduire les coûts, car les solutions ouvertes ne sont pas clés en
main et exigent le travail d'une équipe de scientifiques des données. En outre, l'adoption du machine
53
learning doit répondre à un véritable besoin politique de l'entreprise. Cependant, s'il décide de le créer,
l'auditeur en tire plusieurs avantages, notamment la délégation de tâches laborieuses à la machine.
D'une part, il lui permet de se concentrer sur l'analyse et la critique des résultats obtenus grâce à
l'instrument. D’autre part, dans une approche non supervisée, l’apprentissage automatique peut
apporter à l’auditeur une certaine ouverture d’esprit en ce sens qu’il produira des résultats que
l’auditeur n’attendait pas forcément.
Par ailleurs, AAM estime que certaines entreprises seront forcées de le faire, car leurs clients finiront
par utiliser ce genre d'outils pour produire des données comptables et financières. L'entrevue des
équipes de science des données (catégorie DS) a permis de mieux comprendre les défis de la mise en
œuvre des algorithmes ainsi que leur potentiel en ce qui concerne l'enquête d'un auditeur sur la fraude.
En fait, nos entrevues ont débouché sur une conclusion commune au sujet des données et de leurs
prises. Le DS que nous avons rencontrée a mis l'accent sur le manque de maturité des clients, ce qui
complique l'accès et la récupération des données dans un format utilisable. Il ajoute que le temps
consacré au traitement des données constitue un fossé qui occupe les équipes de science des données à
80 % de leur temps. Etant donné que cette phase est l'essentielle pour la formation de l'algorithme, les
équipes passent autant de temps que possible à conserver l'information brute et même à l'enrichir. Pour
ce qui est de la fraude, nous savons que l'accessibilité des données par le vérificateur et la formation
des algorithmes sont limitées. Si la fraude a toujours existé dans les comptes, l'outil pourrait alors
reconnaître la fraude comme une norme de non-réponse à un défaut. À titre de vérificateur, il sera
alors essentiel d'assurer une transparence maximale auprès des entités auditées et s'entourer d'avocats
afin d'obtenir des contrats de sous-traitance et des lettres d'engagement de vérification. Enfin, les
expériences qui ont déjà été menées dans le cadre de l'audit et d'autres domaines ont confirmé que ces
outils économisent énormément de temps permettre la réaffectation des ressources dans le cadre d'une
mission d'audit (planification). Toutefois, cette réorientation des activités exigera la formation
nécessaire des utilisateurs et des préparateurs au sein de la profession comptable, comme nos
répondants l'ont fait remarquer.
Notre analyse comparative nous a permis de découvrir les conditions de mise en œuvre de cet outil
dans les domaines suivants : les robots de prise de décision, la lutte contre la fraude et le blanchiment
d'argent, les enquêtes sur les infractions financières, la cyberdéfense et la justice prévisionnelle. Nous
voyons que l'utilisation de l'outil répond à un besoin des clients en lien avec un changement
d'environnement tel que les banques face aux nouvelles techniques de fraude ou l'évolution des cyberattaques et des actions professionnelles cherchant à optimiser leurs processus de travail (analyse des
décisions judiciaires massives et rapides). La vitesse, l'efficience et la complétude du traitement ainsi
que le but recherché par tous nos interlocuteurs. C’est par exemple la capacité à traiter 5 000 décisions
de justices par secondes, décortiquer 60 000 contrats par jours ou encore nécessiter seulement 3
millisecondes pour traiter une transaction financière là où le marché exige 5 secondes. Cependant,
54
trois d'entre eux ont lancé un avertissement contre les faux positifs. Certaines personnes nous ont
donné des exemples d'entreprises qui ont renoncé à leurs projets pour cette raison. De plus, une des
interrogées ont souligné que grâce aux bibliothèques de code open source, il est possible aujourd'hui
de disposer d'algorithmes efficaces grâce aux dernières mises à jour effectuées par la communauté
d'utilisateurs. Pour ce qui est des questions, tout le monde nous a parlé des problèmes inhérents à la
collecte de données, Ceux-ci comprennent le retraitement (contrôle des données), la conformité
(RGPD) et la sécurité. La rentabilité est aussi préoccupante, car les coûts fixes sont constitués de
serveurs et de machines utilisés pour le stockage et la programmation de modèles. Certains ont vite
fait d'être rentables avec leurs premiers contrats. Cependant, les coûts variables sont très élevés parce
qu'ils correspondent aux heures humaines d'un personnel très qualifié. Bench fait remarquer qu'il s'agit
de déterminer si « l'économie de temps et d'argent à l'avenir vaut l'investissement initial ». Le bilan
demeure toutefois positif puisque chacun le recommande avec ses propres conseils spécifiques en
fonction du secteur allant de défier l'algorithme au hasard à écouter attentivement les besoins du client
et les exigences éthiques et éthiques y compris le besoin d'une équipe compétente capable de
collaborer.
Enfin, le machine learning est structuré autour de trois approches différentes : techniciens des ventes,
sous-traitants et scientifiques des données et ingénieurs en apprentissage automatique. En effet, les
techniciens des ventes, en raison de leur position, tiennent des discours qui tendent à « dépasser les
attentes » En d'autres termes, ils savent faire ressortir les avantages de leurs outils, les perspectives de
développement et leurs avantages concurrentiels La réunion avec les équipes de données scientifiques
nous a permis de nuancer ce qu'elles ont dit En tant que concepteurs de ces outils, ils sont tout à fait
conscients des enjeux et des limites de l'apprentissage machine et reconnaître qu'il est plus facile
d'avoir des opinions sceptiques non pas au sujet du potentiel de ces outils, mais au sujet de la
faisabilité technique de ce que les entreprises attendent. Enfin, l'entrepreneur et leader rencontré au
sein de l'incubateur de start-up du Crédit Agricole parvient à nuancer naturellement ses commentaires
puisqu'il était conscient des contraintes d'exécution au cours du suivi du projet.
2.2.
vérification de pertinence des démonstrations de recherche
Pour résumer notre investigation sur le terrain, nous avons évoqué au tableau 14 les hypothèses de
recherche qui ont dirigé nos discussions et nous avons formulé des commentaires sur les résultats de
leur vérification. Nous notons que chaque hypothèse est validée ou partiellement validée.
Tableau 14 : Vérification des hypothèses de recherche
55
HYP DE RECHERCHE
Résultat
HR1 : La découverte de la
fraude par « Journal Entry
Testing » est faussée par les
Conclusion
Tous les CAC interviewés estiment qu'il y a des limites à la
Approuvée
détection de la fraude au moyen de la méthode « JET ».
finalités de l’auditeur et son
intelligence émotive.
Pour cette raison, la FEC ne peut être suffisante pour déceler
HR2 : L'intelligence
artificielle, par
l'apprentissage
Partiellement
approuvée
des tendances frauduleuses dans une entreprise, il doit être
complété par une mine d'informations issues notamment du
automatique, pourrait tester
contrôle interne. Même si l'outil est très efficient dans certains
le FEC de façon pertinente,
domaines, la fraude demeure complexe et comporte de
fiable et rentable.
multiples facettes, ce qui laisse planer des doutes chez les
experts.
HR3 : La mise en œuvre
d'un outil d'apprentissage
Le cabinet d'audit est une structure qui vend son expertise.
Approuvée
Investissement et mobilisation importants les ressources
automatique dans une firme
humaines qui ne sont pas affectées à la vérification ne font pas
de vérification comporte
partie des systèmes de financement traditionnels des
des obstacles.
entreprises. En outre, l'utilisation de ce type d'outil suppose un
contrôle parfait de la collecte des données afin de répondre
aux besoins de la vérification.
Toutefois, ces obstacles peuvent être surmontés par
l'externalisation à GAFA ou aux entreprises en démarrage, ce
qui peut causer des problèmes d'externalisation.
HR4 : Le recours à
l’apprentissage
automatique libérera du
temps pour l’auditeur au
Le CAC sera amené à mettre ce temps à profit d’une
Partiellement
approuvée
investigation auprès d’interlocuteurs privilégiés, fournir de
l'information comportementale, psychologique et sociale qui
n'est pas prise en compte par la machine. Cependant, le temps
profit de l’analyse et de la
économisé par le vérificateur devra aussi être partagé avec les
maintenance des clients.
nouvelles responsabilités de l'entreprise lorsqu'elle recueille
des données confidentielles en vrac, financièrement,
personnellement et de façon sensible.
Source : nos entrevues
56
2.3.
recommandations et consignes
Étant donné les résultats de notre investigation, nous notons qu'il y a des points d'attention dans la
gestion de projet de l'implémentation des outils d'apprentissage automatique appliquée à la détection
des fraudes dans le travail du contrôleur légal des comptes au sein du FEC.
 Recommandations :
Le passage aux outils d'apprentissage automatique doit satisfaire les besoins stratégiques de
l'entreprise. S'ils veulent être compétitifs, ils peuvent déjà investir dans cette technologie pour se
spécialiser dans ce domaine. Toutefois, les data scientists que nous avons interrogés ont révélé que les
plans pour mettre en place l'apprentissage automatique peut coûter cher en raison du temps passé à
nettoyer et à récupérer les données, la mise en place des modèles et l’entrainement des algorithmes par
une main d’œuvre hautement qualifiée (donc onéreuse). Par ailleurs, si le traitement des données est
effectué en interne, l'entité sera contrainte de se doter d'équipements informatiques performants dont
elle n'a pas besoin pour ses missions d'audit traditionnelles. Il est recommandé d'investir seulement s'il
est approprié pour le type de client de l'entreprise et que des retombées économiques futures peuvent
être réalisées et compenser les frais liés à la recherche et au développement. Les méthodes
traditionnelles d'audit antifraude, lorsqu'elles s'accompagnent d'un contrôle interne et d'une meilleure
connaissance de l'entité et de son environnement, sont suffisantes sur les entités dont le volume en
écriture reste bas. Le machine learning sera plus utile pour les entités listées, les fonds
d'investissements ou les structures qui génèrent de grandes quantités de données.
Rec1 : Le choix de passer à des outils de machine learning doit satisfaire un véritable
besoin stratégique de l'entreprise.
De plus, notre entrevue a montré que, dans tous les cas, on recommandait de rompre avec les aspects
purement numériques de la comptabilité et qu'une étude approfondie de l'entité, de son environnement
et ses processus seront nécessaires à une meilleure compréhension des sources d'erreurs et du niveau
de risque lié à la fraude. Si une entreprise décide d'implanter des outils d'intelligence artificielle, nous
lui conseillons de dépasser le FEC et d'intégrer autant de renseignements que possible dans sa base de
données afin d'accroître la précision de l'analyse des algorithmes. En particulier, il sera nécessaire
d'essayer de récupérer autant de données que possibles depuis les modules du PGI de l'entité, fournir
des renseignements sur les stocks, les immobilisations, les salaires et, par conséquent, fournir une
source d'information statistique différente de celle fournie par le FEC. En outre, le CAC qui recueille
des données pour ses essais doit avoir un contrôle parfait tout au long de son mandat.
57
Rec2 : L'enquête sur la fraude menée par le CAC doit être fondée sur des variables qui
ne relèvent pas du FEC privilégiant en particulier le contrôle interne et la
familiarisation avec l'entité et son environnement.
La CNIL demande ce qui suit : « Quid du risque que les préconisations de la machine soient
appréhendées comme une vérité absolue, non soumise à la discussion quant à ses conséquences
pratiques ? » De plus, il paraît important que les professionnels indépendants soient en mesure de
commenter l'algorithme mis en place par un cabinet d'audit. À titre de vérificateur, le vérificateur doit
être conscient de l'existence d'un dilemme entre rendre l'algorithme explicite et le rendre efficace.
Plus le schéma algorithmique sera complexe, moins l'identification du «voie intellectuel» de la
machine sera possible. De plus, nous proposons la mise en œuvre de vérifications algorithmiques par
des tiers comme les vérificateurs des TI ou H3C, organisme de réglementation de la profession. Par
conséquent, nous recommandons la mise en œuvre d'un système de boîtes blanches, permettant la
vérifiabilité des algorithmes.
Rec3 : À des fins de discussion, les algorithmes doivent être aussi explicables que possible par
un examinateur.
 Consignes
Nos recommandations à l'intention de la profession comptable se reflètent dans un plan de formation
interne destiné aux cabinets de vérification, ainsi qu'un guide pratique sur l'utilisation correcte de
l'apprentissage automatique par le vérificateur. Bien que le plan de formation soit davantage axé sur
les employés, le guide pratique, comme celui publié par l'OEC pour l'informatique en nuage en 2013,
est essentiellement destiné aux CAC connexes.
Le plan d'instruction proposé est présenté à l'annexe 10 et est divisé en trois modules :

Module de premier cycle : Introduction à l'apprentissage automatique.

Module supérieur : Collecte et décontamination des données.

Module pour les managers : Gestion de mission.
Pr1 : Programme de formation en fonction de 3 niveaux d'assaisonnement.
58
Illustration 7 : Guide pratique en 10 points sur l'utilisation correcte de l'apprentissage automatique
par les sociétés d’audit.
Data :
- RGPG & Sureté
- Qualité du Dataset
Cabinet:
- Stratégie
- Informer ses clients
-Sensibiliser ses équipes
Algorithme:
- Explicabilité
- Non-discrimination
Profession:
-Exigences réglementaires
- Demeurez proactifs.
-Renouvellement du métier
E
x
i
g
e
n
c
e
r
é
g
l
e
m
e
n
t
a
i
r
e
-
59
 Posez-vous des questions pertinentes.
L'apprentissage automatique doit satisfaire les besoins stratégiques de la société et ne doit pas être une
mode. L'installation peut s'avérer fastidieuse et coûteuse. La formation des modèles, la récupération
des données, leur nettoyage et la gestion des faux positifs sont les principales raisons pour lesquelles le
projet a été abandonné. Puisque la recherche et le développement ne font pas partie de la structure
financière « typique » des sociétés de vérification et de consultation, Les chefs d'entreprise doivent
s'interroger sur la faisabilité technique et la rentabilité financière.
 RGPD et sûreté des données
Pour répondre au phénomène du big data, les législateurs européens ont mis en place le règlement
général de protection des données (RGPD). Adressée à protéger les consommateurs et les utilisateurs
des réseaux sociaux, la présente norme s'applique aux entreprises qui recueillent des données à
caractère personnel en Europe et/ou auprès de résidents européens. Le vérificateur doit en être
conscient et se conformer aux exigences des législateurs pour assurer une transparence croissante. Le
CCC doit aussi savoir qu'il est le gardien des données et doit assurer leur sécurité en cas de
cyberattaque.
 Se familiariser avec les exigences de l'autorité de régulation de la profession.
Compte tenu des profonds changements que l'apprentissage automatique en intelligence artificielle
peut apporter, les établissements prennent position et soutiennent les professionnels. Le CNCC sera
également appelé à exprimer son point de vue par le biais d'un rapport ou d'une charte de bonnes
pratiques. Nous invitons les vérificateurs à consulter les publications de l'Ordre afin d'agir
conformément aux exigences du CNCC.
 Sensibiliser le client
Pour des motifs de coût ou d'expertise, une entreprise peut décider d'externaliser le traitement
algorithmique de ses données à un GAFA. En outre, externaliser consiste à transférer des données à un
tiers pour un traitement spécifique. Dans l'affirmative, il s'agit d'éléments importants qui doivent être
clairement établis dans les conditions du contrat de service entre l'entreprise et l'entité vérifiée. La
transparence vis-à-vis du client est essentielle pour les questions juridiques de consentement
contractuel et de confiance entre les parties, garantissant le bon déroulement des missions d'audit.
 Soyez préoccupé quant à la qualité de vos données.
La comptabilité reflète les renseignements financiers qu'une société permet volontairement de refléter
à l'aide de données numériques structurées. Toutefois, les enquêtes les plus efficaces sont fondées sur
des données non structurées visant à cerner l'anomalie (erreur ou fraude) lorsqu'il est impossible de
cacher les renseignements, car les données sont brutes. En termes de collecte d'informations, le
60
contrôleur légal des comptes et ses équipes devront toujours se demander si les informations qu'ils
recueillent sont suffisantes pour répondre à la nécessité du contrôle des comptes et vice versa, si, en ce
qui concerne le test de vérification, les équipes ont recueilli toutes les données disponibles permettant
d'effectuer les travaux de vérification. Ils doivent aussi être critiques et toujours être conscients de la
véracité et de l'exhaustivité des données extraites.
 Explication des algorithmes et des boîtes blanches.
Le commissaire aux comptes consigne et justifie l'ensemble de son travail. Les règles de pratique en
matière d'éthique invitent le vérificateur à fonder sa vérification sur des preuves, à rechercher la vérité
en tout et à ne pas se contenter de presque tout. Par conséquent, il n'est pas concevable que l'opinion
du CAC soit fondée sur l'analyse d'un algorithme dont le raisonnement est inconnu. Il sera nécessaire
de continuer à montrer un scepticisme professionnel, de remettre en question les analyses de l'outil et
si possible, de mettre en place des systèmes de boîtes blanches.
 Mettez en doute l'algorithme et assurez-vous qu'il n'y a aucune discrimination.
Quand l'algorithme est en phase de formation, les équipes scientifiques s assurent de mettre en place
un outil efficient. Aussi, elles contrôlent le taux de retour des faux positifs par la machine. Compte
tenu de l'absence de risque 0, sans hésiter à contester les résultats de l'outil de temps à autre
(statistiquement ou aléatoirement) afin de garantir son efficacité continue. De plus, grâce à la
formation, l'apprentissage automatique connaîtra finalement des modèles de fraude de plus en plus
spécifiques. En outre, si dans toutes ses bases de données l'algorithme a été en mesure d'identifier que
les flux en provenance d'un pays particulier étaient frauduleux, À long terme, il est possible de classer
ce pays comme synonyme systématique de fraude. En d'autres termes, cet instrument peut être
discriminatoire. Nous devons être en mesure de garder la main sur son évolution et de nous assurer
que l'outil est non discriminatoire.
 Songez à renouveler les compétences dans la profession.
On peut légitimement considérer que les auditeurs titulaires d'une maîtrise (DSCG, ingénieur, business
school, CCA, etc.) seront les premiers concernés par l'arrivée de l'apprentissage automatique. En effet,
sans se substituer à l'esprit critique du CAC, il sera néanmoins en mesure d'effectuer le travail
d'auditeurs adjoints. Cependant, pour acquérir un niveau d'expertise plus élevé, le vérificateur destiné à
la profession de CCC devra suivre une formation dans le domaine et développer son jugement
professionnel. Pour conserver un savoir-faire, développer son scepticisme professionnel apprendre à
lire les informations cachées derrière les chiffres comptables, le contrôleur des comptes doit être
supervisé par un CAC. Ainsi, nous ne devons pas négliger le recrutement d'assistants en faveur de
l'utilisation des outils de machine learning.
 Former et sensibiliser les équipes d’audit
Grâce aux publications et aux manifestations organisées par l'OEC, le CCCN et les CRCC, et les
vérificateurs titulaires du CAFCAC profitent de la formation et de l'information sur l'évolution des
61
pratiques professionnelles. Il lui incombe de transmettre ses connaissances acquises à ses équipes de
vérification dans le domaine des machines inclinables. Cela est d'autant plus important que les
collaborateurs aident à récupérer les données, à préparer les bases de données et à lancer le traitement
algorithmique. Il est également nécessaire que les collaborateurs aient à l'esprit toutes les questions
relatives à l'usage de l'apprentissage automatique pour les besoins de l’audit
 Demeurez proactifs.
Les innovations techniques soulèvent le problème de la complémentarité et du remplacement du
facteur travail (homme) par le facteur capital (machine). En ce qui a trait à la vérification, il y a
plusieurs points de vue. Les modèles algorithmiques facilitent la planification du vérificateur,
estimation des provisions, investigation de fraude, revues analytiques de validation, contrôle interne,
édition de rapport, évaluation des actifs, tests de dépréciation et inventaires. Avec un niveau de
participation aussi élevé aux travaux d'audit, le CAC doit demeurer proactive dans sa mission et
prendre soin de ne pas être dépassée par les capacités de la machine.
62
Conclusion :
À titre de rappel, notre étude était structurée en fonction de la question suivante : « Comment
l'apprentissage automatique peut-il améliorer la détection des fraudes dans le travail du commissaire
aux comptes sur la FEC ? »
En fin de compte, l'apprentissage machine « permet d'accomplir des tâches auparavant impossibles à
atteindre parce que trop fastidieux ou économiquement non profitable » Dans le cas particulier de
l'entrevue sur le dossier des écritures comptables, il est inconcevable de passer en revue les millions de
lignes qui le composent. En fait, le CAC n'est lié que par une obligation de moyens et sa démarche par
des risques lui permet de concentrer son travail là où il estime qu'une fraude est la plus probable.
Cependant, l'efficacité du machine learning change le paradigme par sa capacité à analyser les états
financiers plus en détail en concaténant les modèles algorithmiques. Cela corrigerait les limitations
cognitives et émotionnelles du vérificateur et l'aiderait à repérer les fraudes.
Même si les adjoints et les collaborateurs ont un rôle à jouer en tant que cueilleurs et préparateurs de
données, le contrôleur légal des comptes utilise le temps ainsi économisé pour recentrer son activité et
attribuer du temps de travail aux analyses qui exigent le plus. Grâce à l'adoption de ces outils, les
vérificateurs auront de nouvelles responsabilités, y compris la formation, le jugement professionnel et
la gestion des données. Toutefois, cet outil, compte tenu des contraintes d'exécution qu'il présente, doit
d'abord présenter un intérêt stratégique pour l'entreprise.
Le rapport de 2012 de l'ACFE estime le taux moyen de détection de fraude par vérification interne à
14 % et à seulement 3,3 % par vérification externe la même année. Avec une efficience proche de plus
de 100%, on pourrait se demander si l'introduction de ces outils, s'ils se révèlent aussi efficaces,
renforcerait la responsabilisation du CAC en ce qui concerne la fraude.
La machine learning dispose de beaucoup d'avantages, efficace et avec des résultats pertinents, la seule
question qui reste à poser : « en cas de non-détection de fraude, qui assumeront la responsabilité
juridiquement ? ».
63
Table des annexes :
Annexe 1 : Description des paramètres du cas Jet X ..…………………………………...…………....65
Annexe 2 : Les 10 partis pris de décision les plus importants…………………….....………………...68
Annexe 3 : Examen de l'incertitude et rétablissement du jugement……………………………….......70
Annexe 4 : Entre explication et efficience d'algorithmes. ……………………………….....…………71
Annexe 5 : Base de données proposée à utiliser comme complément du FEC…………………….….72
Annexe 6 : Recommandation – Plan d'instruction interne proposé .….…….……….…...... …………73
64
Annexes :
Annexe 1 : Description des paramètres du cas Jet X
Annexe 1.1 : les 14 tests pris en charge par le JET et leur intérêt dans le dans le cas Jet X
Test
reconciliation
Description
Characteristics of potential audit interest
Areas of
Entries
Entries
Entries
Entries
Entries
potential
made to
made by
recorded
made
that
audit
unsual
individuals
at the
either
contain
interest
unrelated
who
end of
before or
round
or
typically
the
during
numbers
seldom
don’t
period
the prepa
and
make
or as
of the
recurring
entries
post-
financ
digits
closing
statement
Comparison of downloaded
x
journal entry activity to trial
balance activity
Test 1 :
Seldom used accounts
X
X
Test 2 :
Usually large/small entries
X
X
Test 3 :
Journal entries made to
x
X
unrelated accounts
Test 4 :
Users who seldom post
X
X
journal entries
Test 5 :
Entries containing keywords
X
of interest
Test 6 :
Journal entries made after
x
X
period end with little or no
description
Test 7 :
Journal entries with
x
X
integrity issues
Test 8 :
Back dated and pre dated
X
journal entries
Test 9 :
Large income statement
credits posted before quarter
end
X
Test 10 :
Large revenue debits after
X
quarter end
Test 11 :
Journal entries with round
X
X
X
X
X
X
numbers and recurring
digits
Test 12 :
Potential duplicate journal
entries
Test 13 :
Benford’s law
Test 14 :
Entries posted on
x
weekends/holidays
Source : Deloitte
66
Annexe 1.2 : Population du Jet X
Population standard/ non-standard overview
Percent of journal entries
non standard
standard pop
Percent of entry amount
NON STANDARD
standard pop
Source : Deloitte
67
Annexe 2 : Les 10 partis pris de décision les plus importants
Les auteurs et les dates associées concordent avec les publications fondamentales de ces principes. Il
peut y avoir de vieilles publications sur le sujet ou des mises à jour plus récentes de la part des auteurs
eux-mêmes ou d'autres chercheurs.
Biais
auteurs
année
conclusion
Actualisation
Frederick et al.
2002
Quand un choix doit être fait, la personne peut prendre deux décisions
différentes d'un jour à l'autre et que la satisfaction maximale dépend
hyperbolique
de la combinaison de décision qui varie au fil du temps.
Ancrage &
Tversky &
ajustement
Kahneman
1974
Dans un cadre donné, la décision sera subordonnée par une valeur
d'ancrage dominante au sein d'un groupe. Le décideur agit
conformément à ce qu'il sait de la volatilité de cette valeur d'ancrage
(phase d'ajustement).
Aversion à
Ellsberg
1961
l’incertitude
Grâce à un paradoxe, Ellsberg montre que la plupart des décisions
sont prises quand la probabilité de réalisation est connue.
Aversion à la
Tversky &
perte
Kahneman
1991
Une personne aura beaucoup plus de poids à perdre qu'à gagner la
même somme. Cette aversion n'encouragera en rien la prise de
risques.
Biais de
Watson
1960
Une personne «attire la vérité» à elle-même à partir de l'instant
lorsqu'elle sélectionne les informations de façon à favoriser les
confirmation
données qui confirment son raisonnement a priori et inversement celui
qui contredit son raisonnement.
Biais de
Tversky &
disponibilité
Kahneman
1974
Le biais de disponibilité est utilisé lorsqu'une décision est prise sur la
base d'une surestimation de l'information immédiatement disponible.
Cela vaut notamment pour les situations de crise, de stress ou de
pression hiérarchique.
Biais de
Tversky &
représentativité
Kahneman
1983
Biais cognitif selon lequel les « éléments de personnalisation »
parasitent la plus grande partie de l'information permettent un
jugement rationnel (charisme, stéréotypes, vêtements, etc.)
Biais du tireur
Thompson
2009
Le sophisme de Thompson décrit la situation dans laquelle une
personne déduit des liens de causalité de scénarios présentant des
texan
caractéristiques semblables. Ce sont des pensées sournoises.
Equilibre de
Nash
Nash
1994
En jeu, la solution sans collaboration entre les «joueurs» peut
conduire à une stratégie «dominante» pour chacun des joueurs afin
qu'il minimise ses risques. J.Nash fait remarquer que cette stratégie
mène à un équilibre sous-optimal en l'absence de collaboration.
68
Excès de
johnson &
confiance
Fowler
2009
Situation où l'individu pense qu'il peut contrôler l'incontrôlable et ne
se sent pas exposé aux situations de risque. Il pense qu'il peut
optimiser sa satisfaction en ignorant l'incertitude.
Source : série youtube « Crétin de cerveau », et Biais cognitif — Wikipédia (wikipedia.org)
69
Annexe 3 : Examen de l'incertitude et rétablissement du jugement
questionner la prémisse de base :
l'imperfection de la modélisation des phénomènes économiques et des
incertitudes dans la représentation comptable des phénomènes
économiques.
l'industrie et la
normalisation du
processus d'audit.
pression
économique/motivation.
Opinion
professionnel de
CAC
facteurs psychiques et
émotionnels.
consentement
Le respect des règles comptables dans
les états financiers.
Accréditation
Refus d’accréditation ou
accréditation avec réserves
Source : Milédi et Pigé (2013, p.11)
70
Annexe 4 : Entre explication et efficience d'algorithmes
Source : accuracyvsexplainability.png (733×352) (lemonde.fr)
71
Annexe 5 : Base de données proposée à utiliser comme complément du FEC
Etudes comportementales
Données bancaires

Etude de comportement
Contrôle interne
des individus

RIB

Virements

Transferts

… (etc.)


Détection des profils de

Évaluation du risque.
type fraudeur

Hommes clés

… etc.
… (etc.)
Base de données des ERP

Fichiers de stocks

Registre des immobs.

.. etc.
Informations financières

Cours de bourse

Volumes des transactions

… etc.
Source : moi-même
72
Annexe 6 : Recommandation – Plan d'instruction interne proposé
73
74
75
76
77
78
79
Source : Léopold Wenger
80
Bibliographie :
 Articles de recherche
Bouzon A., Couzinet V. et Normand R. (1996), Les Doctorants livrés à la recherche documentaire,
Bulletin des bibliothèques de France (BBF), 6, 54-59.
Carassus D. et Cormier D. (2003), Normes et pratiques de l'audit externe légal en matière de
prévention et de détection de la fraude, Comptabilité Contrôle Audit, 1, 171-188.
Chanut V., Guibert N., Rojot J. et Dubois P. (2011), Les limites de la rationalité limitée ? Un essai de
réflexion en sciences de gestion, Revue management & avenir, 48, 97-117.
Chanut V., Guibert N. et Rojot J. (2011), La rationalité limitée en gestion : état des lieux et
perspectives, Revue management & avenir, 48, 94-96.
Collins J. C. (2017), Using Excel and Benford's Law to detect fraud, Journal of accountancy, 223, 4, 4550.
Dagorn N., Biot-Paquerot G. et Didierjean A. (2013), Peut-on faire mentir les chiffres?
L'embellissement des informations financières par la comptabilité d'intention, Revue française de
gestion, 231, 88-101.
Debreceny R. S. et Gray G. L. (2010), Data mining journal entries for fraud detection: An exploratory
study, International Journal of Accounting Information Systems, 11, 3, 157-181
Denis J-P. (2009), Entre finance et stratégie : Calcul, mimétisme… exemplarité?, Revue française de
gestion, 8, 198-199, 95-123.
Durtschi C., Hillison W. et Pacini C. (2004), The effective use of benford's law to assist in detecting
fraud in accounting data, Journal of forensic accounting, 5, 1, 17-34.
Dumez H. (2011), Qu’est-ce que la recherche qualitative?, Le Libellio d’Aegis, 7, 4, 47-58
Fay R. et Negangard E. M. (2017), Manual journal entry testing: Data analytics and the risk of fraud,
Journal of Accounting Education, 38, 37-49.
Gonthier-Besacier N., Hottegindre G. et Fin-Falcy S. (2012), Les facteurs d’influence dans la qualité de
l’audit : Perception des préparateurs de l’information financière, Comptabilité Contrôle Audit, 18, 3372.
Hajek P. et Henriques R. (2017), Mining Corporate Annual Reports for Intelligent Detection of
Financial Statement Fraud – A Comparative Study of Machine Learning Methods, KnowledgeBased
Systems, 128, 139-152.
Johnson S., Ryan H. et Tian Y. (2009), Managerial incentives and corporate fraude: The sources of
incentives matter, Review of finance, 13, 115-145.
Lanza R. B. et Gilbert Scott (2007), A risk-based approach to journal entry testing, Journal of
accountancy, 204, 1, 32-35.
Le Maux J., Smaili N. et Ben Amar W. (2013), De la fraude en gestion à la gestion de la fraude : Une
revue de la littérature, Revue française de gestion, 231, 2, 73-85.
81
Ndofor H., Wesley C. et Priem R. (2015), Providing CEOs with opportunities to cheat: The effects of
complexity-based information asymmetries on financial reporting fraud, Journal of Management, 41,
6, 1774-1797.
Meiller Y. (2017), Intelligence artificielle, sécurité & sûreté, Sécurité & stratégie, 28, 4, 75-84.
Monin M. et Dablin G. (2018), L’Intelligence Artificielle pour répondre aux exigences réglementaires,
Revue Banque, 819, 93-95.
Nigrini M. J. (2017), Audit Sampling Using Benford's Law: A Review of the Literature with Some New
Perspectives, Journal of Emerging Technologies in Accounting, 14, 2, 29-46.
Pearson T. A. et Singleton T. W. (2008), Fraud and Forensic Accounting in the Digital Environment,
Issues in accounting education, 23, 4, 545-559.
Perols J. (2011), Financial statement fraud detection: an analysis of statistical and machine learning
algorithms, Auditing: A Journal of Practice & Theory, 30, 2, 19-50.
Sirois L-P, Marmousez S. et Simunic D. A. (2016), Proposition d’une nouvelle approche de la relation
entre la taille de l’auditeur et la qualité de l’audit : l’importance de la technologie d’audit,
Comptabilité Contrôle Audit, 3, 111-144.
Song X-P., Hu Z-H., Du J-G. et Sheng Z-H (2014), Application of machine learning methods to risk
assessment of financial statement fraud: evidence from china, Journal of Forecasting, 33, 611-626.
 Conférences
Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France (disponible à
l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY).
Berthet C. (2018), L’intelligence artificielle et le droit, JUREM, Paris, France.
Ginouvès V. (2008, MàJ 2009), Recherche documentaire sur l’internet en SHS, Aldébaran, (disponible
à l’adresse suivante : https://journals.openedition.org/aldebaran/5822?file=1).
Gramfort A. (2017), Scikit-learn : From Zero to Hero, BlendWebMix, Paris, France (disponible à
l’adresse suivante : https://www.youtube.com/watch?v=ZD5lJGq1rvQ&t=6s).
LeCun Y. (2015), Deep Learning, Unexpected Sources of Inspiration, Paris, France (disponible à
l’adresse suivante : https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s).
 Rapports d’institutions
Association of Certified Fraud Examiners (2012), L’étude 2012 sur la fraude (Report of the Nations),
Sommaire de l’enquête mondiale par l’ACFE sur la fraude en entreprise.
CNIL (2017), Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes
et de l’intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission
de réflexion éthique confiée par la loi pour une république numérique.
Conseil National de l’Ordre des Médecins (2018), Médecins et patients dans le monde des data, des
algorithmes et de l’intelligence artificielle, Analyses et recommandations du Cnom.
82
France Stratégie (2018), Intelligence artificielle et travail, Rapport à la ministre du Travail et au
secrétaire d’Etat auprès du Premier ministre, chargé du Numérique.
#FranceIA (2017), France Intelligence Artificielle, Rapport de synthèse des groupes de travail du
gouvernement, (p209-260).
Bibliographie secondaire
Benford F. (1938), The Law of Anomalous Numbers, Proceedings of the American Philosophical
Society, 78, 4, 551-572.
Blanchet A. et Gotman A. (2007), L'entretien : L'enquête et ses méthodes, Armand Collin, 2 ème
édition. Discksee L.R (1905), Auditing, New York, Editions
Robert H. Montgoméry. Flint D. (1988), Philosophy and principles of auditing, Macmillan Education,
Université de Californie, p.48
Montgoméry R.H (1913), Auditing: Theory and Practice, New York, Ronald Press Company.
Neff K. D. (2003), Development and validation of a scale to measure self-compassion, Psychology
press Taylor & Francis group, 2, 223-250.
Nobes C. (1995), L’objectif du rapport annuel et de l’audit externe, Revue française de comptabilité,
263, 11-13.
Shelton S. W., Whittington O., et Landsittel D. (2001), Auditing Firms' Fraud Risk Assessment
Practices, Accounting Horizon, 15, 1, 19-33.
Wang D., Khosla A., Gargeya R., Irshad H. et Beck A. H. (2016), Deep Learning for identifying
metastatic breast cancer, Beth Israel Deaconess Medical Center (BIDMC) et Harvard MEDICAL School.
83
Téléchargement