Il En préambule à ce mémoire nous remerciant ALLAH qui nous aide et nous donne la patience et le courage durant ces longues années d’étude. Je souhaite adresser mes remerciements les plus sincères aux personnes qui m’ont apporté leur aide et qui ont contribué à l’élaboration de ce mémoire ainsi qu’à la réussite de cette formidable année scolaire. Ces remerciements vont tout d’abord au corps professoral et administratif de L’ECOLE DE COMMERCE ET DE MANAGEMENT : TOULOUSE BUSINESS SCHOOL, pour la richesse et la qualité de leur enseignement et qui déploient de grands efforts pour assurer à leurs étudiants une formation actualisée. Je tiens à remercier sincèrement Monsieur YASSINE CHERRAT qui, en tant qu’encadrant de ce mémoire, qui s’est toujours montré à l’écoute et très disponible tout au long de la réalisation de ce travail, ainsi pour l’inspiration, l’aide et le temps qu’il a bien voulu me consacrer et sans qui ce mémoire n’aurait jamais vu le jour. Sans oublier mes parents pour leur contribution, leur soutien et leur patience. Enfin, j’adresse mes plus sincères remerciements à tous mes proches et amis, qui m’ont toujours encouragée au cours de la réalisation de ce mémoire. Merci à tous et à toutes. Remercîment Sommaire : I. Table de matières………………………………………………………………………………….…………………………2 Tableaux……………….…………………………………………………………………………………………………………3 Table des illustrations………………………………………………………………………………………………………4 Avant-propos………………………………………………………………………………………………..…………………5 L’intelligence artificielle : Apparition, ses fruits et ses réalisations dans des divers domaines (Assurance, Marketing…)…………………………………….............................................................6 Le machine Learning : une méthode future pour l’audit dans le discernement de la fraude……………………………………………………………………………………………………………………………….10 1. Définition, histoire, rôles, son impact sur l’identification des fraudes dans le domaine d’audit…………………………………………………………………………………………..14 2. Intelligence artificielle et audit : d'une approche axée sur les risques à une approche digitalisée…………………………………………………………………………………………………….15 3. Le cadre juridique et les pratiques disponibles pour un auditeur…………………..15 4. Passage de la pensée restreinte à l'abstraction émotionnelle : d’une amorce à l'intelligence artificielle………………………………………………………………………………..22 5. Développements dans la pratique de l'audit grâce à l'intelligence artificielle : la révolution du machine learning……………………………………………………………………27 6. La neutralité et la fiabilité de la machine learning et son assujettissement à une complexité de mise en œuvre………………………………………………………………………28 II. Investigation sur le terrain, Analyse des résultats et recommandations…………………………..38 1. Méthodologie de l’investigation sur le terrain………………………………………………………………….38 1.1. Les différentes méthodes d'enquête et leur relevance……………………………………38 1.2. Désignation des répondants………………………………………………………………………….41 1.3. Les guides d'entretien……………………………………………………………………………………42 2. Contrôle des hypothèses de recherche - Examen des résultats d'entrevues……………………..51 2.1. affichage et étude des résultats obtenus par l'entrevue…………………………………51 2.2. vérification de pertinence des démonstrations de recherche………………………….55 2.3. recommandations et consignes……………………………………………………………………..57 Conclusion :……………………………………………………………………………………………………………….63 Table des annexes :……………………………………………………………………………………………………64 Annexes :…………………………………………………………………………………………………………………..65 Bibliographie :……………………………………………………………………………………………………………81 2 Tableaux : Tableau 1 : Cadre juridique et règlementaire pour les fraudes d'audit…………………………17 Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude…..……………20 Tableau 3 : Quatre-vingt-huit plus grands scandales comptables………………………….……25 Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs……………...........30 Tableau 5 : Exemple d’illustration du paradoxe de Simpson…………………………………….36 Tableau 6 : récapitulatif des approches d’investigation……………………………………….....40 Tableau 7 : Liste des répondants approchés (Modifié pour préserver son anonymat)……….41 Tableau 8 : Synthèses des hypothèses de recherche……………………………………………….43 Tableau 9 : Manuel d'entrevues pour les CAC qui n'adoptant pas Le machine learning….…45 Tableau 10 : Manuel d'entrevues pour les CAC qui adoptant Le machine learning…………47 Tableau 11 : Manuel d'entrevues pour les professionnels du machine learning………………49 Tableau 12 : Guide d’entrevues liées au Benchmarking………………………………………….50 Tableau 13 : Liste des répondants interrogés dans le cadre de l’entrevue terrain (Modifié pour des garder l’anonymat)………………………………………………………………………….52 Tableau 14 : Vérification des hypothèses de recherche…………………………………………...55 3 Table des Illustrations : Illustration 1 : Triangle de Kranacher & al. (2020) et Dorminey (2012) comparé à celui de Cressey (1950……………………………………………………………………………………...……18 Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission, équipe/cabinet et réglementation……………………………………………………………………..24 Illustration 3 : L'apprentissage machine au croisement de deux concepts………………………28 Illustration 4 : Variation des principales applications de l'apprentissage machine…………….29 Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning……………....32 Illustration 6 : cadre et paramètres expérimentaux………………………………………………..35 Illustration 7 : Guide pratique en 10 points sur l'utilisation correcte de l'apprentissage automatique par les sociétés d’audit…………………………………………………………………59 4 AVANT PROPOS Extrêmement ému par les transformations technologiques et plus précisément l’intelligence artificielle, le choix de ce sujet et le fait de m’approfondir dans sa recherche m’a permis de lier mes centres d’intérêt et mon domaine des études . C’est au travers des profonds recherches, et études que j’ai été amenée à réaliser sur les étapes de mener une mission d’audit et la détection de la fraude. Aussi, le choix de ce sujet m’a permis d’apprendre les pratiques qui appliquent les professionnels dans le domaine et mieux comprendre les origines et les enjeux des travaux menés par les commissaires aux comptes (CAC). La première partie de ce mémoire présente L’intelligence artificielle, Apparition, ses fruits et ses réalisations dans des divers domaines (Assurance, Marketing…). La seconde partie aborde le sujet de << L'intelligence artificielle & L'audit - le machine e- Learning et son rôle dans la découverte de la fraude d'audit >>.Elle se décompose en une revue de littérature (articles de recherche, presse, MOOCs, etc.) et sa confrontation avec les discours des chercheurs et des professionnels du monde de l’audit et du Machine Learning. Conformément à la méthodologie de livret mémoire professionnel pour l’obtention d’un grade de master. J’utilise le << nous >> de modestie pour m’adresser aux lecteurs. L’intelligence artificielle : Apparition, ses fruits et ses réalisations dans des divers domaines (Assurance, Marketing…). « Réussir à créer une intelligence artificielle efficace pourrait être le plus grand évènement de l'histoire de notre civilisation, ou le pire. Nous ne savons tout simplement pas. Nous ne pouvons donc pas savoir si nous seront infiniment aidés par l'intelligence artificielle, ou ignorés par elle et écartés ou éventuellement détruits par elle » Ces mots, prononcés par Stephen Hawking, à l'occasion de son discours d'ouverture de la Web Summit 20174, témoigne du contexte actuel englobant l'essor de l'intelligence. Introduction : L’histoire de l’intelligence artificielle débute en 1943, avec la publication de l’article « A Logical Calculus of Ideas Immanent in Nervous Activity. » par Warren McCullough et Walter Pitts. Dans ce document, les scientifiques présentent le premier modèle mathématique pour la création d’un réseau de neurones. Le premier ordinateur à réseau de neurones, Snarc, sera créé en 1950 par deux étudiants de Harvard : Marvin Minsky et Dean Edmonds. La même année, Alan Turing publie le Turing Test qui sert encore aujourd’hui à évaluer les IA. En 1952, Arthur Samuel crée un logiciel capable d’apprendre à jouer aux échecs de manière autonome. Le terme d’intelligence artificielle, quant à lui, sera prononcé pour la première fois durant la conférence « Dartmouth Summer Research Project on Artificial Intelligence. » de John McCarthy en 1956. Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Beaucoup considèrent cette conférence comme la véritable naissance de l’intelligence artificielle telle qu’elle est connue aujourd’hui. En 1959, Arthur Samuel invente le terme de Machine Learning en travaillant chez IBM. De leur côté, John McCarthy et Marvin Minsky fondent le MIT Artificial Intelligence Project. En 1963, John McCarthy crée aussi le » AI Lab » de l’université de Stanford. Au cours des années suivantes, le doute jettera un froid sur le domaine de l’IA. En 1966, le rapport américain ALPAC souligne le manque de progrès dans la recherche en traduction automatique visant à traduire le langage russe instantanément dans un contexte de guerre froide. De nombreux projets financés par le gouvernement des États-Unis seront annulés. De même, en 1973, le gouvernement britannique publie son rapport » Lighthill » mettant en lumière les déceptions de la recherche en IA. Là encore, des coupes budgétaires viennent entailler les projets de recherche. Cette période de doute s’étendra jusqu’en 1980, et est aujourd’hui qualifiée de » premier hiver de l’IA «. 6 Cet hiver prendra fin avec la création de R1 (XCON) par Digital Equipment Corporations. Ce système expert commercial est conçu pour configurer des ordres pour nouveaux systèmes informatiques, et provoque un véritable boom des investissements qui se poursuivra pendant plus d’une décennie. Le Japon et les États-Unis investissent massivement dans la recherche en IA. Les entreprises dépensent plus d’un milliard de dollars par an dans les systèmes experts et l’industrie se développe. Malheureusement, le marché des machines » Lisp » s’effondre en 1987 face à l’apparition d’alternatives moins onéreuses. C’est le » deuxième hiver de l’IA «. Les entreprises perdent leur intérêt pour les systèmes experts. Les gouvernements américains et japonais abandonnent leurs projets de recherche, et des milliards de dollars ont été dépensés pour rien. Dix ans plus tard, en 1997, l’histoire de l’IA est marquée par un événement majeur. L’IA Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, l’Homme est vaincu par la machine. Dix ans plus tard, les avancées technologiques permettent un renouveau de l’intelligence artificielle. En 2008, Google réalise de formidables progrès dans le domaine de la reconnaissance de discours et lance cette fonctionnalité dans ses applications pour smartphones. En 2012, Andrew Ng nourrit un réseau de neurones à l’aide de 10 millions de vidéos YouTube en guise d’ensemble de données d’entraînement. Grâce au Deep Learning, ce réseau de neurones apprend à reconnaître un chat sans qu’on lui ait appris ce qu’est un chat. C’est le début d’une ère nouvelle pour le Deep Learning. Nouvelle victoire de l’IA sur l’Homme en 2016, avec la victoire du système AlphaGo de Google DeepMind sur Lee Sedol, le champion de jeu de Go. L’intelligence artificielle conquiert aussi le domaine du jeu vidéo, avec notamment DeepMind AlphaStar sur Starcraft ou OpenAI Five sur Dota. Le Deep Learning et le Machine Learning sont désormais utilisés par les entreprises de toutes les industries, pour une multitude d’applications. L’IA ne cesse de progresser et surprendre par ses performances. Le rêve d’une intelligence artificielle générale se rapproche de plus en plus de la réalité… Dans un contexte où les données occupent une place fondamentale dans l'économie numérique, l'intelligence artificielle semble s'imposer non seulement comme une réponse concrète au traitement des données, mais également de tirer profit des données afin de fonder de nouveaux modèles disruptifs pour les entreprises. Dans sa Communication du 25 avril 2018 sur l'Intelligence artificielle pour l'Europe, la Commission européenne soulignait que « l'intelligence artificielle (IA) désigne les systèmes qui font preuve d'un comportement intelligent en analysant leur environnement et en prenant des mesures - avec un certain degré d'autonomie - pour atteindre des objectifs spécifiques. Les systèmes dotés d'IA peuvent être purement logiciels, agissant dans le monde virtuel (assistants vocaux, logiciels d'analyse d'images, moteurs de recherche ou systèmes de reconnaissance vocale et faciale, par exemple) mais l'IA peut aussi être intégrée dans des dispositifs matériels (robots évolués, 7 voitures autonomes, drones ou applications de l'internet des objets, par exemple) ». Toutefois, cette définition ne se concentre que sur l'aspect fonctionnel, par référence aux systèmes, support de l'intelligence artificielle. Le Conseil de l'Europe, très actif s'agissant des questions liées aux rapports entre les libertés fondamentales et l'intelligence artificielle, définit cette dernière comme « l'ensemble de sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle, informatique) qui ambitionne d'imiter les capacités cognitives d'un être humain. Initiés dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de l'informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne pouvaient être auparavant que déléguées à un humain ». Laissant entrevoir de larges perspectives économiques, le cabinet IDC, dans ses dernières prévisions, estimé que les dépenses mondiales en intelligence artificielle devraient atteindre les 110 milliards de dollars en 2024. Plus particulièrement, le cabinet estime qu'au regard des nouvelles possibilités offertes par l'intelligence artificielle s'agissant de l'organisation du travail et de relation client, ce sont principalement les secteurs de la vente au détail et de la finance qui dépenseront le plus en solutions d'intelligence artificielle. L'intelligence artificielle est au cœur des recherches, des débats et bien souvent sujet à critique aujourd'hui : que ce soit par l'intermédiaire des entreprises multinationales, spécialisées ou locales mais également par l'intermédiaire d'organisations, touchant ainsi de multiples secteurs à des degrés divers. Son utilisation est grandissante au sein des entreprises, particulièrement dans les services marketing, comptabilité, assurance, médecine et dans d’autres services. Et plus spécifiquement à des fins prédictives et stratégiques, grâce à l'ensemble des données offertes par le BIG Data notamment. Des perspectives positives sont à prévoir, autant sur les technologies que sur l'utilisation des outils marketing. John McCarthy et Marvin Minsky sont les premiers à avoir utilisé l’expression « intelligence artificielle » en 1955. À cette époque, ils croyaient que l’IA générale allait être possible dans quelques années. Mais la technologie nécessaire pour faire des recherches sur l’IA coûtait très cher. La recherche en IA a évolué plus rapidement dernièrement parce que les scientifiques ont pu utiliser l’apprentissage machine. L’apprentissage machine est beaucoup plus rapide que la programmation informatique faite par les humains. L’intelligence artificielle est davantage liée au processus et à la capacité de réflexion et d’analyse de données approfondies au maximum qu’à un format ou une fonction particuliers. Bien que l’intelligence artificielle évoque des images de robots ultraperformants ressemblant à des humains et envahissant le monde, l’intelligence artificielle n’est pas destinée à nous remplacer. Elle vise à améliorer de manière significative les capacités et les contributions humaines. Cela en fait un atout commercial très précieux. L’intelligence artificielle ne cesse d’avancer et de se développer ce que explique le fait qu’elle touche à des domaines divers autre que l’audit comme MARKETING,LES ASSURANCES,LA MEDECINES…ECT, où on voit vraiment la progression de ses résultats. 8 Comme par exemple dans le domaine du MARKETING L'intelligence artificielle est aujourd'hui un moyen efficace de performer en marketing digital. Il permet notamment d'améliorer les pratiques de ciblage, de personnalisation, de création de contenu... L'engouement pour l'IA dans le domaine du marketing, tient à sa capacité à améliorer l'expérience client et donc le business, sous réserve que les règles de respect de l'individu soient respectées et que la data collectée pour nourrir l'IA soit légitime et vecteur d'un bénéfice partagé entre le consommateur et l'entreprise. Ainsi, concrètement, l'IA va contribuer à améliorer les parcours d'achat des consommateurs grâce au moteur de recherche et de recommandation, aider le Chief Marketing Officier (CMO) à mieux connaitre et anticiper les besoins des clients grâce à des scores prédictifs pour développer une meilleure relation avec eux et maximiser la performance des campagnes de communication. Enfin pour la marque, l'IA va apporter des enseignements grâce à la lecture et à l'interprétation de toute la donnée digitale sous forme de navigation, de texte, d'image ou de voix pour nourrir les créatifs qui pourront ainsi imaginer de nouvelles idées pour assoir ses valeurs et ainsi, améliorer sa considération, son image. L’Intelligence Artificielle regroupe différentes théories et techniques qui permettent de développer des programmes informatiques complexes. Ce type de programme permet de recréer en partie une intelligence humaine pour traiter d’importantes quantités d’informations. Dans de nombreux secteurs, l’IA apparaît comme une solution efficace pour optimiser et perfectionner certaines tâches. Appliquée au marketing, l’Intelligence Artificielle offre de nombreux avantages pour les entreprises et représente un véritable atout concurrentiel. Au niveau des techniques de marketing, l’IA apparaît comme un outil efficace pour améliorer la prise de décision et l’élaboration de la stratégie. En effet, l’Intelligence Artificielle permet aux équipes marketing de profiter d’outils performants. Les informations obtenues grâce à cette technologie favorisent une analyse claire et rapide des données afin d’anticiper les tendances et les futurs besoins. D’autre part, le secteur des assurances a été influencé lui aussi par les innovations connu par le monde, ce dernier marqué par l'importance de la donnée, qui constitue le cœur de l'activité assurantielle, l'intégration des procédés d'intelligence artificielle apparait comme une solution aux nouveaux besoins exprimés par les assurés, dans un contexte le secteur connait une concurrence toujours plus importante, une réglementation toujours plus contraignante en matière de portage des risques, et un volume de données en constante augmentation. En ce sens, ce contexte général pousse les assureurs à devoir se réinventer et trouver de nouveaux leviers de croissance. À cet égard, si certains auteurs qualifiaient le cloud, la data et l'intelligence artificielle comme le tiercé gagnant des assureurs, triptyque qui permettrait aux acteurs du secteur de pouvoir se démarquer par un processus de création de valeur fondé sur le numérique. Dans ce contexte où l'intelligence artificielle semble répondre aux besoins du secteur par une remise d’outils et processus prévalant et satisfaisants les attentes de ce secteur. En l'état, il est indéniable que le Deep Learning doit conduire à une mutation profonde du modèle assurantiel traditionnel. En effet, si l'intelligence artificielle peut permettre de répondre à un besoin de création de valeur par une refonte des processus et des métiers traditionnels, elle doit également permettre 9 de mieux cerner les besoins des assurés. Néanmoins, si les perspectives offertes par les procédés d'intelligence artificielle semblent positives et nécessaires dans un contexte où le besoin de personnalisation est toujours plus accentué, force est de constater que le manque de repères clairs, notamment s'agissant des règles applicables à l'intelligence artificielle, constitue un frein à son intégration dans le secteur. Le secteur de l'assurance devrait profiter du potentiel offert par le machine Learning, dont l'intégration constitue non seulement un outil de développement opérationnel et de culture des transversalités entre les différents métiers, mais également un moteur essentiel afin de voir émerger de nouvelles activités à haute valeur ajoutée. Avec ces nouvelles techniques d'approches d’audit, des changements sur la captation et l'anticipation des méthodes de détection de fraude sont mis en œuvre, mais c'est aussi en interne, au sein des entreprises, que des processus sont en cours à des degrés divers et des impacts à des échelles différentes. Les innovations dans le secteur informatique ne font que continuer et améliorer la qualité des audits légaux menés par les commissaires aux comptes (CAC) ainsi que d’optimiser le temps d’intervention. Tant sur le plan matériel que logiciel, l’outil informatique s’est mis au fur et à mesure au service des métiers de la comptabilité, et notamment l’audit. Aussi depuis la publication de WILL en 1975 1 expliquant le langage Audit command language, plusieurs travaux ont abouti au concept de Computer-aided audit tools 2 (en français, techniques d’audit assistées par ordinateur, TAAOs ). L’outil informatique qui ne cesse d’évaluer et de se développer, basé sur l’interdépendance entre l’être humain et la machine qui se trouve actuellement complété par l’outil numérique qui arrive à agir individuellement de l’intervention humaine. Le développement de l’intelligence artificielle, dont les métiers de la finance dont fortement exposant, s’inscrit dans cette tendance. En ce qui concerne le commissariat aux comptes, l’utilisation des machines et logiciels, en particulier les tableaux tel qu’EXCEL, sont devenus une nécessité. Ces dernies permettent le traitement de volumes de données toujours plus important. Aujourd’hui c’est devenu indispensable de travailler sans outil informatique, ce dernier facilite le travail de l’auditeur et parfois engendre des bénéfices de qualité par la crédibilité et intégralité du traitement qu’il permet. Dans le cas particulier de la fraude, les auditeurs sont tenus lors de leurs interventions de mettre en place des tests permettant de l’identifier. Indépendamment des différents travaux spécifiques menés sur chaque cycle. 1 https://www.tandfonline.com/doi/abs/10.1080/03155986.1975.11731597 Techniques d’audit assistées par ordinateur, TAAOs sont à la disposition des auditeurs et, en particulier, des Commissaires aux comptes afin d’analyser les données d’une entreprise, parallèlement aux techniques de sondages sur les procédures. (CNCC) 2 10 I. Le machine Learning : une méthode future pour l’audit dans le discernement de la fraude. Le processus que nous suivons dans le cadre du test de la fraude consiste généralement à effectuer un test de détail sur la base du FEC (fichier des écritures comptables) et à immatriculer les sources potentielles de fraudes au travers d’un questionnaire permettant la compréhension des méthodologies de contrôle et l’environnement de l’entité auditée. Le test sur FEC, plus communément connu sous le nom de JET (Journal Entry Testing), s’apparente à la démarche que suit le machine Learning (en français, apprentissage automatique), à la différence près que la sélection découle d’un arbitrage humain sur la base de nos considérations quant aux origines du risque de fraude dans le FEC (libellé de l’écriture, montant saisie, date de saisie …). En effet, dans le cadre du machine Learning, l’intervention de l’homme se limite à la préparation et l’incorporation des données exhaustives dans l’algorithme et donc le rôle du capitale humain se fait seulement en début de processus. Cette transformation inscrite dans l’intelligence artificielle se définie par le groupe WHALTS comme << un type d’intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être explicitement programmés. Cette technologie s'appuie sur le développement de programmes informatiques capables d'acquérir de nouvelles connaissances afin de s'améliorer et d'évoluer d'eux-mêmes dès qu’ils sont exposés à de nouvelles données. »3 Sans oublier que l’intelligence artificielle (IA, ou AI en anglais pour Artificial Intelligence) est fortement prise comme une pratique qui consiste à mettre en œuvre des certains nombres de techniques visant à permettre aux machines d’adapter une intelligence réelle.4 L’ensemble de ces concepts s’inscrit dans le cadre général de la BIG DATA, en plein essor aujourd’hui. Déchiffrer par << métadonnées » le phénomène de BIG DATA répercute l’idée que les sociétés, les consommateurs et plus communément, l’activité économique produisent un nombre impressionnant de données brutes que les outils d’analyse ou de gestion peinent à adopter. Il en découle une volonté de vouloir maitriser ces données avec, notamment, la forme la plus avancée de L’IA au travers de procédés appelés DEEP LEARNING (en français, apprentissage profond). Très présent dans le marketing digital, Le Deep Learning tolère d’avoir, à l’aide d’algorithmes, une synthèse sur des tendances ou des classifications à partir d’une importante de données grâce à un traitement par couches successives. L’éducation algorithmique s’applique aussi dans la conduite autonome, les assurances, la finance, le médical et l’audit dans le but de détecter les anomalies. Dans ce mémoire, nous nous allons s’intéresser particulièrement à la détection de la fraude, appliquée au métier de l’audit. Alors que la prestation de commissariat aux comptes n’est tenue qu’à une obligation de moyens, l’auditeur doit 3 4 https://www.lemagit.fr/definition/Machine-Learning https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/ 11 mettre en œuvre tout ce dont il est capable dans la réalisation de son métier en vue de se prononcer sur la situation financière d’une entité5 . Dans sa condition humaine, il reste soumis à un certain nombre de contingences auxquelles l’outil numérique tend à remédier. La technologie du machine learning pourrait faire partie des supports numériques qui sont exploités dans le but d’éliminer au maximum les biais liés au raisonnement étroit au sens de Simon (1958)6 à laquelle un CAC est soumis. D’après les travaux contemporains de RICHARD THALER, qui ont permis de mettre en avant la nécessité de la prise en considération les facteurs sociologiques et psychologiques dans le comportement des agents économiques. Ses études sur la finance comportementale montrent qu’il existe une diversification de forces qui font une pression volontairement, ou non, sur les agents dans leurs processus décisionnel. Sa réflexion a commencé comme suit : « Quand les choses se compliquent, les simples mortels se prennent parfois les pieds dans le tapis. » et Il a marqué la fin de sa rationalité au sens de l’école néoclassique comme une situation dans laquelle les agents disposent de l’ensemble de l’information disponible pour agir et identifie une limite à l’homo œconomicus7. La rationalité limitée, telle qu’elle a été définie par Herbert Simon en tant qu’une idée selon laquelle la capacité de décision d'un individu est altérée par un ensemble de contraintes comme le manque d'information, des biais cognitifs ou encore le manque de temps. Dans cette optique, les décideurs ont tendance à choisir des solutions satisfaisantes plutôt qu'optimales, et que s’oppose à l’optimisation et se trouve au cœur des processus décisionnels. Selon lui, il existe trois facteurs principaux qui remettent en cause le choix d’une décision optimale : L’information disponible (et/ou cout de l’information), les motivations du décideur (psychologie, valeurs, personnalité, freins…) et sa capacité cognitive. Cette approche est à mettre en lien avec nos démarches subjectives d’approches par les risques. Qu’il s’agisse de la définition de nos seuils de matérialité8 ou des sources potentielles de risques, le résultat est le fruit d’une démarche intellectuelle et professionnelle qui nous amène à prendre une décision. Depuis la digitalisation et de numérisation des processus métier, les architectes ne dessinent plus manuellement à l’aide d’un rapporteur, L’expert-comptable et le CAC eux aussi ont commencé à numériser leur processus à travers de leur campagne « Cap sur le numérique »9. Dans le métier de l’audit, la notion de TAAOs évoqué supra qui a été définit en tant un ensemble de techniques utilisées par les auditeurs en faisant appel à l'ordinateur pour mettre en œuvre des procédures permettant d’avoir des tests plus poussés afin d’acquérir une meilleure maitrise des données comptable et financières. Egalement, dans le cadre de la détection de la fraude au travers des états financiers. 5 https://www.cncc.fr/mission-legale.html https://www.cairn.info/revue-regards-croises-sur-l-economie-2018-1-page-54.htm 7 L'homo œconomicus est une représentation théorique du comportement de l'être humain, qui est à la base du modèle néoclassique en économie. L'homme économique est considéré comme rationnel et maximisateur. 6 8 Seuil de signification global (également appelé taux de matérialité) concerne les états financiers dans leur ensemble. il repose sur les éléments raisonnablement susceptibles d'influencer les décisions économiques des utilisateurs des états financiers, prises sur la base des états financiers. 9 https://www.capsurlenumerique.ca/ 12 L’auditeur se heurte au volume de données du FEC selon la taille de l’entité auditée, mais aussi à sa dissimulation au travers. Cernée par la norme d’exercice professionnelle 240 (NEP-240)10 qui dit que « Prise en considération de la possibilité de fraudes et d'erreurs lors de l'audit des comptes », stipule que le commissaire aux comptes doit mettre en œuvre une dose d’imprévisibilité dans ses contrôles et attire la réflexion du CAC sur les différentes irrégularités illustrant la fraude et à sa distinction de l’erreur. Cette NEP révoque particulièrement que la fraude se distingue de l’erreur du fait du caractère intentionnel, matérialisé par le fait qu’elle est « généralement accompagnée de procédés destinés à dissimuler les faits » (NEP-240). Le CAC est impérativement obligé à faire « preuve d’esprit critique et tient le compte, toute au longue de sa mission d’audit, en respectant les règles d’éthiques, et du fait qu’une anomalie significative est le résultat d’une fraude qui peut exister. » (NEP-240). Eventuellement présente dans les différents cycles revus lors des missions d’audit, la méfiance de fraude aboutira à des tests spécifiques de la part de l’équipe de l’audit dans le but de s’assurer que cette dernière n’existe pas. Néanmoins, notre sujet n’as pas vocation à pointer l’ensemble des fraudes de chacun des cycles qui puissent exister, mais spontanément par l’analyse des états financiers en se basant sur le FEC11. En ce qui concerne les notions précédemment définis, de la mission légale du CAC et de ses freins potentiels, on se trouve dans l’obligation de poser les questions suivantes : « quelles sont les techniques et les tests actuels utilisé pour détecter la fraude ? », « que sont-ils leurs limites ? » « Qu’est-ce qu’une machine Learning et comment fonctionne ? » « Est-ce que cette dernière peut remplacer le rôle de l’auditeur et sa démarche ?» Ces questions spécifiques conduisent à la problématique suivante : « Comment le machine Learning va abonnir la détection de la fraude dans les travaux du CAC en utilisant le FEC ? Pour pouvoir exposer notre problématique, nous traiterons dans un premier temps l’approche par risques préconisée dans la détection de la fraude, puis nous allons présenter les rectifications attendues après l’adaptation de l’intelligence artificielle dans les différents cycles d’une mission d’audit (I). A l’issu, nous évaluerons ces éléments avec les avis des chercheurs, professionnels et d’experts dans le domaine en vue d’obtenir des consignes et des recommandations de nos analyses (II) 10 Cette norme d'exercice professionnel qui correspond à l'adaptation de la norme ISA 240 a été homologuée par arrêté du 10 avril 2007 publié au J.O. n° 103 du 03 mai 2007. Elle remplace la norme 2-105 11 https://www.compta-facile.com/fichier-des-ecritures-comptables-fec-definition-contenu-utilite/ 13 1. Définition, fonctionnement, rôles, et son impact sur l’identification des fraudes dans le domaine d’audit. Le Machine Learning ou apprentissage automatique est un domaine scientifique, et plus particulièrement une sous-catégorie de l’intelligence artificielle. Elle consiste à laisser des algorithmes découvrir des » patterns «, à savoir des motifs récurrents, dans les ensembles de données. Ces données peuvent être des chiffres, des mots, des images, des statistiques… Tout ce qui peut être stocké numériquement peut servir de données pour le Machine Learning. En décelant les patterns dans ces données, les algorithmes apprennent et améliorent leurs performances dans l’exécution d’une tâche spécifique. Pour résumer, les algorithmes de Machine Learning apprennent de manière autonome à effectuer une tâche ou à réaliser des prédictions à partir de données et améliorent leurs performances au fil du temps. Une fois entraîné, l’algorithme pourra retrouver les patterns dans de nouvelles données. Le développement d’un modèle de Machine Learning repose sur quatre étapes principales. En règle générale, c’est un Data Scientist qui gère et supervise ce procédé. La première étape consiste à sélectionner et à préparer un ensemble de données d’entraînement. Ces données seront utilisées pour nourrir le modèle de Machine Learning pour apprendre à résoudre le problème pour lequel il est conçu. La deuxième étape consiste à sélectionner un algorithme à exécuter sur l’ensemble de données d’entraînement. Le type d’algorithme à utiliser dépend du type et du volume de données d’entraînement et du type de problème à résoudre. La troisième étape est l’entraînement de l’algorithme. Il s’agit d’un processus itératif. Des variables sont exécutées à travers l’algorithme, et les résultats sont comparés avec ceux qu’il aurait dû produire. Les » poids » et le biais peuvent ensuite être ajustés pour accroître la précision du résultat. La quatrième et dernière étape est l’utilisation et l’amélioration du modèle. On utilise le modèle sur de nouvelles données, dont la provenance dépend du problème à résoudre. Par exemple, un modèle de Machine Learning conçu pour détecter les spams sera utilisé sur des emails. Le Machine Learning est massivement utilisé pour la Data Science et l’analyse de données. Il permet de développer, de tester et d’appliquer des algorithmes d’analyse prédictive sur différents types de données afin de prédire le futur. En automatisant le développement de modèle analytique, le Machine Learning permet d’accélérer l’analyse de données et de la rendre plus précise. Il permet d’assigner aux machines des tâches au cœur de l’analyse de données comme la classification, le clustering ou la détection d’anomalie. Les algorithmes ingèrent les données et délivrent des inférences statistiques, et peuvent s’améliorer de manière autonome au fil du temps. Lorsqu’ils détectent un changement dans les données, ils sont capables de prendre des décisions sans intervention humaine. 14 Pour l’heure, un humain reste toutefois nécessaire pour passer en revue les résultats des analyses produites par les algorithmes de Machine Learning. Son rôle est de donner du sens à ces résultats, ou encore de s’assurer que les données traitées par l’algorithme ne soient ni biaisées ni altérées. La data science, et particulièrement le machine learning, sont déjà aujourd’hui largement utilisés pour des problématiques telles que la détection de spams, le diagnostic médical ou encore la recommandation de contenu média. Le machine learning consiste en l’analyse des données afin de comprendre, prédire et classer l’information. Cette technologie est donc idéale pour la détection de fraude. En effet elle permet d’analyser les fraudes passées, identifier leur origine et l’environnement dans lequel elles sont commises. Ainsi, les équipes peuvent prendre des mesures et appliquer de nouveaux contrôles automatiques ou des points de vigilance à rappeler aux employés dans le cadre du plan de prévention. 2. Intelligence artificielle et audit : d'une approche axée sur les risques à une approche digitalisée. L’habileté d’un CAC est insérée par une nécessité de moyens, orientant aussi sa méthode d’audit, n’étant pas contraint d’étudier et d’analyser le fonctionnement d'un ou plusieurs de ses services afin d’expliquer chaque flux et chaque solde de l’entité, il va devoir par contre déterminer des niveaux de risques afin de prioriser ses travaux et conformer sa planification. Tandis que la profession s’est adaptée au contexte socioéconomique, l’auditeur ne reste pas moins attaché à des limites cognitives et émotives. Elle permet au commissaire aux comptes de définir les domaines où les contrôles seront approfondis, d'identifier les cycles d'activité significatifs, de planifier des interventions intercalaires pour la réalisation de certains contrôles ou le suivi de certains éléments. 3. Le cadre juridique et les pratiques disponibles pour un auditeur. En ce qui concerne le NEP 315, il est établi que le professionnel de la vérification est uniquement tenu de se concentrer sur les éléments "matériels", Cela signifie que les répercussions non significatives sur les comptes ne font l'objet que d'un examen et non d'un test approfondi (sauf dans des cas exceptionnels). Potentiellement présente dans tous les cycles comptables, la fraude est abordée à l'aide de diverses méthodes comme le Registre des transactions diverses (DO) ou le FEC. Amélioration du rôle de l’auditeur au regard de la Fraude 15 Juridiquement, la fraude est un acte « réalisé en utilisant des moyens déloyaux destinés à surprendre un consentement, à obtenir un avantage matériel ou moral indu ou réalisé avec l'intention d'échapper à l'exécution des Lois.»12 Le droit pénal définit la fraude comme une escroquerie ou un acte de mauvaise foi « Par lequel on lèse quelqu’un en se soustrayant aux règlements.»13 Dans la circonférence comptable, la fraude est définit comme suit : « La fraude comptable est un acte intentionnel commis par des parties liées à une entreprise (direction, employés, clients, etc.) qui est effectué dans le but d'obtenir un avantage déloyal ou illégal par le biais de la tromperie.»14, Les normes d’Exercice Professionnel (NEP) de la CNCC, considère la fraude comme un acte « les actes intentionnels portant atteinte à l'image fidèle des comptes et de nature à induire en erreur l'utilisateur de ces comptes. » Autrement dit : un détournement d’actifs. La mission d’un auditeur est de recueillir et d’analyser les données et les informations financières d’une entreprise afin de confirmer l’exactitude de ses comptes publiés. Son rôle dans la détection de fraudes a évolué selon les contextes socioéconomiques. Carassus et Cormier (2003) rappellent que jusqu’au début du XX éme siècle, selon eux les objectifs d’un audit légal se résume en 3 : premièrement, de détecter les fraudes, deuxièmement, de détecter les erreurs techniques, troisièmement, de détecter les erreurs de principe comptable15. Ce classement des objectifs a été construit par Dicksee dans son œuvre Auditing de 190516. Le rapport de Montgoméry qui a été publié en 1913 met en premier lieu la conformité aux principes comptables et la rectification des erreurs, faisant de l’identification de la fraude un rôle inférieur dans la mission du CAC. La règle des 3D (Déréglementation, Désintermédiation et Décloisonnement.)17Apparu après la fin des trente glorieuses et qui a dû changer et donner à nouveau aux CAC un rôle précieux celui de garant de la transparence et de fiabilité sur les marchés. C’est l’assurance que les comptes présentent une image fiable des données publié par une société et qui devient le premier objectif de la mission d’audit, 8% des CAC seulement qu’ont considéraient que la prévention et la détection de la fraude est l’objectif principale de l’audit des comptes en 1995 selon l’enquête de NOBES. Aujourd’hui, la finalité de l’audit légal comprend plusieurs objectifs complémentaires sont on cite : 12 https://www.dictionnaire-juridique.com/definition/fraude.php https://www.cnrtl.fr/definition/fraude 14 https://economy-pedia.com/11030577-accountingfraud#:~:text=La%20fraude%20comptable%20est%20un,le%20biais%20de%20la%20tromperie. 15 file:///C:/Users/hp/Downloads/CCA_091_0171.pdf 16 https://fr.scribd.com/document/81308225/Auditing-a-Practical-Manual-for-Auditors-Lawrence-R-Dicksee1905 13 16 Exprimer une opinion sur la fiabilité des états financières au regard de la situation financière des résultats des opérations de l’organisation. Fournir des contrôles sur les mentions des états financières et sur le processus comptable. Ajouter de l’assurance à l’information communiquée au public… Les dérèglementations et le non contrôle ont donnés lieu à des scandales financiers qui ont conditionné les régulateurs à mettre à jour leurs approches d’audit afin de faire face à ces nouveaux enjeux. Donnant exemple par l’affaire d’ENRON qui était découvert en 2001 et il s’agit à l’époque de la plus grande faillite de l’histoire américaine à côté de celle de world.com. Cette affaire a donné lieu à un nombre sans précèdent d’enquêtes officielles, d’actions en justice et de réaction des médias à travers le monde. Tous ses scandales et surtout celle d’ENRON, ont menés à la création de nouvelles lois (Loi NRE : nouvelles réglementations économiques)18 et normes (SAS-82 ET SAS-99)19 dans le domaine de la gouvernance d’entreprise de l’audit avec le renforcement de la NEP-240 par la publication CNCC-2002 ainsi que l’article L225 et L23520 du code de commerce, et est devenue, dans la culture populaire, un symbole de la fraude à grande échelle. Nous avons synthétisé l’ensemble des normes qui accentuent sur le rôle nécessaire du contrôle interne dans la détection de la fraude et aussi le renforcement de criticisme chez les auditeurs dans le suivant : Tableau 1 : Cadre juridique et règlementaire pour les fraudes d'audit. Pays Cadre législatif Régulateur Normes International N/A IAASB-IFAC ISA-240 USA Sarbanes-Oxley AICPA-PCAOB SAS-82 & SAS-99 France NRE CNCC-H3C NEP-240 Les outils utilisés dans la détection de la fraude sur la base du FEC La NEP-240 prédit que l’auditeur doit déterminer le degré de risque de fraude dans sa programmation lorsqu’il se prononce sur l’appréciation du risque d’anomalies significatives. Cette appréciation sera déterminante pour le reste de la mission d’audit en ce sens qu’elle conditionne l’étendu des tests de préventions et de détection qui seront effectués lors des immixtions. Plusieurs études ayant trait à la fraude ont été réalisées. L’une d’entre elles, émanant de Donald R. CRESSEY, précurseur en la matière, date des années 195021. Ce concept regroupe les 3 grandes motivations qui encouragent la fraude, ce 18 La loi n° 2001-420 relative aux nouvelles régulations économiques est une loi française promulguée par le gouvernement Jospin le 15 mai 2001, qui concerne les entreprises cotées en Bourse. 19 file:///C:/Users/hp/Downloads/CCA_091_0171%20(1).pdf 20 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000038610458/2019-0901#:~:text=Article%20L225%2D235%20(abrog%C3%A9)&text=Les%20commissaires%20aux%20comptes%2C%2 0s,ou%20%C3%A0%20l'article%20L. 21 L’hypothèse émise est que la réunion de trois facteurs peut favoriser la propension naturelle d’une personne à la fraude. 17 résultat a été défini sur la base de plus de 200 entretiens avec des criminels incarcérés pour escroquerie. Cette hypothèse est plus connue sous l’expression “triangle de la fraude” nous allons la présenter comme suit : Depuis, cette notion de triangle de la fraude a été largement reprise par la littérature inhérente au sujet. Des compléments et précisions ont été apportés comme les mises à jours effectués par Kranacher et al (2011) et Dorminey (2012)22, sans toutefois remettre en cause ce fondement théorique. De ce fait on déduit les caractères de la fraude de la manière suivante (Le maux et al.2013 p.5) : L’acte frauduleux consiste à développer une méthodologie et la mettre en pratique ; La dissimulation représente l’acte ayant pour objectif de cacher la fraude ; La conversion est le processus de transformation des bénéfices mal-acquis en actifs utilisables par le fraudeur. La présentation traditionnelle du triangle de fraude, tel que décrit Cressey en 1950, avec celui mis à jour par les travaux de Kranacher & al. En 2011 et ceux de Dorminey en 2012. Illustration 1 : Triangle de Kranacher & al. (2020) et Dorminey (2012) comparé à celui de Cressey (1950) 22 https://reader.elsevier.com/reader/sd/pii/S1877042814059205?token=0F4DD5E2D8DB5F53F6D3CB9595D3A FE20907ADFC62DD8DE2DB5DF631706049F601D78B170802FD573121A36AF6A22646&originRegion=eu-west1&originCreation=20220925203123 18 Sources : A partir de wells (2001) et le Maux et al. (2013) Le premier modèle permet à l’auditeur de répondre à la question « Qui est susceptible d’être à l’origine de la fraude ? » Le deuxième modèle permet de mieux identifier les mécanismes et les processus au travers desquels la fraude a le plus de chance de se retrouver. Par exemple, le journal des opérations divers faites souvent l’objet d’une revue spécifique car les écritures sont généralement passées et/ou approuvées par un membre de direction. Or, les membres de direction sont parmi les plus concernés par le triangle de la fraude, d’autant plus lorsqu’il s’agit d’anciens auditeurs. Dès lors que le CAC décide de mettre en place des tests spécifiques sur la comptabilité, il adapte de divers outils dans le but de déterminer le fait «qu’une anomalie significative résultant d’une fraude puisse exister ». Le fondamental dispositif dont détient l’auditeur, avant même de solliciter des supports analytiques, reste son jugement professionnel. La définition de l’IAASB a été traduit par Milédi et pigé (2013) comme suit : « L’atteinte des objectifs des ISA […] dépend d’un déterminant essentiel- les gens qui assurent l’audit. C’est à travers leur connaissance, leur expérience et leur esprit critique et leur compréhension du client qui fait une réelle différence dans la qualité de l’audit. Il est indéniable que l’achèvement efficace de la plupart des conditions des ISA dépend d’une compétence personnelle essentielle et d’un jugement professionnel indépendant. Attendre l’objectif d’une mission d’audit de qualité provient de la capacité des auditeurs à exercer un jugement professionnel pertinent et adéquat tout au long de leur mission. » Le pouvoir d’exprimer un jugement professionnel de qualité repose sur l’assemblage du savoir et celui de l’harmonisation aux éventualités propres à une entité (Milédi & Pigé, 2013). Dans le cas de fraude, l’auditeur énonce son jugement a priori grâce à la maitrise de connaissance en terme de droits des affaires, atomismes de fraude, normes d’exercices professionnels et sciences de gestion…etc. C’est avec l’étude et l’analyse de l’entité, particulièrement au travers son environnement, sa matrice SWOT, de son organisation et de sa façon de faire naitre de l’information que le CAC nécessitera compléter avec son savoir-faire pour énoncer son jugement professionnel et se prononcer sur les travaux à mener dans la détection et la prévention de la fraude. Le jugement professionnel se base essentiellement sur la normalisation des procédés de travail (Mintzberg, 1982). En effet, dès lors que l’audit est « industrialisé », cela signifie que la partie de réflexion du CAC répond en amont à un standard de travaux d’audit à appliquer selon le contexte. C’est une fois que l’auditeur comprend les travaux à appliquer, compte tenu de la procédure qu’il va s’ajuster aux éventualités de l’entité auditée. Aussi, bien qu’une procédure courante préconise de 19 publier uniquement des tests sur les opérations diverses (OD) dans le cadre de la fraude, le CAC doit faire preuve de jugement professionnel et peut décider d’orienter ses travaux sur les opérations des cycles pour lesquels il considère que le risque de frauder est plus élevé. L’ordre des experts comptables et à l’occasion du 64éme congrès, a présenté les majeurs points d’attention par cycle lorsqu’on examine la fraude (annexe 2). L’auditeur peut aussi achever avec les travaux de recherches de l’Association Of Certified Fraud Examiners (ACFE), de l’Autorité des Marchés Financiers (AMF), des revues professionnelles et des articles d’enseignants chercheurs. Le tableau 2 présente une synthèse des points d’attention en matière d’enquête de fraude par l’auditeur, rencontrés dans nos lectures. Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude Auteurs Démarches Points d’attentions Feroz el al. Etude réalisée sur 224 cas de fraudes -Cycle client (50% des cas). (1991)* recensés par la sécurité & exchange -Stocks (25% des cas). commission (SEC). La circonstance de la fraude est négativement Beneish Beneish se focalise sur les provisions (1997)* (accruals) discrétionnaires sur plus de attachée au niveau des accruals discrétionnaires et 350 entités ayant faites l’objet la performance boursière passée et le délai de d’enquêtes par la SEC. règlement client (DRC) est positivement lié à la fraude. Green et choi Mise en place d’un modèle augurtif Leur système de prédiction neuronale : créances (1997)* neuronal. Le système annoncé à douteuses/chiffre d’affaire (CA), créances détecter 74.03% de cas de fraudes douteuses/créances totales, CA/Créance totales, avérés parmi 86 cas différents. marge brute/CA, créances totales/actif comptable. Summers & Le taux de prédiction de leur modèle Score Altman23, rendement de l’actif, taux de Sweency algorithmique atteint 72.2% sur 51 croissance du CA, créances/stocks, changement (1998)* cas de fraudes. d’auditeur ou non, variation de la participation des insiders24 Beneish Deux ans après ses travaux basés sur Taux de croissance du DRC, croissance de la (1999)* les provisions, Beneish met en place marge brute, immobilisations corporelles/Actif un modèle prédictif efficace à 76% sur total, Croissance de volume des ventes et la base de 74 firmes. accruals/CA. 23 Formule d’EDWARD ALTMAN nommé Altman Z-Score qui permet prédire la probabilité qu'une entreprise fasse faillite dans les deux ans. 24 Personnel interne d’une entreprise qui possède des actions de celle-ci. 20 Johnson et al A l’aide d’une méthode basée sur la Dès lors qu’il s’agit d’actions et non d’options (2009)* régression logistique, identification de d’achat, plus intéressement des cadres au capital 71 cas de fraudes sur 87 est plus élevé, plus le risque de fraude l’est aussi. Cecchini et al. Méthode statistique d’apprentissage Charges administratives et (2010)* basé sur des variables permettant de commerciales/investissement (relation négative déterminer les plus fortes corrélations avec la probabilité de fraude) prédisant une fraude. CA/valeur comptable des actions préférentielles et actif comptable/investissement à court terme (relation positive avec la probabilité de fraude). Dechow et al. Dechow s’est intéressé aux éléments Nombre d’employée/Variation de l’actif net entre (2011)* hors bilan pour tester l’hypothèse N-1 et N (plus l’actif est surévalué par rapport au selon laquelle plus il y’a d’éléments nombre de salarié, plus la fraude est probable). hors bilan, plus la probabilité de Le nombre de contrats de locations simples sont fraude est élevée. positivement liés au risque de fraude. Ndofor et al. A partir d’un rapport de 2006 du Même la rémunération des cadres par attribution (2013) Gouverenment Accountability Office, d’options accroit le risque de fraude. mise en place d’un modèle de régression logistique pour probabiliser une force de corrélation. Sources : d’après Le Maux et al. (2013), Johnson et al. (2009), Dechow et al. (2011), Ndofor et al. (2013). Les auteurs marqués d’un astérisque ont été appréhendés grâce aux travaux de Le Maux et al. (2013). Assistance par outils analytiques Lors de son enquête, Carassus et Cormier (2003) se sont adressés au travail comptable pour demander si la mise en place d’outils analytiques spécifiques à la fraude est obligatoire. La réponse a été favorable pour cette approche de la part de 63% des enquêtés. Le refuge aux outils analytiques consiste à faire appliquer un traitement informatique sur une base de données numérique. Dans le cadre du FEC, l’auditeur peut se baser sur des logiciels ou des tableurs aptes d’exécuter des calculs et des analyses de corrélations grâce aux statistiques. Concernant la fraude, l’analytique permet d’intégrer la loi de Benford25, afin d’effectuer un MUS : (Monetary unit sampling, en français : sondage en unité monétaire) ou encore de réaliser des sélections aléatoires. 25 Initialement appelée loi des nombres anormaux, fait référence à une fréquence de distribution statistique observée empiriquement su - r de nombreuses sources de données dans la vraie vie, ainsi qu'en mathématiques. 21 Pour qu’il soit utilisable par l’auditeur, Le MUS doit répondre au triptyque suivant : un niveau de confiance souhaitable, un taux de déviation acceptable et un taux d’écart attendu sur la population (Messier, Glover et Prawitt, 2014). La loi de Benford donne la probabilité attendue que le chiffre constituant le début d’un nombre (représenté par une lettre D dans la formule) ait la plus forte occurrence d’apparition dans une base de données chiffrée. Dans la suite [14.0896 ; (-0.140896) ; 14089.6] le premier chiffre de la suite est à chaque fois 1 car la loi de Benford fait abstraction des 0 et du sens (+/-) du nombre. Gomes da Silva et Carreira (2013) ont expérimenté et modélisé une méthode d’audit dite «Silva method» qui base l’ensemble des sélections lors d’un audit de fraude sur la loi de Benford. L’idée sous-jacente est que la fréquence de D liées à des données frauduleuses ou manipulées sera différente de la fréquence de D dans un contexte hors fraude. La formulation avec m la valeur maximale de l’échantillon, j une variable d’ajustement égale à 1 pour faire abstraction du 0 de la loi de Benford se fait comme suit : Prob (D1 = d1, D2 = d2,……, Dn= dn) =log(1 + (∑𝑛𝑗=1 10𝑛−𝑖 𝑑𝑗)−1) En Admettant comme point de commencement le scandale WorldCom, où un article a été publié par Lanza et Gilbert (2007) dans la presse professionnelle sur l’obligation des outils analytiques dans les tests d’audit sur la fraude. Ils soulignent également l’importance de fusionner le contrôle interne avec un test sur la base du general ledger (en français le grand livre général) que l’on peut l’assimiler au FEC en comptabilité fraçaise. Aussi, les auteurs préconisent l’usage d’un journal entry testing (JET : Test sur les écritures comptables) assisté par ordinateur car l’outil analytique tolère de concentrer le temps et l’énergie de l’auditeur sur l’étude des opérations ayant une haute cadence de risque. C’est par le biais du Practice alert 2003-02 que les concepteurs comptent notamment pour se prononcer sur la pertinence du JET, du fait, spécialement, d’une meilleure aisance des CAC face aux chiffres et la comptabilité par rapport au contrôle interne. La fraude est un acte protéiforme et bien souvent dissimulé. Bien que le CAC dispose d’un échantillon d’outils lui permettant de détecter la personne et les instruments engagés dans la fraude, des scandales comme celle d’Enron (2001), Worldcom (2002), EADS (2006) et plus récemment, WIRECARD (2022) posent la question sur les freins des outils classiques. 4. Passage de la pensée restreinte à l'abstraction émotionnelle : d’une amorce à l'intelligence artificielle. 22 Plusieurs travaux ont étés menées par Herbert Simon26 en 1975 ont servi à résumer les principaux éléments à l’origine des freins au processus décisionnel que sont : L’information disponible ou son coût. Les motivations du décideur (Psychologie, personnalité, freins...). La capacité de frauder (notamment cognitives). L’auditeur mène alors en place des mesures permettant de tester la fraude de la manière la plus pertinente possible, tout en respectant les règles des NEP. Cadre théorique de la rationalité limité Dans sa recherche sur le « self-compassion » (L’auto-compassion en français) Neff27 a abouti une étude posant en exergue les biais cognitifs dans la vie quotidienne. A travers un questionnaire adressé à différentes populations (âge, sexe, nationalité) elle posait des questions de type « Etes-vous bon(es) conducteur (trice)» avec 4 réponses possibles « A- dans les meilleur », « B- meilleur que la moyenne », « C- moins bien que la moyenne », « D- parmi les plus mauvais ». Les taux de réponses A & B ont montré que 90% de la population étudiée se considère comme meilleur que la moyenne. Ce phénomène a été vérifié chez les enseignants (91% d’entre eux considèrent comme meilleur que la moyenne des enseignants), les entrepreneurs ou encore les mariés dont le score atteint quasiment 100%. Olivier Sibony, Professeur à HEC et spécialiste de la « stratégie comportementale » définit les biais cognitifs de la façon suivante : «Un biais cognitif est un schéma de pensée trompeur et faussement logique. Cette forme de pensée permet à l’individu de porter un jugement, ou de prendre une décision rapidement ». Il existe une multitude de biais de confiance qui limitent la rationalité décisionnelle, dont les trente plus populaires sont référencés en annexe 3 (P : N). Les fondamentales apports en psychologie comportementale imputés à la stratégie décisionnelle sont dus à Simon, Tversky et Kahneman28.Tversky et Kahneman ont prospecté à détecter les principaux biais cognitifs qui freinent la rationalité. Dans cette suite, Simon est à l’origine d’un paradigme à travers lequel la décision est systématiquement fallacieuse par l’information, la motivation du décideur et ses capacités cognitives (Annexe 3, P). Jean Philippe Denis (2009) propose une approche de la rationalité limitée en 2009 reposant sur trois facteurs spécifiques les uns des autres : le facteur calculatoire (capacité à se baser sur les sciences mathématiques pour prendre des décisions), Le mimétisme (La capacité à s’imiter sur le 26 Herbert Alexander Simon est un économiste et sociologue américain ayant reçu le prix dit Nobel d'économie en 1978. Il s'est d'abord intéressé à la psychologie cognitive et la rationalité limitée qui constitue le cœur de sa pensée. 27 Kristin Neff est professeur associé au département de psychologie de l'éducation de l'université du Texas à Austin. 28 Professeur à l'université de Princeton, lauréat du prix dit Nobel d'économie en 2002 pour ses travaux fondateurs sur la théorie des perspectives, base de la finance comportementale. 23 marché) et le 3éme c’est le facteur d’exemplarité (prise en compte des variables juridico-financieres, managériales ou de la gouvernance d’entreprise dans le processus décisionnel). Facteurs de rationalité limitée dans le métier de commissariat aux comptes Dans le cadre d’une approche empirique, en 2012 Gonthier-Besacier et al. Ont placé en évidence une vingtaine de facteurs qui influencent de manière significative la qualité d’une mission d’audit. Des spécialistes en gestion ayant des audits externes dans les entités dans lesquelles ils travaillent ont été interrogés, Le 1er groupe correspond à des gestionnaires exerçant dans des entités engendrant plus de 200 millions d’euros de CA et qui n’est pas guidée par un EC. Le deuxième groupe est élaboré de répondants appartenant à une société dont le CA est inclus entre 100 et 200 millions d’euros et étant possiblement guidée par un EC. Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission, équipe/cabinet et réglementation Source : Gonthier-besacier et al. (2012). P : 46 Les répondants du 1er groupe considèrent que les facteurs ayant un effet positif dans la qualité de l’audit étaient essentiellement liés à la mission (Complicité du CAC signataire, appréhension du dossier et l’organisation du temps et des teams). Par ailleurs, bien que la taille du cabinet soit un témoignage de qualité, les règlements de travail, gravement normalisées dans les grands cabinets, ont un effet négatif sur la valeur d’un audit. A propos de 2eme groupe, les éléments de qualité d’un audit sont multiples (13 contre 3 pour le groupe 1). Les plus marquants étant le changement de mandat 24 (indépendance), l’actionnariat à des instances professionnelles (gage de professionnalisme) et le respect des règles en dehors de la mission (exemplarité). Les limites de la rationalité intrinsèquement attachées à la structure du cabinet Les fondamentaux scandales financiers et comptables annoncent une forte connexité avec les cabinets comme celle de BIG4. En effet, le tableau suivant annonce que 45 des 88 cas évalués étaient sous mandat BIG4. La question qui se pose alors, Est-ce que la taille du cabinet influence la qualité d’un audit ou bien c’est le type d’entité auditée par les BIG4 sont plus admissible de frauder. Tableau 3 : Quatre-vingt-huit plus grands scandales comptables Cabinet d’audit Nbre de scandales Pays Alexander Grant & Company 1 Etat Unis (USA) Arthur Andersen 12 Bermudes, Canada, France et USA Arthur Andersen & KPMG 1 USA Arthur Young & Co 1 USA Coopers & Lybrand 1 USA DTT 11 CA, USA EY 14 Australie, CA, Chine, Irlande, Japon, USA Fox & Company 1 USA Frienhling & Horowitz 1 USA Grant Thornton 1 ITALIE Homes and Davis 1 USA Other Audit Firms 2 IRAN KPMG 8 Belgique, Canada, Usa Lybrand, Ross Brothers, & 1 USA Peat, Marwick, Mitchell & Co. 2 USA PWC 12 Angleterre, Bermudes, Canada, Montgromery Indes, Usa Touche, Niven & Co. 1 Usa Wagman, Fruitman & Lando 1 Canada Wolfson Weiner ; Ratoff & Lapin 1 Usa Non renseigné 15 Angleterre, Australie, Brésil, Canada, Usa 25 Grand Total 88 Source : D’après https://en.wikipedia.org/wiki/Accounting_scandals Sur la règle d’une caractérisation mathématique, un modèle énonce de mesurer la qualité d’une mission audit en fonction de la taille du cabinet (Sirois et al.2016). Soit π la valeur de marché de l’entité auditée en fonction du niveau contrôle qui s’exerce sur elle. AEi le volume d’heures d’audit acheté par l’entité audité et y le niveau des autres mécanismes d’audit et de gouvernance interne : 𝜋 = 𝑓(𝐴𝐸𝑖, 𝑦) = 𝛼 ln(𝛿𝑖𝑥𝑖) + (1 − 𝜎) ln(𝑦) Par extension, Sirois et al. (2016) définissent également la valeur de π au travers des variables : 𝜹𝒊𝒙𝒊 : Qualité de l’audit achetée à, et livrée par, un auditeur i (c’est-à-dire, aptitude de l’auditeur i à constater une ou des anomalies significatives dans les états financiers, en écartant les problématiques liées à l’indépendance). 𝜶 : Proportion du budget B alloué à l’audit externe Y : tel que décrit précédemment Les synthèses de ces travaux posent en avant le fait que les BIG4 amènent plus d’agrément à leur travail, spécifiquement grâce aux outils analytiques et aux investissements en innovations technologiques. Cependant, si les non-Big4 persiste sur le marché de l’audit c’est parce qu’ils présentent des services d’audit légaux plus adaptés aux structures n’ayant soit pas les moyens ou l’intérêt de mandater un BIG4, soit des besoins ne nécessitant pas de faire appel aux dispositifs analytiques et technologiques qu’offrent ces grands cabinets. Par ailleurs, l’harmonie de type Big4 permet de pallier les biais cognitifs par la prise de décision collégiale. En effet, lors de leur enquête sur le jugement professionnel en audit, Milédi et Pigé (2013) rapportent les propos d’un CAC selon qui l’absence de comité technique en interne n’accorde pas la communication et le partage des connaissances, pesant le devoir de la responsabilité dans la décision chez un CAC non-Big4. Mis à part la taille du cabinet, Olivier Herrbach énonce une approche de limite à la qualité de l’audit liée à la relation d’agence qui existe entre les collaborateurs et l’associé signataire. A partir de sa thèse, il éclaire particulièrement que cette situation détermine un biais décisionnel chez l’auditeur étant donné qu’il peut exister des asymétries d’informations pour les différents raisons citées en annexes 3. La formation comptable : socle de la capacité cognitive Le tableau 3 indique que les ETATS-UNIS figurent dans presque toutes les lignes, Aussi, en 2008, Pearson & Singleton proposent à L’AICPA (L'American Institute of Certified Public Accountants ) un module de formation dit « Fraud & Forensic Accounting » à intégrer dans le CPA (Certified Public Accountant ) équivalent du Diplôme d’Expert-Comptable (DEC) au Etats-Unis. 26 La compétence des auditeurs est fondée sur la connaissance, la formation et la qualification et suffisamment d’expériences pour réaliser une vérification financière. Sur la base d’une hypothèse semblable, Pearson & Singleton (2008) ont signalé des déficiences cognitives liées à un manque de formation en comptabilité aux Etats-Unis. Prenant l’exemple du scandale WorldCom ils soulèvent les enjeux et les défis de la formation, notamment la sensibilisation à l’environnement numérique et les techniques d’audits assistés par ordinateur. C’est aussi l’exemple utilisé par Lanza et Gilbert (2007) pour accroitre la sensibilisation à l’utilisation d’outils analytiques dans la détection des fraudes. Dans une enquête de l’ACFE menée de 2002 à 2006, il s’est avéré que seulement 11% des cas de fraude sont recensés par le CAC, ce qui met en évidence le manque de formation de la profession. On distingue deux lacunes : Notions de base de la fraude (cycle à risque, secteurs d’activité sensibles, Schématiques…). La pertinence de la formation par rapport à l’environnement technologique (Cybersécurité, données, Data mining…..) Selon nos recherches sur le cadre juridiques et les pratiques dont dispose le vérificateur dans le cadre de l’audit de la fraude, l’ensemble de force et de partis pris agissant sur le CAC (voir annexes 3, p74) et (4 P.77), la qualité de sa mission de vérification et la pertinence des travaux effectués, nous proposons l’hypothèse de recherche (HR1) suivante : HR 1 : La découverte de la fraude par « Journal Entry Testing » est faussée par les motivations de l’auditeur et son intelligence émotive. La responsabilité et les exigences du commissaire aux comptes vis-à-vis de la fraude ont considérablement évolué depuis la révolution industrielle. Parallèlement, son approche et ses outils se sont adaptés d'une part aux exigences des autorités de régulation et d'autre part à celles de ses clients. Par conséquent, à l'ère de l'intelligence artificielle, il y a des possibilités pour les cabinets de vérification et de consultation. 5. Développements dans la pratique de l'audit grâce à l'intelligence artificielle : la révolution du machine learning. Différents outils dérivent du concept général de l'intelligence artificielle, y compris l'apprentissage automatique, apprécié pour sa neutralité et sa fiabilité (I.2.1). Dans les secteurs marketing ou médical, il transforme les professions actuelles sans les remplacer, soulever la question des changements dans l'environnement des audits (I.2.2). 27 6. La neutralité et la fiabilité de la machine learning et son assujettissement à une complexité de mise en œuvre. Même si le concept d'apprentissage automatique est nouveau, les outils statistiques qui le composent sont utilisés depuis plus longtemps dans la détection des fraudes. Aussi, la contribution de l'intelligence artificielle se caractérise par l'enchaînement de ces différents modèles statistiques et offre l'établissement d'un développement endogène soutenu par l'expérience, même si sa démocratisation reste freinée par différents facteurs. Implémentation d'outils de machine learning. Le but de machine learning est d'enseigner à la machine à faire ce que l'homme fait, pour l'instant, mieux qu'elle. A ses locaux, l'IA à la fin du 20ème siècle consistait en des processus cognitifs «singer», les enjeux des data scientists au 21ème siècle est de faire mieux que l'esprit humain29. Le concept de machine learning est systématiquement référencée à l'IA comme un outil dérivé de l'intelligence artificielle. Cependant, comme le souligne Alexandre Gramfort30, le machine learning peut exister indépendamment du concept d'intelligence artificielle (figure 3). Illustration 3 : L'apprentissage machine au croisement de deux concepts. Source : Les neurosciences ont inspiré l'intelligence artificielle : le modèle neuronal et les concepts – [2/2] (journaldunet.com) En effet, les prédispositions requises pour le passage à l'apprentissage automatique, à savoir l'amélioration des algorithmes, à savoir, les algorithmes améliorés, l'explosion des données et le renforcement des capacités de calcul des ordinateurs n'ont convergé que récemment. Cette technologie fonctionne selon deux méthodes différentes, comme le montre l'illustration 3 : 29 C. Berthet, rapporteur de la commission Villani, lors de la conférence JUREM, 29/05/2018. 28 - L'approche « supervisée » consiste à prévoir une donnée T appelée « cible » à partir de données classées et connues a priori. Elle est capable de répondre à une question close comme Blanc ou Noir ? » Ou une demande d'information ouverte Quelle serait la valeur vraisemblable de ce bâtiment? » - L'approche « sans surveillance » est utilisée lorsqu'une des variables est manquante ou n'a pas été indiquée. Elle consiste, pour la fraude, à reconnaître les situations d'anomalies par une phase préliminaire d'apprentissage autonome de ce que sont les situations «normales» à partir de multiples exemples. Illustration 4 : Variation des principales applications de l'apprentissage machine. Source: IA COGNITO - EP03 - Le Machine Learning (neovision.fr) A l’égard de la profession de commissaire aux comptes, ces procédures permettent de réaliser des évaluations de risque, de la programmation, des choix pour épreuves de détails ou aussi se substituer à des revues analytiques de confirmations (Perols, 2011). Dans le cadre de la découverte de la fraude, l’algorithme est exercé à mettre en évidence les incohérences qu’il détecte dans sa base de données. Par défaut, une approche non supervisée est mise en place avec comme cible d’immatriculer les outlier que détecter le machine. La notion d’outlier indique un cas écarté ou déviant par rapport au reste du dataset, c’est-à-dire que l’algorithme apportera un « deviation standard » (en français, écart type) qui sera l’étalement approuvable par rapport à une valeur de raisonnement. Les valeurs les plus éloignées sont alors déterminées comme une anomalie. Relativement à l’approche supervisée, elle ne répond pas à la solution d'un cas de fraude, celle-ci n'étant pas a priori connue. Une telle approche n'est réalisable qu'en amont pour la prévision des risques de fraude ou en aval pour la classification des profils de fraude une fois qu'ils ont été identifiés (Andrew Ng, MOOC, Standford university). Les critères de fiabilité de machine learning Feroz et al. (1991) ou Green et Choi (1997), dont nous avons déjà discuté en examinant les outils de détection de la fraude énonçaient des méthodes algorithmiques dans la détection de la fraude. La dissemblance significative avec les travaux les plus frais de Perols (2011), Zhang et ling (2013) song 29 et al. (2014) ainsi que Hajek et Henriques (2017) est la capacité de calcul des outils informatiques tolérent l’alliance d’algorithmes propre au machine learning comme outil d’intelligence artificiel. L'ensemble de l'apprentissage consiste à utiliser dans un modèle unique une multitude d'algorithmes d'apprentissage pour augmenter les performances de l'outil. Les différentes approches utilisées par ces auteurs sont abrégées dans le tableau ci-dessus : Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs Méthode Résumé Réseau de Neurones Programme imitant le parcours intellectuel humain. Il est basé sur le principe de artificiels (ANN) l'inférence bayésienne, c'est-à-dire qu'il utilise les éléments du passé pour spéculer sur l'avenir à des fins de cohérence. Stacking Le stacking consiste à combiner des algorithmes afin d'augmenter l'efficacité de son modèle par le dessin des avantages de chaque algorithme. Régression logistique Permet d'exprimer le rapport d'une variable en fonction d'une ou plusieurs autres (la probabilité X d'être malade à l'égard des symptômes Y1, Y2, ... Yn). elle sert à établir si un événement se produit ou non. Machine à vecteur méthode de discrimination au moyen de laquelle l'algorithme classifie les support (support vector prédictions d'une variable de manière à mettre en évidence plusieurs tendances machine SVM) parmi la base des énonciations. Booststrap aggregating Méthode visant à accroître la précision et la stabilité d'un modèle en réduisant la (bagging) variance (dispersion d'un échantillon) en créant des données supplémentaires qu'il estime pertinentes. Arbre de décision C4.5 Un modèle d'apprentissage basé sur un arbre de décision qui permet de réaliser une classification encadrée de la manière suivante : - Juger si une boucle n’est pas extrême, échantillonner un test à lui associer -Juger si une boucle est extrême - si une boucle est extrême, lui attribuer une classe. Source : Perols (2011), Zhang et Ling (2013), Hajek et Henriques (2017), Song et al. (2014) Le codage de ces modèles algorithmiques est effectué au moyen de bibliothèques de code qui respectent les normes informatiques. Dans leurs approfondissements, Perols (2011) et Zhang et ling (2013) emploient comme base de code Weka30, une collection d'algorithmes d'apprentissage automatique, développé par les chercheurs de l’université de Waikato en Australie. Margaret Rouse, Director of Whalts.com définit l'open source comme étant L’Open Source est une méthode d’ingénierie logicielle qui consiste à développer un logiciel, ou des composants logiciels, et de laisser 30 Weka 3 - Data Mining with Open Source Machine Learning Software in Java (waikato.ac.nz) 30 en libre accès le code source produit pour qu’il puisse] être exploité par les développeurs et les entreprises souhaitant soit l’adapter à leurs besoins métiers, soit affiner son intégration avec leur système d’information.» Outre la gratuité pour l'utilisateur, Les codes open source sont alimentés en continu par la connaissance de la communauté des utilisateurs, assurant ainsi une fiabilité toujours plus grande, comme le souligne Rouse dans sa présentation. Dont les essentielles bibliothèques open source d’apprentissage automatique utilisées par les professionnels TensorFlow (Google), Apache MXnet (Apache Software Foundation), FeaturFu (LinkedIn), DMTK (Microsoft), Keras (Google, Microsoft, NVidia et Amazon) sont des exemples d'instruments mis au point par des entreprises privées. Il y a aussi des projets en cours des recherches universitaires comme Scikit-Learn et Weka. Ainsi, le recours à des bases ouvertes permet aux sociétés de rester au diapason des évolutions numériques et technologiques et réaliser des économies en actualisant ses outils. Nous savons qu'il y a des facteurs de fiabilité qui rendent le machine learning célèbre, en particulier la possibilité d'associer les modèles mathématiques et statistiques, la capacité de la communauté des sciences des données de renforcer ces outils grâce à l'accès libre. Ainsi, en ce qui concerne notre sujet, nous proposons les hypothèses de recherche ci-après : HR 2 : L'intelligence artificielle, par l'apprentissage automatique, pourrait tester le FEC de façon pertinente, fiable et rentable. Des empêchements de financement en machine learning Dans son exposition « Le machine learning de A à Z»31Alexia Audevart dissocie l’enchaînement de mise en place du machine learning en quatre étapes. A l’opposition des idées reçues, la phase de caractérisation représente la plus courte de toutes. Selon elle, les data scientists consacrent le plus de temps à la récupération et au nettoyage des données pour les rendre utilisables. Cependant, le précise le rapport de la CNIL, « L’algorithme sans données est aveugle. Les données sans algorithmes sont muettes » (p.20). Le défi pour les équipes de science des données est de saisir l'information, de la traduire en une variable utilisable et de l'intégrer de façon uniforme à l'ensemble de dataset32. Ce développement porte le nom de data wrangling. Dans son analyse, Microsoft Azure souligne que les principaux obstacles rencontrés sont le bruit (aberrations, erreurs) les incohérences (incohérences entre les données) et le caractère incomplet de l'information (manque de valeur ou de caractéristiques). Déjà en 2016, le magazine Forbes a publié des résultats selon lesquels la récupération de données occupe une moyenne de 19% du temps de 31 4 Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France. (Retranscription disponible à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY) 32 https://learn.microsoft.com/fr-fr/azure/architecture/data-science-process/prepare-data 31 l'équipe, Le nettoyage et l'organisation occupent 60% du temps et près de 9% du projet consiste en l'identification de schémas33. Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning récupération des données brutes Nettoyage & Traitement des données Consutruction du modèle Analyse /Prédiction Source : D’après blog O.Klose (http://oliviaklose.azurewebsites.net/machine-learning-11- algorithms explained/) D’après l’illustration ci-dessus, nous constatons que le point suivant celui de récupération et traitement des données est la construction du modèle. A l’opposé des étapes précédentes, celle-ci ne présente pas caractère chronophage et occupe seulement 3% du temps. Durant cette étape, l’enjeu n’est pas la gestion du temps, mais la recherche de la précision et la qualité de l’algorithme. Alors que la majorité des services de qualité tolèrent une marge d'erreur de 10% à 25% pour démarrer la production, la précision d'un renseignement destiné à aider ou à remplacer l'homme peut parfois nécessiter une marge d'erreur de seulement 10^8 de déviation (Charly Berthet, rapporteur de la commission Villani), Autrement dit, une probabilité acceptable d'erreur est de 1/10 000 000. De surcroit, dans l’étude d’Eugène Bohm-Bawerk sur l’investissement34, énoncé le « Détour de production », il est indispensable de mettre en œuvre des projets d'investissement si l'entreprise veut profiter des économies futures. En effet, en réinterprétant son étude, une personne qui désire avoir accès à de l'eau potable fera un premier investissement dans un phoque afin de limiter le nombre de déplacements aller-retour à la source. Puis, à terme, il installera un système de plomberie de la source à son domicile, de sorte qu'il n'aura pas à marcher jusqu'au puits. L’investissement (le réseau de plomberie) lui permet in fine d’économiser du temps et de l’énergie (l (aller-retour jusqu’à la source d’eau potable) de sorte qu’il puisse se consacrer à de nouveaux projets ou se focaliser sur des activités à plus forte valeur ajoutée, particulièrement l’augmentation de son capital humain (Gary Becker, 1992). Dans ce processus, Böhm-Bawerk met en évidence le paradoxe selon lequel l'agent économique réduira sa productivité au cours de la phase de conception et de construction 33 Série ou séquence dde donnée qui se répète et constitue un modèle http://easynomie.com/le-detour-de-production-illustre/ (Esteban Giner, Professeur d’économie, Université Paris Est) 34 32 du joint ou du réseau de plomberie. Néanmoins, cette étendue dédiée à l’investissement prochain lui permet d’accentuer son rendement futur, une fois la mise en place effectuée. Dans la sphère de machine learning, on perce de l’étude de Forbes que le projet peut absorber un temps appréciable en terme d’analyse des données et d’attraction du modèle algorithmiques. Aussi qu’il se trouve des bases open source qui aide à abaisser les coûts de mise en œuvre, la mobilisation de team d’ingénieurs, de Data scientists et d’auditeurs compose un appui stratégique et financier pour les cabinets d’audit en ce sens qu’il ne s’agit pas de la durée de travails exploitées pour la réalisation de l’audit des compte des entités clientes mais à de la recherche et développement. Il existe des obstacles à l'entrée, avant tout techniques et financiers. Nous exprimons notre hypothèse de recherche HR3 à partir de cette observation de la façon suivante : HR 3 : La mise en œuvre d'un outil d'apprentissage automatique dans une firme de vérification comporte des obstacles. Vers une amélioration du métier de l’auditeur L’utilisation du machine learning conduira à des améliorations dans des divers dont la data n’est pas le cœur de métier. Il sera dirigé à transformer l’approche et le poste de l’auditeur dans sa mission et aboutira à de nouveaux enjeux dans la pratique de ces fonctions. Dualité machine learning & Homme et arrangement du temps La possibilité que le machine learning se trompe est limitée à 8%, alors que le taux de succès obtenus par les chercheurs d'Harvard Médical school dans la détection de cancer du sein est de 99.5% lorsque le médecin est associé au machine learning. Ce type de recherche permet de statuer en faveur d'une complémentarité de l'Homme & la machine. Yann LeCun, chercheur français considéré comme l’un des fondateurs du Deep Learning, reconnait que l’apprentissage automatique est plus efficace que des ingénieurs dans certains domaines, ce qui peut s’avérer « désespérant pour des gens qui ont passé leur carrière à essayer de faire le design de ces [outils], mais c’est un fait » 40 . Yannick Meiller, met également en garde quant à l’appréhension de la machine par l’homme. Il souligne l’existence d’un « risque psychosocial » qu’il ne faut pas négliger car selon lui « c’est aussi un douloureux sentiment d’inutilité qui peut dominer, un sentiment d’incapacité, d’inaptitude et d’échec permanent ». En ce qui concerne la profession de CAC nous pouvons considérer qu’à l’instar des médecins, il y aura moins de personnes impliquées dans la préparation et l’analyse des éléments nécessaires au diagnostic. Nous assisterons à une revalorisation du diplôme et des compétences, rendant le niveau d’expertise exigé d’autant plus important. Enfin, l’un des risques abordés par le rapport de France Stratégie est celui de la surcharge de travail que peut amener l’apprentissage automatique. Considérant en effet que les tâches simples et fastidieuses sont traitées par 33 l’outil numérique, l’expert se focalisera sur des opérations plus complexes nécessitant plus d’attentions, des analyses plus fines et donc plus de connaissances. Parmi les plus grands travaux de recherches menés par des institutions françaises tel que l’ordre des médecins, la CNIL, France Stratégie et tant d’autres, la rapidité de traitement de l’information par la machine est unanimement reconnue. La question que soustend ce constat est celle de la gestion du temps de l’expert à l’ère du machine learning. En prenant comme exemple le domaine de la santé, le rapport France Stratégie considère que l’usage de l’apprentissage automatique permet à l’expert de se « recentrer son activité sur les cas les plus complexes, sur la formation et bénéficier d’un apprentissage continu ». Le médecin « sera aussi conduit à renforcer la relation et le dialogue médecin-patient, afin d’apporter l’information nécessaire à la compréhension des diagnostics. » Dans les métiers de l’audit, et notamment l’investigation de la fraude, nous avons vu au travers des précédentes sous-parties que l’analyse des chiffres sur la base de différents ratios permettait d’identifier des cas de fraudes internes au travers de la comptabilité (tableau 3). Tandis que l’outil d’apprentissage statistique détecte rapidement les risques de fraudes au travers de la comptabilité, l’auditeur pourra privilégier l’investigation au travers d’entretiens avec des interlocuteurs de l’entité auditée. Il pourra étendre son analyse au-delà des chiffres et du fichier des écritures comptables de sorte à percevoir ce que la machine ne peut percevoir au travers du comportement humain. Par ailleurs, un tel outil permet également une meilleure allocation des ressources humaines sur une mission d’audit. C’est du moins ce que met en avant le Conseil National de l’Ordre des Médecins (CNOM) dans son livre blanc dédié à l’intelligence artificielle lorsqu’il présente le quotidien du Pr Francois et son assistante Galiena D’après cette recherche avérée en médecine, on constate principalement l’hypothèse HR4 de la manière suivante : HR4 : Le recours à l’apprentissage automatique libérera du temps pour l’auditeur au profit de l’analyse et de la maintenance des clients. Clarté des algorithmes Si nous poursuivons le cas de l’industrie aéronautique, les chercheurs comme Clément Ader (1897) se sont inspirés de la biologie pour mimer des animaux tel que la chauve-souris et s’inspirer de leur façon de voler pour concevoir des avions41. Concernant l’IA, les ingénieurs, au travers de techniques s’appuyant sur des réseaux de neurones artificiels, s’inspirent du cheminement intellectuel humain pour mettre en place leurs outils. Or, même si nous sommes en mesures de comprendre le fonctionnement du cerveau par le jeu des neurones et des synapses, le raisonnement intellectuel d’un individu est quant à lui imperceptible. Cet aspect « boîte noire » s’applique également aux algorithmes qui composent les outils d’apprentissages automatiques. C’est-à-dire qu’il est impossible de comprendre comment la machine produit ses outputs, qu’elle ait tort ou raison. Selon Eric Topol, cardiologue généticien et chercheur en médecine numérique aux Etats-Unis, l’intelligence artificielle et les outils d’apprentissages 34 automatiques resteront complémentaires aux experts pour des raisons évidentes de capacité à expliquer le résultat de leurs observations. Or, dans un rapport annuel sur les comptes d’une société, le commissaire aux comptes doit justifier ses appréciations et ses commentaires. L’absence d’explicabilité de l’algorithme remet en cause le fondement du jugement professionnel du CAC ayant conduit à ses appréciations. Meiller rappelle aussi qu’un des enjeux pour l’utilisateur est de ne pas accorder une confiance aveugle au machine learning car il peut mettre en évidence des corrélations entre des éléments par l’identification de patterns, mais ces relations ne sont pas systématiquement causales. Illustration 6 : cadre et paramètres expérimentaux Source: Mining corporate annual reports for intelligent detection of financialMining corporate annual reports for intelligent detection of financial En se basant sur l’exemple ci-dessus, extrait de l’analyse de Hajek et Henriques (2017). A partir de cette présentation schématique, il est facile de définir sur quelles méthodes va favoriser l’exemple d’apprentissage. Les résultats sont plutôt convaincants car l’outil atteint jusqu’à 90% de fiabilité sur certains lots de tests. Il sera pourtant impossible de définir comment l’outil a déterminé si oui ou non l’état financier était frauduleux. Dans la synthèse du rapport Villani proposée par Le Figaro35, le phénomène des « boites noires » remonte des questions juridiques de preuve et d’explicabilité. Berthet, l’un des juristes de la commission Villani considère qu’au regard du ratio 35 Matsas P. (29/03/2018), Intelligence articille : Les propositions de Cédric Villani, Le Figaro, 20-21. 35 auditabilité/efficacité, des régulateurs ou des experts publics devront être en mesure de s’accuser sur la fiabilité de l’outil et évoquer son raisonnement en cas de besoin. Puissance du dataset Si le machine learning a aujourd'hui un tel niveau de performance, c'est aussi grâce à la qualité et à la solidarité de l'apprentissage qu'ils ont vécu. Cependant, la base de la formation est la base de données qui va conduire l'algorithme avant son démarrage opérationnel. En outre, il est nécessaire de veiller à la qualité des données utilisées pendant la phase de confrontation des données que nous avons présentées précédemment, Un dataset inapproprié peut aboutir à un algorithme discriminant, un jugement périmé, un étalons de faux positifs assez considérable ou par surcroit négligence de variables significatifs. Le compte rendu de la CNIL irrigue les propos de Philippe Besse36, qui met en garde au sujet du problème de représentativité des échantillons et des populations utilisés en médecine prédictive assistée par intelligence artificielle. Selon lui, « si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne ». En outre, l’antithèse de Simpson mentionne l’obligation d’alimenter les algorithmes de données les plus servant possible afin d’obvier les biais de l’assemblage d’information. Ce phénomène montre que les données agrégées peuvent donner des renseignements contradictoires par rapport aux données détaillées qui les constituent37. Dans l’exemple pris par Arthur Charpentier, professeur de sciences actuarielles à l’université de Montréal, deux hôpitaux A et B sont comparés sur la base du taux de survie de leurs patients « sains » versus le taux de survie des patients « malades ». Dans l’analyse par découpage « sain » versus « malade », l’hôpital A apparait comme le plus performant. Cependant, l’effet volume fait qu’au global, l’hôpital B accorde plus de chance de survie au patient, quel que soit sa situation comme l’illustre le tableau ci-dessous : Tableau 7 : Exemple d’illustration du paradoxe de Simpson Situation Hopitaux population Survivants Décès Personnes Saines Malades Total Taux de Choix survie rationnel A 600 590 10 98% V B 900 870 30 97% X A 400 210 190 53% V B 100 30 700 30% X A 1000 800 200 80% X 36 Professeur émérite à l'INSA & Membre de l'équipe Statistique et Optimisation de L'Institut de Mathématiques (UMR CNRS 5219) 37 https://www.yrgestion.fr/fr/le-paradoxe-de-simpson 36 B 1000 900 100 90% V Source : Paradoxe de Simpson expliqué par un dessin | Freakonometrics (hypotheses.org) Conservation des données : questions de cybersécurité et des problèmes réglementaires Le défi de la conservation des données n’est pas récent pour les cabinets, la question de l’incursion vers les appuis de cloud-coumputing avait restauré la discussion environ des années38. La déviation avec le Big Data est que la responsabilité est renforcée en raison du volume de données et de la menace grandissante des cyberattaques. Dans son rapport de 2017, Cisco a publié un rapport sur les cyberattaques connues qui touchent les entreprises. En outre, il se trouve que 8% des attaques coûtent 4 millions d'euros et plus pour les entreprises et les organisations touchées en 2017 ». Les données financières et stratégiques des sociétés d'audit qui conservent dans le cadre de leurs obligations légales sont sensibles, voire confidentielles. De plus, si les entreprises décident de les accumuler pour répondre aux besoins de leur technologie d'intelligence artificielle, ils subissent des répercussions qui sont d'autant plus importantes en cas de brèche dans leurs systèmes de cybersécurité. Applicable à compter du 25 mai 2018, le règlement général de la protection des données (RGPD) concerne l’ensemble des sociétés collectant des données en Europe, de personnes résidant sur le territoire européen. En principe, les données recueillies au cours de la mission de vérification ne sont que des renseignements sur l'entreprise. Il ne fait donc aucun doute que les règlements relatifs au RGPD s'appliquent aux cabinets d'audit en ce qui a trait à la collecte de données. Toutefois, dès lors que les outils de type machine learning seront entrainés ou traiteront des données comportant des informations rapportant à « une personne physique identifiée ou identifiable »39, le cabinet entre dans le champ d’action du RGPD. Il sera dans l'obligation, vis-à-vis des entités clientes concernées, de prendre les mesures nécessaires pour la mettre en conformité avec le RGPD. En règle générale, la FEC ne transmet pas de données personnelles. Toutefois, il s'agit d'une contrainte à prendre en compte, car une enquête approfondie sur la fraude exigera la collecte de données à caractère personnel. En concluant, le machine learning autoriserait à l’auditeur d’accomplir ses tests de détections de fraudes plus hâtivement, accordant un apport idéal du temps de mission d’analyse et d’exploration de la fraude. Bien que le caractère confidentiel des renseignements financiers ait amené les vérificateurs à s'inquiéter de la sécurité de leurs données, la rectification des données par apprentissage automatique comporte des problèmes de conformité et de sécurité qui étaient jusque-là spécifiques aux organisations GAFA qui vivent à partir de données. 38 Guide pratique sur le bon usage du Cloud Computing par les cabinets d’expertise comptable, Collection des études Institutionnelles (Bacchi M. et al. (2014)) 39 « Une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale » 37 II. Investigation sur le terrain, Analyse des résultats et recommandations Dans le contexte d'une méthode hypothético-déductive, nous avons déduit quatre hypothèses de recherche de notre recension littérature. La présente section vise à présenter comment nous allons aborder les divers intervenants impliqués dans nos hypothèses afin de les mettre à l'essai; les résultats du sondage seront analysés dans le but d'établir des recommandations et des prescriptions. 1. Méthodologie de l’investigation sur le terrain Avant de la mettre en œuvre, nous définirons les méthodes et les échantillons qui conviennent le mieux à notre approche. Nous présenterons également les guides d'entrevue qui forment le fondement de nos sondages. 1.1. – les différentes méthodes d’enquête et leur relevance Les actions en secteur de Marketing, sciences sociales et communications ont autorisé de rénover et enrichir l’ensemble des démarches de sondage. Ainsi, l’appellation contemporaine reconnait les sondages notariaux, qualitatifs et quantitatifs. De manière accidentelle, le Benchmarking ou l’échantillonnage est un ensemble de procédures de recherches et d'analyses comparatives de la concurrence qui se base sur les 3 démarches susmentionnés. Les démarches utilisées Une démarche qualitative peut prendre la forme d'une discussion ou d'une observation en tête-à-tête ou en groupe. Celles-ci sont mieux adaptées aux études sociologiques ou managériales. C’est par exemple la démarche pratiquée par Crozier à travers 1959 et 1963 afin de dévoiler l’efficacité de la composition déstructurée et les espaces de soupçons dans l’organisation. Dans notre investigation, on accordera la priorité aux entrevues plutôt qu'aux remarques, puisque nos besoins ne sont pas fondés sur l'analyse psychosociale du comportement humain. C'est l'expérience de Mayo chez Western Electric qui a servi de point de départ à l'utilisation de la maintenance comme outil pertinent dans l'enquête sur le terrain à travers Blanchet et Gotman (2007). Dans son travail de 1985, Alain Blanchet a conclu que l'entrevue non directive a le bénéfice de ne pas mettre en cause les préjugés générés par l'enquêteur lui-même parce que le répondant s'exprime en toute liberté et se limite au sujet assujetti dans le guide d'entrevue40. Contrairement à l'interview directive est plus rigoureuse et similaire au formulaire dans la mesure où les questions sont définies à l'avance dans un ordre précis et que la réponse attendue est habituellement fermée. C'est ainsi que la semi-directive apparaît comme l'équilibre entre ces deux méthodes. Il permet de libérer davantage les réponses des personnes interrogées tout en conservant la possibilité de réorienter le dialogue à l'aide d'une liste de questions préétablies. L'apprentissage automatique est basé 40 L'entretien - Livre Sociologie générale de Alain Blanchet - Dunod 38 sur des processus algorithmiques très complexes dont l'utilisation est très variés. En outre, afin de donner libre cours aux réactions spontanées des personnes interrogées, tout en gardant la possibilité de conserver nos questions vers nos mots-clés tels que la fraude ou la vérification, nous choisissons d'utiliser le procédé de maintenance semi-directive. En effet, il s'agit d'une approche exploratoire et une entrevue directive implique le risque d'être close aux éléments que nous connaissons à partir de nos recherches. En outre, une entrevue non dirigée ne permet pas à l'intervieweur d'exercer un contrôle sur l'entrevue, ce qui l'empêche de concentrer la discussion sur des points précis. Quant à notre première démonstration sur les éléments de rationalité limitée, cette méthode permet aussi de laisser l’interrogé libre, tout en cadrant l'interview en fonction des réponses données. Le Benchmarking anglicisme qui signifie "parangonnage" ou "échantillonnage’’ , est une technique marketing ou de gestion de la qualité qui consiste à étudier et analyser les techniques de gestion, les modes d'organisation des autres organismes, entreprises ou administrations, afin de s'en inspirer et d'en tirer le meilleur. Dans le cas du sondage sur le terrain, l'étalonnage est un processus dans le cadre duquel l'intervieweur compare deux types différents de répondants qui sont soumis à la même matière de manière à observer les différences qui ont été observées à l'intérieur de ses différentes catégories et ainsi déterminer la meilleure façon. Les sources de l'échantillonnage peuvent être facultatives, c'est-à-dire que l'analyse comparative d'un sujet peut être fondée sur des données collectées par la presse professionnelle ainsi que des instituts d'enquête spécialisés ou fiables. Il est donc nécessaire de faire un recoupement de l'ensemble des ressources secondaires afin d'obtenir l'analyse la plus complète possible. En ce qui concerne notre étude, la mise en œuvre de l'analyse comparative est pertinente en raison des divers secteurs d'activité qui opèrent l'apprentissage machine. Ce n'est pas une question de comparaison entre cabinets d'audit, mais pour s'ingérer dans des domaines voisins comme les finances ou complètement étrangers au Bureau du vérificateur général comme la cyberdéfense. Grâce à nos entrevues, nous chercherons ensuite à détecter une meilleure façon, Il s'agit des « pratiques exemplaires » de l'apprentissage automatique grâce aux commentaires des répondants. Les approches expulsées Les procédures documentaires impliquent la valorisation de la recherche effectuée par un tiers, une entreprise ou un institut de statistique. Aussi, des enquêtes réalisées par l'Institut National de Statistique et d'Etudes Economiques (INSEE), des études réalisées par des entreprises privées telles que le Groupe Xerfi ou des enquêtes issues d'articles de recherche constituent des sources d'information fiables et exploitables dans ce type d'approche. Bouzon et al. (1996) soulèvent deux aspects de la recherche documentaire qui constituent des composants essentiels à l'efficacité de cette méthode. Il y a d'abord le travail collectif. Ils notent que l'étudiant au doctorat qui est seul dans la recherche en autonomie se noie dans l'information et peine à faire un pas en arrière. Il encourage la 39 recherche collective pour réduire le temps de recherche, diminuer les biais de compréhension en partageant l'analyse, et permettre l'échange de méthodes d'enquête. Deuxièmement, ils recommandent la formation. Il est essentiel que les chercheurs reçoivent une formation leur permettant d'avoir une vision critique et objective des conclusions et des analyses des auteurs qu'ils évoquent. L’étude quantitative est une technique de collecte de données qui permet au chercheur d’analyser des comportements, des opinions, ou même des attentes en quantité. L’objectif est souvent d’en déduire des conclusions mesurables statistiquement, contrairement à une étude qualitative. De fait, la démarche quantitative accord de quantifier des phénomènes pour constituer des statistiques et des analyses mathématiques pour approuver ou non les conclusions d'un sondage qualitatif préliminaire. D'autre part, Dumez ajoute qu'en ce qui concerne les approches quantitatives, l'accent est mis sur les variables, et les acteurs ne se manifestent réellement que lorsque les variables ne parviennent pas à expliquer un phénomène. Dans les approches qualitatives, il faut privilégier les acteurs plutôt que les variables. »Dans l'étude d'une matière naissante, Il est essentiel pour les intervenants d'être en mesure d'exprimer leurs commentaires et de donner ensuite des pistes d'enquête statistique pour vérifier les tendances à une plus intense échelle. Notre étude étant centrée sur un outil dont l'utilisation par les professionnels en est à ses premiers balbutiements, la recherche est expérimentale, comme on le voit dans les expériences de Perols (2011), Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek et Henriques (2017). De même, l'étude quantitative ne serait pas significative car l'utilisation de l'apprentissage automatique n'est pas démocratisée et émerge uniquement dans les pratiques professionnelles. Nous nous intéresserons également au sondage qualitatif (voir ci-dessus). Tableau 6 : récapitulatif des approches d’investigation. Intitulé Investigation qualitative – entrevue semi directif Commentaire -Liberté d'expression de l'intimé -entrevue non ciblée -L'enquêteur demeure maître de la discussion. Approches Echantillonnage retenues -Développement des connaissances du point de vue des autres utilisateurs de l'apprentissage automatique; -Détection les bonnes manières dans différents domaines -aide à rogner les recommandations. Sondage notarial -insuffisance des ressources -inadaptées aux démonstrations de recherche. 40 Sondage quantitative - Encore exploratoire - Se concentrer davantage sur les variables que Approches sur les intervenants. exclues Source : D’après Blanchet et Gotman (2007), Bouzon et al. (1996), Dumez (2011) et Gautron et al (2003). 1.2. Désignation des répondants Mathématiciens, ingénieurs, auditeurs et data scientists sont tous impliqués dans l'avènement de machine learning dans les cabinets d'audit et de comptabilité. Pour l'analyse comparative (Benchmarking), nous allons essayer de comparer l'implémentation de l'outil d'apprentissage automatique dans d'autres domaines professionnels. En nous fondant sur nos démonstrations de recherche, nous avons identifié quatre catégories de répondants aux fins de nos entrevues. Les CAC ont été volontairement divisés en deux groupes : ceux qui utilisent l'IA pour détecter les fraudes et ceux qui ne l'utilisent pas. En fait, le guide d'entrevue sera présenté de façon différente selon que le CAC interrogé utilise ou non l'apprentissage automatique. Si jamais il ne l'exploite pas, nos questions seront adressées à l'attente et à ce qu'il pense de cette technologie même s'il ne l'exploite pas. Il s'agit aussi d'une façon de déterminer les raisons qui expliqueraient l'absence de cet outil dans leurs processus opérationnels. Nous appellerons AAM « Auditors With Machine Learning », pour faire référence aux vérificateurs, diplômés ou non, qui utilisent ou conçoivent des outils algorithmiques. Les ASM sera le « Auditors Without Machine Learning » qui à la place n'a pas ces outils. En outre, nous chercherons à interviewer les professionnels de l'apprentissage automatique qui l'installent en leur propre nom ou au nom des clients. Diplômés d'écoles d'ingénierie, de mathématiques ou d'informatique et étant à l'origine des outils, ils sont plus en mesure de répondre aux points pratiques et théoriques de l'apprentissage automatique. Nous mettrons donc à l'épreuve avec eux les hypothèses de recherche HR2, HR3 et HR4. Tel que mentionné plus haut, l'entrevue semi-directionnelle perrmettras aux experts de discuter leurs commentaires et non des variables (H.Dumez 2011). On les appellera « DS » pour « sciences-data ». Enfin, dans le contexte de l'analyse comparative, nous solliciterons des professionnels qui utilisent aussi l'apprentissage automatique dans des domaines semblables ou sans rapport. Notre approche aura pour objectif de diversifier les domaines d'activité afin de répondre aux attentes de tous, mais pas de tous également les difficultés éventuelles rencontrées dans la mise en place de cet outil et la contribution de l'intelligence artificielle dans la réalisation de leur tâche. Ceux-ci seront désignés par l'abréviation « Bench » par la suite. Tableau 7 : Liste des répondants approchés (Modifié pour préserver son anonymat) 41 Qualité Catégorie Secteur Responsable R&D Conseil & audit AAM Data scientist chercheurs AAM Directeur stratégique audit AAM associé Audit audit ASM Manager Audit Audit ASM Directeur Qualité & Risque audit ASM Juriste droit Bench Directeur avant-vente Informatique Bench Professeur en stratégie Enseignement supérieur Bench Chercheur associé en Cyber Cyber sécurité Bench Data scientist santé Bench Cadre supérieur Finance public bench Chercheur en IA aérospatial DS Politique DS conseil DS sécurité Mathématiciens Associé risk management 1.3. Les guides d’entrevu Le guide d'interview est un outil de sondage qualitatif qui résume tous les sujets couverts et les questions posées par catégories de personnes interrogées. Il présente une certaine chronologie qui peut être modifiée lorsque l'entretien invite à modifier le plan d'entretien par exemple. Toutes les questions posées sont issues des lectures résumées dans l'analyse documentaire. Afin de garantir la pertinence de ces questions lorsqu'elles sont posées à des professionnels, nous avons mené un processus exploratoire. Autrement dit, le guide d'entrevue a déjà été présenté aux professionnels et aux étudiants en IT et en marketing. Nous avons donc identifié deux grands thèmes à partir de nos quatre hypothèses de recherche. Le tableau suivant illustre la pertinence de chaque thème en regard des hypothèses de recherche. Les tableaux ci-dessous ont pour but de présenter le guide d'entrevue pour les différentes catégories de répondants dont nous avons discuté précédemment. Enfin, la dernière table rassemble les questions posées dans le cadre de notre analyse comparative à d'autres professionnels utilisant l'apprentissage automatique. 42 Tableau 8 : Synthèses des hypothèses de recherche Réf Hypothèses HR1 La découverte de la En raison de la quantité considérable fraude par d'écrits dans la FEC, le vérificateur mettra « Journal Entry en place des moyens de "purifier" la Testing » est faussée par les finalités de Thème Contenu Test Jet & Rationalité restreint population et viser des types décrits pour mener des essais qu'il juge plus l’auditeur et son pertinents. Le choix est ensuite réduit par intelligence émotive. une partie de la population initiale susceptible d'être frauduleuse. HR2 HR3 HR4 L'intelligence Machine learning est un enchaînement de artificielle, par beaucoup de modèles différents basés sur l'apprentissage Pertinence et fiabilité un processus fiable basé sur le triptyque automatique, de machine learning "Trainig, validation et application". En pourrait tester le raison de son orientation spécifique, il est FEC de façon possible de mettre en évidence des pertinente, fiable et corrélations que l'auditeur n'est pas en rentable. mesure de les détecter La mise en œuvre Formalités pour À la lumière de nos lectures, d'un outil l’implémentation du l'implémentation semble présenter un d'apprentissage machine certain nombre de conditions, y compris automatique dans learning « apprentissage techniques. Que ce soit le choix de une firme de automatique » modèles statistiques ou de la base de vérification données consacrée à l'apprentissage comporte des automatique, sa mise en œuvre constitue obstacles. un obstacle à l'entrée. Le recours à L'arrivée de l'intelligence artificielle dans l’apprentissage les processus de travail peut arriver à automatique libérera du temps Utilité du machine remplacer l'homme (assurance, conduite learning autonome). Dans ce cas, ce sera plus une pour l’auditeur au économie de temps pour le vérificateur profit de l’analyse qui n'aura pas à faire un choix ou à se et de la donner du temps pour justifier son maintenance des approche. Ils délaisseront les aspects clients. techniques et se concentreront sur les 43 entretiens et les relations avec les clients pour mieux analyser la fraude. Source : Moi-même 44 Tableau 9 : Manuel d'entrevues pour les CAC qui n'adoptant pas Le machine learning. hypothèses thèmes Auditeurs n’adoptant pas le machine learning Q1 : À votre avis, en quoi consiste Intro une vérification? Q2 : À votre avis, quels critères La découverte de la fraude devraient être pris en compte pour par « Journal Entry Rationalité limitée Testing » est faussée par les finalités de l’auditeur et détecter la fraude? Test Jet & Rationalité restreint son intelligence émotive. Q3 : Comment procédez-vous à la vérification des fraudes? Q4 : Quelle est votre opinion à propos de JET? Q5 : Dans quelle mesure est-il pertinent pour le dépistage de la fraude? Q6 : Pensez-vous qu'il y a des distorsions en ce qui concerne le test de fraude du JET? Lesquels ? Q7 : Comment diminuer ces distorsions ? Machine learning L'intelligence artificielle, Pertinence et fiabilité de Q8 - Selon vous, l'intelligence par l'apprentissage machine learning artificielle, à travers l'apprentissage automatique, pourrait automatique, pourrait-elle tester le tester le FEC de façon FEC de façon pertinente et fiable ? pertinente, fiable et Q9 - Selon vous, cela permet-il au rentable. cabinet de réaliser des économies? La mise en œuvre d'un Formalités pour Q10 - Pour quelle ou quels motifs outil d'apprentissage l’implémentation du n'avez-vous pas mis en œuvre cet automatique dans une machine outil dans votre bureau? firme de vérification learning « apprentissage Q11 - Le cas échéant, à quelles comporte des obstacles. automatique » conditions? Le recours à Utilité du machine Q12 - Pensez-vous que l'application l’apprentissage learning de l'IA aux cabinets d'audit peut automatique libérera du libérer du temps pour le vérificateur? 45 temps pour l’auditeur au Q13 – Pensez-vous que ce sera profit de l’analyse et de la avantageux pour la relation avec la maintenance des clients. clientèle? Source : Moi-même 46 Tableau 10 : Manuel d'entrevues pour les CAC qui adoptant Le machine learning. hypothèses thèmes Auditeurs adoptant pas le machine learning Intro Q1 - Depuis quand offrez-vous ce service à vos clients? Q2 - Qu'est-ce que vous entendez par IA (concept, outil, développement...)? Rationalité limitée L'intelligence artificielle, Q3 - S'il s'agit d'apprentissage par l'apprentissage automatique, comment le définissez- automatique, pourrait vous? tester le FEC de façon pertinente, fiable et Pertinence et fiabilité de Q4 - Dans quel domaine procédezmachine learning vous à son élaboration? Q5 - Quels avantages escomptez-vous rentable. d'un tel instrument? Q6 - Qu'est-ce qui constitue exactement la base d'un apprentissage automatique fiable? Q7 - Comment vous sentez-vous par rapport à son utilisation dans la détection des fraudes de vérification? Q8 - En ce qui concerne le fichier d'écritures comptables (le FEC), s'agit-il d'un ensemble de données approprié pour mettre à l'essai la fraude par apprentissage automatique? Pourquoi ? Q9 - Quels seraient les avantages d'appliquer le machine learning pour mettre à l'essai le FEC (pertinence, fiabilité, économie, etc.)? Machine learning La mise en œuvre d'un Formalités pour Q10 - Avez-vous tenu compte des outil d'apprentissage l’implémentation du désavantages liés à la mise en œuvre automatique dans une machine (coûts, personnel qualifié, firme de vérification learning « apprentissage équipement, financement, désuétude, comporte des obstacles. automatique » etc.)? 47 Q11 - Quels ont été les principaux obstacles rencontrés lorsque vous avez mis en œuvre cet outil dans votre pratique? Q12 - À votre avis, les bénéfices attendus sont-ils suffisants pour les contraintes de mise en œuvre? Lesquels ? Q13 - Selon vous, s'agit-il d'un outil mis à la disposition des cabinets d'audit? Le recours à Utilité du machine Q14 - Qu'avez-vous observé depuis l’apprentissage learning l'utilisation de l'apprentissage automatique libérera du automatique? temps pour l’auditeur au Q15 - Quel serait le principal avantage profit de l’analyse et de que vous me donneriez? la maintenance des Q16 - Est-ce que l'apprentissage clients. automatique permet de mettre davantage l'accent sur d'autres aspects d'une profession? Pourquoi. ? Q17 - En ce qui a trait à la vérification, qu'est-ce qui, selon vous, va changer dans une mission? Q18 - L'utilisation du machine learning est-elle une garantie de qualité dans le contrôle de la fraude ? Pourquoi ? Conclusion Q19 - que pensez-vous du futur de la machine learning dans le monde professionnel ? Q20 - conseillez-vous cet outil aux spécialistes en comptabilité? pourquoi ? Source : Moi-même 48 Tableau 11 : Manuel d'entrevues pour les professionnels du machine learning. Hypothèses thèmes Professionnels du machine learning Q1 - Quelle est votre définition de Intro l'apprentissage automatique? Q2 - Si je vous parle du machine learning, quelle est votre définition ? Q3 - Quels avantages devrait-on tirer de ce type d'outil? Q4 - Comment vous sentez-vous par rapport à Machine L'intelligence artificielle, par Pertinence et fiabilité de son utilisation pour la détection des fraudes? learning l'apprentissage automatique, machine learning Q5 - En ce qui concerne le fichier d'écritures pourrait tester le FEC de comptables (le FEC), s'agit-il d'un ensemble de façon pertinente, fiable et données approprié pour mettre à l'essai la fraude rentable. par apprentissage automatique? Pourquoi ? Q6 - Avez-vous prévu des difficultés La mise en œuvre d'un outil d'apprentissage automatique Formalités pour dans une firme de l’implémentation du machine vérification comporte des obstacles. learning « apprentissage d'installation auparavant? Q7 - Quelles contraintes ont fini par être rencontrés? automatique » Le recours à l’apprentissage Q8 - Le machine Learning a-t-il rendu possible automatique libérera du de libérer du temps pour vos collaborateurs? temps pour l’auditeur au Q9 - Si oui, à quel avantage a permis de gagner profit de l’analyse et de la maintenance des clients. Utilité du machine learning du temps? Q10 - En ce qui a trait à la pratique professionnelle, est-ce que cela change l'opinion des auditeurs? Conclusion Q11 - Si vous aviez à conseiller un collègue au sujet de cet outil, quels conseils lui donneriezvous? Source : moi même 49 Tableau 12 : Guide d’entrevues liées au Benchmarking thèmes Intro benchmarking Q1 - Dans quel champ pratiquez-vous? Q2 - Depuis combien de temps vous exercez-vous en la matière? Q3 - Qu'est-ce que l'IA pour vous (concept, outil, développement, etc.)? Q4 - De quelle façon avez-vous configuré cet outil au sein de votre entreprise? (Prestataire, décision, conseil...) ? Le machine learning Q5 - Quels avantages espériez-vous tirer de l'installation du machine à pencher? Q6 - Avez-vous rencontré certains obstacles? Lesquels ? Q7 - Estimez-vous que votre investissement est rentable? Q8 - Avez-vous observé des évolutions dans vos pratiques professionnelles depuis qu'elles ont été adoptées? Lesquelles. ? Conclusion Q9 - Que conseilleriez-vous à un collègue qui aimerait basculer vers le machine learning Source : Moi même 50 2. Contrôle des hypothèses de recherche - Examen des résultats d'entrevues Le contrôle des hypothèses de recherche s’est effectué à travers une dizaine des interrogés compartimentés en quatre catégories différentes. Afin de contrôler nos hypothèses de recherche, nous allons mettre en place une analyse de leur réponse par type de répondant. 2.1. affichage et étude des résultats obtenus par l'entrevue L'ensemble de nos entrevues présente un cumul de 4h30min d’échanges, 2 différentes nationalités (Maroc et France) et 10 personnes interrogées au travers de 4 entretiens téléphoniques, 2 rencontres physiques et un retour par e-mail. Présentation des différentes entrevues Le taux de réponse des répondants interrogés s'élevait à 9 sur 12, ou 75 % des réponses. En fin de compte, nous avons pu procéder à des entretiens physiques & téléphoniques avec 8 d'entre eux. Alors que l'accroissement de cette technologie bat son plein, la peur de « l'espionnage industriel » a été remontée par certaines des personnes contactées afin de justifier leur abstention. S'agissant des data scientists et des personnes approchées dans le cadre du benchmarking, certains ont préféré ne pas donner un résultat favorable à notre demande d'interview parce que la fraude et la vérification sont des sujets qu'ils n'abordent pas dans leur entreprise. En ce qui concerne la représentativité de l'échantillon, la population interrogée est constituée de 3 d'employés et d'associés travaillant à Deloitte et 1 chez EY. 3 de la population étudiée est constituée des personnes travaillant chez d'autres cabinets d'audit et d'expertise. Les Big4 représentent donc 4 de la population totale. Suite au retour favorable du Directeur Général d'une Start-Up en justice prédictive pour une interview nous en avons également profité pour faire participer Maitre M, représentant de l'Ordre, afin de faciliter une rencontre entre un avocat et un membre du Barreau, pour se familiariser avec les sujets et les questions qui affectent les avocats. 51 Tableau 13 : Liste des répondants interrogés dans le cadre de l’entrevue terrain (Modifié pour des garder l’anonymat) société secteur Poste Type Durée anonymat Big4 FR Audit & consulting Manager Téléphonique 45min AAM Big4 fr Forensic Partner - CAC Téléphonique 30min Bench Big4 MA Audit & consulting CAC Face to face 1h ASM Autre cab Audit Auditeur Face to face 45min ASM Autre cab Audit & Consulting Manager téléphonique 20min ASM Cybersécurité Chercheurs Associés en E-Mail N/A DS CR** cyber Start up Justice prédictive Juriste Téléphonique 30min Bench Barreau Normalisateur Membre représentant Téléphonique 30min Bench Source : Moi-même 52 Démonstration des résultats par catégorie des interrogés A la demande des répondants, Les annexes de 8 à 11 de la version initiale qui résument toutes les transcriptions des entrevues que nous avons menées n'ont pas été retenues dans cette version publique. L'annexe 8 présente la méthode utilisée pour transcrire les interviews sous forme de tableaux. Ils ne répètent pas textuellement ce qui vient d'être dit, mais rapportent les idées essentielles soulevées par nos interrogés. Afin d'être en mesure de les comparer, nous avons choisi de présenter ces résumés par catégorie de répondants (ASM, AAM, DS et Bench.) tels que nous les avons définis précédemment. Les auditeurs, tant diplômés que non diplômés, qui n'utilisent pas le machine learning (catégorie ASM) ont tous présenté des arguments allant dans la direction des limites du test de détection des fraudes sur la base de la FEC à l'aide des outils d'analyses. En effet, on remarque que les exigences du CAC sont flexibles et que le NEP 240 ne comporte pas un niveau de participation équivalent à celui des Services judiciaires ou de l'Autorité des marchés financiers (AMF) tel qu'indiqué dans ASM 1, ce qui confirme les déclarations de Carassus et Cormier (2003). D'un autre côté, les vérificateurs d'origine américaine estiment que les vérificateurs manquent de scepticisme professionnel (« professional skepticism ») pendant leurs vérifications et qu'ils ne posent pas assez de questions. Les deux signalent l'absence de connaissance du milieu des affaires et de son fonctionnement. En outre, ce défaut peut être dû au manque de temps que l'apprentissage automatique pourrait corriger. Par ailleurs, bien que les outils analytiques existants soient efficaces pour les contrats de type "middle market", il comporte des défauts en cas de volume d'écriture trop élevé vers la FEC. L'une des raisons qui sous-tendent l'apprentissage automatique est la capacité à traiter des données en vrac. Finalement, nous comprenons que le FEC est une base de données, en principe complète, qui mérite d'être complétée par un plus grand contrôle interne. Tandis que ASM conseil de faire davantage de tests sur procédures lors de la phase d’intérim, ASM imagine l'intégration de paramètres additionnels outre le FEC dans les données traitées par le machine learning, faire l'objet de procédures de contrôle interne (comptes bancaires, comptes auxiliaires...etc.). A propos de l’auditeur adoptant le machine learning pour leurs besoins d’audit (AAM), il reconnaît l'efficience de l'apprentissage automatique. Malgré tout, il nous met en garde au sujet de la « nature protéiforme de la fraude » et le manque de considération du contrôle interne dans un test basé uniquement sur le fichier d'écritures comptables. Il a en outre ajouté que l'investissement de base est considérable et que les cabinets d'audit n'ont pas coutume de mobiliser des ressources financières et humaines pour répondre aux besoins en R&D. Par ailleurs, l'open source ne suffit pas à réduire les coûts, car les solutions ouvertes ne sont pas clés en main et exigent le travail d'une équipe de scientifiques des données. En outre, l'adoption du machine 53 learning doit répondre à un véritable besoin politique de l'entreprise. Cependant, s'il décide de le créer, l'auditeur en tire plusieurs avantages, notamment la délégation de tâches laborieuses à la machine. D'une part, il lui permet de se concentrer sur l'analyse et la critique des résultats obtenus grâce à l'instrument. D’autre part, dans une approche non supervisée, l’apprentissage automatique peut apporter à l’auditeur une certaine ouverture d’esprit en ce sens qu’il produira des résultats que l’auditeur n’attendait pas forcément. Par ailleurs, AAM estime que certaines entreprises seront forcées de le faire, car leurs clients finiront par utiliser ce genre d'outils pour produire des données comptables et financières. L'entrevue des équipes de science des données (catégorie DS) a permis de mieux comprendre les défis de la mise en œuvre des algorithmes ainsi que leur potentiel en ce qui concerne l'enquête d'un auditeur sur la fraude. En fait, nos entrevues ont débouché sur une conclusion commune au sujet des données et de leurs prises. Le DS que nous avons rencontrée a mis l'accent sur le manque de maturité des clients, ce qui complique l'accès et la récupération des données dans un format utilisable. Il ajoute que le temps consacré au traitement des données constitue un fossé qui occupe les équipes de science des données à 80 % de leur temps. Etant donné que cette phase est l'essentielle pour la formation de l'algorithme, les équipes passent autant de temps que possible à conserver l'information brute et même à l'enrichir. Pour ce qui est de la fraude, nous savons que l'accessibilité des données par le vérificateur et la formation des algorithmes sont limitées. Si la fraude a toujours existé dans les comptes, l'outil pourrait alors reconnaître la fraude comme une norme de non-réponse à un défaut. À titre de vérificateur, il sera alors essentiel d'assurer une transparence maximale auprès des entités auditées et s'entourer d'avocats afin d'obtenir des contrats de sous-traitance et des lettres d'engagement de vérification. Enfin, les expériences qui ont déjà été menées dans le cadre de l'audit et d'autres domaines ont confirmé que ces outils économisent énormément de temps permettre la réaffectation des ressources dans le cadre d'une mission d'audit (planification). Toutefois, cette réorientation des activités exigera la formation nécessaire des utilisateurs et des préparateurs au sein de la profession comptable, comme nos répondants l'ont fait remarquer. Notre analyse comparative nous a permis de découvrir les conditions de mise en œuvre de cet outil dans les domaines suivants : les robots de prise de décision, la lutte contre la fraude et le blanchiment d'argent, les enquêtes sur les infractions financières, la cyberdéfense et la justice prévisionnelle. Nous voyons que l'utilisation de l'outil répond à un besoin des clients en lien avec un changement d'environnement tel que les banques face aux nouvelles techniques de fraude ou l'évolution des cyberattaques et des actions professionnelles cherchant à optimiser leurs processus de travail (analyse des décisions judiciaires massives et rapides). La vitesse, l'efficience et la complétude du traitement ainsi que le but recherché par tous nos interlocuteurs. C’est par exemple la capacité à traiter 5 000 décisions de justices par secondes, décortiquer 60 000 contrats par jours ou encore nécessiter seulement 3 millisecondes pour traiter une transaction financière là où le marché exige 5 secondes. Cependant, 54 trois d'entre eux ont lancé un avertissement contre les faux positifs. Certaines personnes nous ont donné des exemples d'entreprises qui ont renoncé à leurs projets pour cette raison. De plus, une des interrogées ont souligné que grâce aux bibliothèques de code open source, il est possible aujourd'hui de disposer d'algorithmes efficaces grâce aux dernières mises à jour effectuées par la communauté d'utilisateurs. Pour ce qui est des questions, tout le monde nous a parlé des problèmes inhérents à la collecte de données, Ceux-ci comprennent le retraitement (contrôle des données), la conformité (RGPD) et la sécurité. La rentabilité est aussi préoccupante, car les coûts fixes sont constitués de serveurs et de machines utilisés pour le stockage et la programmation de modèles. Certains ont vite fait d'être rentables avec leurs premiers contrats. Cependant, les coûts variables sont très élevés parce qu'ils correspondent aux heures humaines d'un personnel très qualifié. Bench fait remarquer qu'il s'agit de déterminer si « l'économie de temps et d'argent à l'avenir vaut l'investissement initial ». Le bilan demeure toutefois positif puisque chacun le recommande avec ses propres conseils spécifiques en fonction du secteur allant de défier l'algorithme au hasard à écouter attentivement les besoins du client et les exigences éthiques et éthiques y compris le besoin d'une équipe compétente capable de collaborer. Enfin, le machine learning est structuré autour de trois approches différentes : techniciens des ventes, sous-traitants et scientifiques des données et ingénieurs en apprentissage automatique. En effet, les techniciens des ventes, en raison de leur position, tiennent des discours qui tendent à « dépasser les attentes » En d'autres termes, ils savent faire ressortir les avantages de leurs outils, les perspectives de développement et leurs avantages concurrentiels La réunion avec les équipes de données scientifiques nous a permis de nuancer ce qu'elles ont dit En tant que concepteurs de ces outils, ils sont tout à fait conscients des enjeux et des limites de l'apprentissage machine et reconnaître qu'il est plus facile d'avoir des opinions sceptiques non pas au sujet du potentiel de ces outils, mais au sujet de la faisabilité technique de ce que les entreprises attendent. Enfin, l'entrepreneur et leader rencontré au sein de l'incubateur de start-up du Crédit Agricole parvient à nuancer naturellement ses commentaires puisqu'il était conscient des contraintes d'exécution au cours du suivi du projet. 2.2. vérification de pertinence des démonstrations de recherche Pour résumer notre investigation sur le terrain, nous avons évoqué au tableau 14 les hypothèses de recherche qui ont dirigé nos discussions et nous avons formulé des commentaires sur les résultats de leur vérification. Nous notons que chaque hypothèse est validée ou partiellement validée. Tableau 14 : Vérification des hypothèses de recherche 55 HYP DE RECHERCHE Résultat HR1 : La découverte de la fraude par « Journal Entry Testing » est faussée par les Conclusion Tous les CAC interviewés estiment qu'il y a des limites à la Approuvée détection de la fraude au moyen de la méthode « JET ». finalités de l’auditeur et son intelligence émotive. Pour cette raison, la FEC ne peut être suffisante pour déceler HR2 : L'intelligence artificielle, par l'apprentissage Partiellement approuvée des tendances frauduleuses dans une entreprise, il doit être complété par une mine d'informations issues notamment du automatique, pourrait tester contrôle interne. Même si l'outil est très efficient dans certains le FEC de façon pertinente, domaines, la fraude demeure complexe et comporte de fiable et rentable. multiples facettes, ce qui laisse planer des doutes chez les experts. HR3 : La mise en œuvre d'un outil d'apprentissage Le cabinet d'audit est une structure qui vend son expertise. Approuvée Investissement et mobilisation importants les ressources automatique dans une firme humaines qui ne sont pas affectées à la vérification ne font pas de vérification comporte partie des systèmes de financement traditionnels des des obstacles. entreprises. En outre, l'utilisation de ce type d'outil suppose un contrôle parfait de la collecte des données afin de répondre aux besoins de la vérification. Toutefois, ces obstacles peuvent être surmontés par l'externalisation à GAFA ou aux entreprises en démarrage, ce qui peut causer des problèmes d'externalisation. HR4 : Le recours à l’apprentissage automatique libérera du temps pour l’auditeur au Le CAC sera amené à mettre ce temps à profit d’une Partiellement approuvée investigation auprès d’interlocuteurs privilégiés, fournir de l'information comportementale, psychologique et sociale qui n'est pas prise en compte par la machine. Cependant, le temps profit de l’analyse et de la économisé par le vérificateur devra aussi être partagé avec les maintenance des clients. nouvelles responsabilités de l'entreprise lorsqu'elle recueille des données confidentielles en vrac, financièrement, personnellement et de façon sensible. Source : nos entrevues 56 2.3. recommandations et consignes Étant donné les résultats de notre investigation, nous notons qu'il y a des points d'attention dans la gestion de projet de l'implémentation des outils d'apprentissage automatique appliquée à la détection des fraudes dans le travail du contrôleur légal des comptes au sein du FEC. Recommandations : Le passage aux outils d'apprentissage automatique doit satisfaire les besoins stratégiques de l'entreprise. S'ils veulent être compétitifs, ils peuvent déjà investir dans cette technologie pour se spécialiser dans ce domaine. Toutefois, les data scientists que nous avons interrogés ont révélé que les plans pour mettre en place l'apprentissage automatique peut coûter cher en raison du temps passé à nettoyer et à récupérer les données, la mise en place des modèles et l’entrainement des algorithmes par une main d’œuvre hautement qualifiée (donc onéreuse). Par ailleurs, si le traitement des données est effectué en interne, l'entité sera contrainte de se doter d'équipements informatiques performants dont elle n'a pas besoin pour ses missions d'audit traditionnelles. Il est recommandé d'investir seulement s'il est approprié pour le type de client de l'entreprise et que des retombées économiques futures peuvent être réalisées et compenser les frais liés à la recherche et au développement. Les méthodes traditionnelles d'audit antifraude, lorsqu'elles s'accompagnent d'un contrôle interne et d'une meilleure connaissance de l'entité et de son environnement, sont suffisantes sur les entités dont le volume en écriture reste bas. Le machine learning sera plus utile pour les entités listées, les fonds d'investissements ou les structures qui génèrent de grandes quantités de données. Rec1 : Le choix de passer à des outils de machine learning doit satisfaire un véritable besoin stratégique de l'entreprise. De plus, notre entrevue a montré que, dans tous les cas, on recommandait de rompre avec les aspects purement numériques de la comptabilité et qu'une étude approfondie de l'entité, de son environnement et ses processus seront nécessaires à une meilleure compréhension des sources d'erreurs et du niveau de risque lié à la fraude. Si une entreprise décide d'implanter des outils d'intelligence artificielle, nous lui conseillons de dépasser le FEC et d'intégrer autant de renseignements que possible dans sa base de données afin d'accroître la précision de l'analyse des algorithmes. En particulier, il sera nécessaire d'essayer de récupérer autant de données que possibles depuis les modules du PGI de l'entité, fournir des renseignements sur les stocks, les immobilisations, les salaires et, par conséquent, fournir une source d'information statistique différente de celle fournie par le FEC. En outre, le CAC qui recueille des données pour ses essais doit avoir un contrôle parfait tout au long de son mandat. 57 Rec2 : L'enquête sur la fraude menée par le CAC doit être fondée sur des variables qui ne relèvent pas du FEC privilégiant en particulier le contrôle interne et la familiarisation avec l'entité et son environnement. La CNIL demande ce qui suit : « Quid du risque que les préconisations de la machine soient appréhendées comme une vérité absolue, non soumise à la discussion quant à ses conséquences pratiques ? » De plus, il paraît important que les professionnels indépendants soient en mesure de commenter l'algorithme mis en place par un cabinet d'audit. À titre de vérificateur, le vérificateur doit être conscient de l'existence d'un dilemme entre rendre l'algorithme explicite et le rendre efficace. Plus le schéma algorithmique sera complexe, moins l'identification du «voie intellectuel» de la machine sera possible. De plus, nous proposons la mise en œuvre de vérifications algorithmiques par des tiers comme les vérificateurs des TI ou H3C, organisme de réglementation de la profession. Par conséquent, nous recommandons la mise en œuvre d'un système de boîtes blanches, permettant la vérifiabilité des algorithmes. Rec3 : À des fins de discussion, les algorithmes doivent être aussi explicables que possible par un examinateur. Consignes Nos recommandations à l'intention de la profession comptable se reflètent dans un plan de formation interne destiné aux cabinets de vérification, ainsi qu'un guide pratique sur l'utilisation correcte de l'apprentissage automatique par le vérificateur. Bien que le plan de formation soit davantage axé sur les employés, le guide pratique, comme celui publié par l'OEC pour l'informatique en nuage en 2013, est essentiellement destiné aux CAC connexes. Le plan d'instruction proposé est présenté à l'annexe 10 et est divisé en trois modules : Module de premier cycle : Introduction à l'apprentissage automatique. Module supérieur : Collecte et décontamination des données. Module pour les managers : Gestion de mission. Pr1 : Programme de formation en fonction de 3 niveaux d'assaisonnement. 58 Illustration 7 : Guide pratique en 10 points sur l'utilisation correcte de l'apprentissage automatique par les sociétés d’audit. Data : - RGPG & Sureté - Qualité du Dataset Cabinet: - Stratégie - Informer ses clients -Sensibiliser ses équipes Algorithme: - Explicabilité - Non-discrimination Profession: -Exigences réglementaires - Demeurez proactifs. -Renouvellement du métier E x i g e n c e r é g l e m e n t a i r e - 59 Posez-vous des questions pertinentes. L'apprentissage automatique doit satisfaire les besoins stratégiques de la société et ne doit pas être une mode. L'installation peut s'avérer fastidieuse et coûteuse. La formation des modèles, la récupération des données, leur nettoyage et la gestion des faux positifs sont les principales raisons pour lesquelles le projet a été abandonné. Puisque la recherche et le développement ne font pas partie de la structure financière « typique » des sociétés de vérification et de consultation, Les chefs d'entreprise doivent s'interroger sur la faisabilité technique et la rentabilité financière. RGPD et sûreté des données Pour répondre au phénomène du big data, les législateurs européens ont mis en place le règlement général de protection des données (RGPD). Adressée à protéger les consommateurs et les utilisateurs des réseaux sociaux, la présente norme s'applique aux entreprises qui recueillent des données à caractère personnel en Europe et/ou auprès de résidents européens. Le vérificateur doit en être conscient et se conformer aux exigences des législateurs pour assurer une transparence croissante. Le CCC doit aussi savoir qu'il est le gardien des données et doit assurer leur sécurité en cas de cyberattaque. Se familiariser avec les exigences de l'autorité de régulation de la profession. Compte tenu des profonds changements que l'apprentissage automatique en intelligence artificielle peut apporter, les établissements prennent position et soutiennent les professionnels. Le CNCC sera également appelé à exprimer son point de vue par le biais d'un rapport ou d'une charte de bonnes pratiques. Nous invitons les vérificateurs à consulter les publications de l'Ordre afin d'agir conformément aux exigences du CNCC. Sensibiliser le client Pour des motifs de coût ou d'expertise, une entreprise peut décider d'externaliser le traitement algorithmique de ses données à un GAFA. En outre, externaliser consiste à transférer des données à un tiers pour un traitement spécifique. Dans l'affirmative, il s'agit d'éléments importants qui doivent être clairement établis dans les conditions du contrat de service entre l'entreprise et l'entité vérifiée. La transparence vis-à-vis du client est essentielle pour les questions juridiques de consentement contractuel et de confiance entre les parties, garantissant le bon déroulement des missions d'audit. Soyez préoccupé quant à la qualité de vos données. La comptabilité reflète les renseignements financiers qu'une société permet volontairement de refléter à l'aide de données numériques structurées. Toutefois, les enquêtes les plus efficaces sont fondées sur des données non structurées visant à cerner l'anomalie (erreur ou fraude) lorsqu'il est impossible de cacher les renseignements, car les données sont brutes. En termes de collecte d'informations, le 60 contrôleur légal des comptes et ses équipes devront toujours se demander si les informations qu'ils recueillent sont suffisantes pour répondre à la nécessité du contrôle des comptes et vice versa, si, en ce qui concerne le test de vérification, les équipes ont recueilli toutes les données disponibles permettant d'effectuer les travaux de vérification. Ils doivent aussi être critiques et toujours être conscients de la véracité et de l'exhaustivité des données extraites. Explication des algorithmes et des boîtes blanches. Le commissaire aux comptes consigne et justifie l'ensemble de son travail. Les règles de pratique en matière d'éthique invitent le vérificateur à fonder sa vérification sur des preuves, à rechercher la vérité en tout et à ne pas se contenter de presque tout. Par conséquent, il n'est pas concevable que l'opinion du CAC soit fondée sur l'analyse d'un algorithme dont le raisonnement est inconnu. Il sera nécessaire de continuer à montrer un scepticisme professionnel, de remettre en question les analyses de l'outil et si possible, de mettre en place des systèmes de boîtes blanches. Mettez en doute l'algorithme et assurez-vous qu'il n'y a aucune discrimination. Quand l'algorithme est en phase de formation, les équipes scientifiques s assurent de mettre en place un outil efficient. Aussi, elles contrôlent le taux de retour des faux positifs par la machine. Compte tenu de l'absence de risque 0, sans hésiter à contester les résultats de l'outil de temps à autre (statistiquement ou aléatoirement) afin de garantir son efficacité continue. De plus, grâce à la formation, l'apprentissage automatique connaîtra finalement des modèles de fraude de plus en plus spécifiques. En outre, si dans toutes ses bases de données l'algorithme a été en mesure d'identifier que les flux en provenance d'un pays particulier étaient frauduleux, À long terme, il est possible de classer ce pays comme synonyme systématique de fraude. En d'autres termes, cet instrument peut être discriminatoire. Nous devons être en mesure de garder la main sur son évolution et de nous assurer que l'outil est non discriminatoire. Songez à renouveler les compétences dans la profession. On peut légitimement considérer que les auditeurs titulaires d'une maîtrise (DSCG, ingénieur, business school, CCA, etc.) seront les premiers concernés par l'arrivée de l'apprentissage automatique. En effet, sans se substituer à l'esprit critique du CAC, il sera néanmoins en mesure d'effectuer le travail d'auditeurs adjoints. Cependant, pour acquérir un niveau d'expertise plus élevé, le vérificateur destiné à la profession de CCC devra suivre une formation dans le domaine et développer son jugement professionnel. Pour conserver un savoir-faire, développer son scepticisme professionnel apprendre à lire les informations cachées derrière les chiffres comptables, le contrôleur des comptes doit être supervisé par un CAC. Ainsi, nous ne devons pas négliger le recrutement d'assistants en faveur de l'utilisation des outils de machine learning. Former et sensibiliser les équipes d’audit Grâce aux publications et aux manifestations organisées par l'OEC, le CCCN et les CRCC, et les vérificateurs titulaires du CAFCAC profitent de la formation et de l'information sur l'évolution des 61 pratiques professionnelles. Il lui incombe de transmettre ses connaissances acquises à ses équipes de vérification dans le domaine des machines inclinables. Cela est d'autant plus important que les collaborateurs aident à récupérer les données, à préparer les bases de données et à lancer le traitement algorithmique. Il est également nécessaire que les collaborateurs aient à l'esprit toutes les questions relatives à l'usage de l'apprentissage automatique pour les besoins de l’audit Demeurez proactifs. Les innovations techniques soulèvent le problème de la complémentarité et du remplacement du facteur travail (homme) par le facteur capital (machine). En ce qui a trait à la vérification, il y a plusieurs points de vue. Les modèles algorithmiques facilitent la planification du vérificateur, estimation des provisions, investigation de fraude, revues analytiques de validation, contrôle interne, édition de rapport, évaluation des actifs, tests de dépréciation et inventaires. Avec un niveau de participation aussi élevé aux travaux d'audit, le CAC doit demeurer proactive dans sa mission et prendre soin de ne pas être dépassée par les capacités de la machine. 62 Conclusion : À titre de rappel, notre étude était structurée en fonction de la question suivante : « Comment l'apprentissage automatique peut-il améliorer la détection des fraudes dans le travail du commissaire aux comptes sur la FEC ? » En fin de compte, l'apprentissage machine « permet d'accomplir des tâches auparavant impossibles à atteindre parce que trop fastidieux ou économiquement non profitable » Dans le cas particulier de l'entrevue sur le dossier des écritures comptables, il est inconcevable de passer en revue les millions de lignes qui le composent. En fait, le CAC n'est lié que par une obligation de moyens et sa démarche par des risques lui permet de concentrer son travail là où il estime qu'une fraude est la plus probable. Cependant, l'efficacité du machine learning change le paradigme par sa capacité à analyser les états financiers plus en détail en concaténant les modèles algorithmiques. Cela corrigerait les limitations cognitives et émotionnelles du vérificateur et l'aiderait à repérer les fraudes. Même si les adjoints et les collaborateurs ont un rôle à jouer en tant que cueilleurs et préparateurs de données, le contrôleur légal des comptes utilise le temps ainsi économisé pour recentrer son activité et attribuer du temps de travail aux analyses qui exigent le plus. Grâce à l'adoption de ces outils, les vérificateurs auront de nouvelles responsabilités, y compris la formation, le jugement professionnel et la gestion des données. Toutefois, cet outil, compte tenu des contraintes d'exécution qu'il présente, doit d'abord présenter un intérêt stratégique pour l'entreprise. Le rapport de 2012 de l'ACFE estime le taux moyen de détection de fraude par vérification interne à 14 % et à seulement 3,3 % par vérification externe la même année. Avec une efficience proche de plus de 100%, on pourrait se demander si l'introduction de ces outils, s'ils se révèlent aussi efficaces, renforcerait la responsabilisation du CAC en ce qui concerne la fraude. La machine learning dispose de beaucoup d'avantages, efficace et avec des résultats pertinents, la seule question qui reste à poser : « en cas de non-détection de fraude, qui assumeront la responsabilité juridiquement ? ». 63 Table des annexes : Annexe 1 : Description des paramètres du cas Jet X ..…………………………………...…………....65 Annexe 2 : Les 10 partis pris de décision les plus importants…………………….....………………...68 Annexe 3 : Examen de l'incertitude et rétablissement du jugement……………………………….......70 Annexe 4 : Entre explication et efficience d'algorithmes. ……………………………….....…………71 Annexe 5 : Base de données proposée à utiliser comme complément du FEC…………………….….72 Annexe 6 : Recommandation – Plan d'instruction interne proposé .….…….……….…...... …………73 64 Annexes : Annexe 1 : Description des paramètres du cas Jet X Annexe 1.1 : les 14 tests pris en charge par le JET et leur intérêt dans le dans le cas Jet X Test reconciliation Description Characteristics of potential audit interest Areas of Entries Entries Entries Entries Entries potential made to made by recorded made that audit unsual individuals at the either contain interest unrelated who end of before or round or typically the during numbers seldom don’t period the prepa and make or as of the recurring entries post- financ digits closing statement Comparison of downloaded x journal entry activity to trial balance activity Test 1 : Seldom used accounts X X Test 2 : Usually large/small entries X X Test 3 : Journal entries made to x X unrelated accounts Test 4 : Users who seldom post X X journal entries Test 5 : Entries containing keywords X of interest Test 6 : Journal entries made after x X period end with little or no description Test 7 : Journal entries with x X integrity issues Test 8 : Back dated and pre dated X journal entries Test 9 : Large income statement credits posted before quarter end X Test 10 : Large revenue debits after X quarter end Test 11 : Journal entries with round X X X X X X numbers and recurring digits Test 12 : Potential duplicate journal entries Test 13 : Benford’s law Test 14 : Entries posted on x weekends/holidays Source : Deloitte 66 Annexe 1.2 : Population du Jet X Population standard/ non-standard overview Percent of journal entries non standard standard pop Percent of entry amount NON STANDARD standard pop Source : Deloitte 67 Annexe 2 : Les 10 partis pris de décision les plus importants Les auteurs et les dates associées concordent avec les publications fondamentales de ces principes. Il peut y avoir de vieilles publications sur le sujet ou des mises à jour plus récentes de la part des auteurs eux-mêmes ou d'autres chercheurs. Biais auteurs année conclusion Actualisation Frederick et al. 2002 Quand un choix doit être fait, la personne peut prendre deux décisions différentes d'un jour à l'autre et que la satisfaction maximale dépend hyperbolique de la combinaison de décision qui varie au fil du temps. Ancrage & Tversky & ajustement Kahneman 1974 Dans un cadre donné, la décision sera subordonnée par une valeur d'ancrage dominante au sein d'un groupe. Le décideur agit conformément à ce qu'il sait de la volatilité de cette valeur d'ancrage (phase d'ajustement). Aversion à Ellsberg 1961 l’incertitude Grâce à un paradoxe, Ellsberg montre que la plupart des décisions sont prises quand la probabilité de réalisation est connue. Aversion à la Tversky & perte Kahneman 1991 Une personne aura beaucoup plus de poids à perdre qu'à gagner la même somme. Cette aversion n'encouragera en rien la prise de risques. Biais de Watson 1960 Une personne «attire la vérité» à elle-même à partir de l'instant lorsqu'elle sélectionne les informations de façon à favoriser les confirmation données qui confirment son raisonnement a priori et inversement celui qui contredit son raisonnement. Biais de Tversky & disponibilité Kahneman 1974 Le biais de disponibilité est utilisé lorsqu'une décision est prise sur la base d'une surestimation de l'information immédiatement disponible. Cela vaut notamment pour les situations de crise, de stress ou de pression hiérarchique. Biais de Tversky & représentativité Kahneman 1983 Biais cognitif selon lequel les « éléments de personnalisation » parasitent la plus grande partie de l'information permettent un jugement rationnel (charisme, stéréotypes, vêtements, etc.) Biais du tireur Thompson 2009 Le sophisme de Thompson décrit la situation dans laquelle une personne déduit des liens de causalité de scénarios présentant des texan caractéristiques semblables. Ce sont des pensées sournoises. Equilibre de Nash Nash 1994 En jeu, la solution sans collaboration entre les «joueurs» peut conduire à une stratégie «dominante» pour chacun des joueurs afin qu'il minimise ses risques. J.Nash fait remarquer que cette stratégie mène à un équilibre sous-optimal en l'absence de collaboration. 68 Excès de johnson & confiance Fowler 2009 Situation où l'individu pense qu'il peut contrôler l'incontrôlable et ne se sent pas exposé aux situations de risque. Il pense qu'il peut optimiser sa satisfaction en ignorant l'incertitude. Source : série youtube « Crétin de cerveau », et Biais cognitif — Wikipédia (wikipedia.org) 69 Annexe 3 : Examen de l'incertitude et rétablissement du jugement questionner la prémisse de base : l'imperfection de la modélisation des phénomènes économiques et des incertitudes dans la représentation comptable des phénomènes économiques. l'industrie et la normalisation du processus d'audit. pression économique/motivation. Opinion professionnel de CAC facteurs psychiques et émotionnels. consentement Le respect des règles comptables dans les états financiers. Accréditation Refus d’accréditation ou accréditation avec réserves Source : Milédi et Pigé (2013, p.11) 70 Annexe 4 : Entre explication et efficience d'algorithmes Source : accuracyvsexplainability.png (733×352) (lemonde.fr) 71 Annexe 5 : Base de données proposée à utiliser comme complément du FEC Etudes comportementales Données bancaires Etude de comportement Contrôle interne des individus RIB Virements Transferts … (etc.) Détection des profils de Évaluation du risque. type fraudeur Hommes clés … etc. … (etc.) Base de données des ERP Fichiers de stocks Registre des immobs. .. etc. Informations financières Cours de bourse Volumes des transactions … etc. Source : moi-même 72 Annexe 6 : Recommandation – Plan d'instruction interne proposé 73 74 75 76 77 78 79 Source : Léopold Wenger 80 Bibliographie : Articles de recherche Bouzon A., Couzinet V. et Normand R. (1996), Les Doctorants livrés à la recherche documentaire, Bulletin des bibliothèques de France (BBF), 6, 54-59. Carassus D. et Cormier D. (2003), Normes et pratiques de l'audit externe légal en matière de prévention et de détection de la fraude, Comptabilité Contrôle Audit, 1, 171-188. Chanut V., Guibert N., Rojot J. et Dubois P. (2011), Les limites de la rationalité limitée ? Un essai de réflexion en sciences de gestion, Revue management & avenir, 48, 97-117. Chanut V., Guibert N. et Rojot J. (2011), La rationalité limitée en gestion : état des lieux et perspectives, Revue management & avenir, 48, 94-96. Collins J. C. (2017), Using Excel and Benford's Law to detect fraud, Journal of accountancy, 223, 4, 4550. Dagorn N., Biot-Paquerot G. et Didierjean A. (2013), Peut-on faire mentir les chiffres? L'embellissement des informations financières par la comptabilité d'intention, Revue française de gestion, 231, 88-101. Debreceny R. S. et Gray G. L. (2010), Data mining journal entries for fraud detection: An exploratory study, International Journal of Accounting Information Systems, 11, 3, 157-181 Denis J-P. (2009), Entre finance et stratégie : Calcul, mimétisme… exemplarité?, Revue française de gestion, 8, 198-199, 95-123. Durtschi C., Hillison W. et Pacini C. (2004), The effective use of benford's law to assist in detecting fraud in accounting data, Journal of forensic accounting, 5, 1, 17-34. Dumez H. (2011), Qu’est-ce que la recherche qualitative?, Le Libellio d’Aegis, 7, 4, 47-58 Fay R. et Negangard E. M. (2017), Manual journal entry testing: Data analytics and the risk of fraud, Journal of Accounting Education, 38, 37-49. Gonthier-Besacier N., Hottegindre G. et Fin-Falcy S. (2012), Les facteurs d’influence dans la qualité de l’audit : Perception des préparateurs de l’information financière, Comptabilité Contrôle Audit, 18, 3372. Hajek P. et Henriques R. (2017), Mining Corporate Annual Reports for Intelligent Detection of Financial Statement Fraud – A Comparative Study of Machine Learning Methods, KnowledgeBased Systems, 128, 139-152. Johnson S., Ryan H. et Tian Y. (2009), Managerial incentives and corporate fraude: The sources of incentives matter, Review of finance, 13, 115-145. Lanza R. B. et Gilbert Scott (2007), A risk-based approach to journal entry testing, Journal of accountancy, 204, 1, 32-35. Le Maux J., Smaili N. et Ben Amar W. (2013), De la fraude en gestion à la gestion de la fraude : Une revue de la littérature, Revue française de gestion, 231, 2, 73-85. 81 Ndofor H., Wesley C. et Priem R. (2015), Providing CEOs with opportunities to cheat: The effects of complexity-based information asymmetries on financial reporting fraud, Journal of Management, 41, 6, 1774-1797. Meiller Y. (2017), Intelligence artificielle, sécurité & sûreté, Sécurité & stratégie, 28, 4, 75-84. Monin M. et Dablin G. (2018), L’Intelligence Artificielle pour répondre aux exigences réglementaires, Revue Banque, 819, 93-95. Nigrini M. J. (2017), Audit Sampling Using Benford's Law: A Review of the Literature with Some New Perspectives, Journal of Emerging Technologies in Accounting, 14, 2, 29-46. Pearson T. A. et Singleton T. W. (2008), Fraud and Forensic Accounting in the Digital Environment, Issues in accounting education, 23, 4, 545-559. Perols J. (2011), Financial statement fraud detection: an analysis of statistical and machine learning algorithms, Auditing: A Journal of Practice & Theory, 30, 2, 19-50. Sirois L-P, Marmousez S. et Simunic D. A. (2016), Proposition d’une nouvelle approche de la relation entre la taille de l’auditeur et la qualité de l’audit : l’importance de la technologie d’audit, Comptabilité Contrôle Audit, 3, 111-144. Song X-P., Hu Z-H., Du J-G. et Sheng Z-H (2014), Application of machine learning methods to risk assessment of financial statement fraud: evidence from china, Journal of Forecasting, 33, 611-626. Conférences Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France (disponible à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY). Berthet C. (2018), L’intelligence artificielle et le droit, JUREM, Paris, France. Ginouvès V. (2008, MàJ 2009), Recherche documentaire sur l’internet en SHS, Aldébaran, (disponible à l’adresse suivante : https://journals.openedition.org/aldebaran/5822?file=1). Gramfort A. (2017), Scikit-learn : From Zero to Hero, BlendWebMix, Paris, France (disponible à l’adresse suivante : https://www.youtube.com/watch?v=ZD5lJGq1rvQ&t=6s). LeCun Y. (2015), Deep Learning, Unexpected Sources of Inspiration, Paris, France (disponible à l’adresse suivante : https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s). Rapports d’institutions Association of Certified Fraud Examiners (2012), L’étude 2012 sur la fraude (Report of the Nations), Sommaire de l’enquête mondiale par l’ACFE sur la fraude en entreprise. CNIL (2017), Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une république numérique. Conseil National de l’Ordre des Médecins (2018), Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle, Analyses et recommandations du Cnom. 82 France Stratégie (2018), Intelligence artificielle et travail, Rapport à la ministre du Travail et au secrétaire d’Etat auprès du Premier ministre, chargé du Numérique. #FranceIA (2017), France Intelligence Artificielle, Rapport de synthèse des groupes de travail du gouvernement, (p209-260). Bibliographie secondaire Benford F. (1938), The Law of Anomalous Numbers, Proceedings of the American Philosophical Society, 78, 4, 551-572. Blanchet A. et Gotman A. (2007), L'entretien : L'enquête et ses méthodes, Armand Collin, 2 ème édition. Discksee L.R (1905), Auditing, New York, Editions Robert H. Montgoméry. Flint D. (1988), Philosophy and principles of auditing, Macmillan Education, Université de Californie, p.48 Montgoméry R.H (1913), Auditing: Theory and Practice, New York, Ronald Press Company. Neff K. D. (2003), Development and validation of a scale to measure self-compassion, Psychology press Taylor & Francis group, 2, 223-250. Nobes C. (1995), L’objectif du rapport annuel et de l’audit externe, Revue française de comptabilité, 263, 11-13. Shelton S. W., Whittington O., et Landsittel D. (2001), Auditing Firms' Fraud Risk Assessment Practices, Accounting Horizon, 15, 1, 19-33. Wang D., Khosla A., Gargeya R., Irshad H. et Beck A. H. (2016), Deep Learning for identifying metastatic breast cancer, Beth Israel Deaconess Medical Center (BIDMC) et Harvard MEDICAL School. 83