Intelligence Artificielle et Trésorerie : des prévisions pour quoi faire ?

L’un des sujets qui concentrent le plus d’attention en matière de trésorerie est la question des prévisions. Elle conditionne bien sûr la liberté de manœuvre future et l’indépendance de l’entreprise et du dirigeant. Un point de vue sur la maturité et le rôle de l’Intelligence Artificielle sur ces sujets.

 

Que l'on soit au dernier co-lunching regroupant la fine fleur de la FinTech française, à la réunion annuelle de l'AFTE (Association Française des Trésoriers d'Entreprise) ou à celle d'Universwifnet, ou encore à la grand-messe annuelle de Kyriba, l'un des sujets qui concentrent le plus d'attention est celui des prévisions de trésorerie. N'est-ce pas naturel, compte tenu de l'importance de cette information pour la stratégie du dirigeant ?

 

Et quel rôle pour l'Intelligence Artificielle dans tout ça, nous demandez-vous peut-être ? Pour y répondre, il apparaît d'abord nécessaire de préciser ce que l'on entend par prévisions de trésorerie. Car à bien écouter, difficile de savoir ce que cette expression signifie, tant elle semble recouvrir de réalités différentes dans la bouche de nombreux interlocuteurs.

 

Il nous semble important de commencer par dire aussi que le sujet "Prévisions" est sans doute un des sujets les plus difficiles à traiter en matière de gestion. Les changements du temps présent ne facilitant pas la question d'ailleurs. Faut-il pour autant abandonner ce champ ? À notre avis, pas du tout, car les enjeux sont importants pour le dirigeant. L'argent n'est-il pas de la liberté imprimée, tel que le disait Dostoïevski ?

 

La manière la plus concrète de définir la notion de prévision est d'embrasser le point de vue du trésorier d'entreprise. Dans une optique de gestion de trésorerie zéro, de quoi notre trésorier a-t-il besoin aujourd'hui comme prévisions avec des taux si faibles et des OPCVM aussi pratiques ?

 

Réponse : des mouvements bancaires du jour de valeur J. C'est-à-dire d'un logiciel de communication bancaire, ou plus récemment des services d'un des nouveaux intermédiaires autorisés par la récente Directive européenne des Services de paiements.

 

Il serait donc parfaitement légitime qu'un trésorier d'entreprise rétorque que pour sa gestion de trésorerie, il n'a, dans les conditions actuelles, pas besoin de prévisions autres, que les écritures comptables qui lui manquent à ce jour et qu'au-delà, ce n'est pas son problème. Et c'est le point de vue de la plus large partie des chantres des nouvelles technologies. Je le dis sans amertume, car les systèmes d'informations sont mon métier aussi.

 

Évidemment, dès qu'il y a des questions de risques de change, de taux, d'enveloppes de crédit, d'incertitudes ou de remise en cause de modèles économiques, même dans les conditions de taux actuelles, la question des prévisions peut se poser. Ces situations ne sont probablement pas si rares. Il est nécessaire d'en revenir à la question du vocabulaire.

 

Car de nombreux trésoriers disent par exemple qu'ils entrent des prévisions dans leur progiciel de gestion de trésorerie. Ils prennent l'exemple des chèques remis à la banque, des remises de prélèvements à échéances futures. En fait, il y a là une petite confusion aussi, car rien de prévisionnel dans ces informations : en effet, pour l'entreprise, ces opérations sont du réel certain que la banque créditera plus tard. C'est dans les faits du "réel futur" pour la trésorerie.

 

Ce qui serait prévisionnel, c'est une estimation du complément de prélèvements qui sera remis pour la même échéance et qui n'est pas connu pour l'instant.

 

Cette clarification des termes n'est pas du domaine du simple jeu de mots : si l'on n'est pas clair sur la notion de prévisions (et de réalisations à mettre en face naturellement), il sera difficile de mettre en place des méthodes et modèles qui traitent le sujet.

 

Notons au passage que ces confusions terminologiques sont entretenues par la plupart des progiciels de gestion de trésorerie (à notre connaissance à l'exception de KTP) qui considèrent que toute saisie effectuée par la société est du prévisionnel par opposition à un réel qui viendrait de la banque. C'est évidemment une facilité de programmation, mais ce n'est qu'un point de vue sur la question, le réalisé, pour la société, n'étant pas forcément celui constaté par la banque. Il n'est pas question ici de développer ce sujet, pas plus que d'épiloguer sur les "Prévisions d'origine", les "Prévisions confirmées", les "Niveaux de prévisions" que l'on rencontre partout, mais qui ne reposent sur aucune définition ni méthodologie.

 

En conclusion et de notre point de vue, il apparaît clairement que pour traiter ces questions de prévisions efficacement, avant même de déployer une quelconque méthodologie, il faut éclaircir les objectifs, les enjeux, les concepts, et les rôles. Viennent alors d'autres questions, telle que celle de savoir quel est le rôle du trésorier dans cette affaire (En quoi est-il concerné ? Fait-il les prévisions ? Les reçoit-il d'ailleurs ? Comment ? Qu'est-ce que les réalisations ? Qui les lui fournit ? Le contrôle de gestion ? Avec quelle qualité de prévisions de l'activité ?).

 

Nous espérons ici mettre en évidence que le sujet est loin d'être seulement une question de flux de Data et de traitements de celles-ci, et le risque est très grand de rester dans la velléité et la confusion, avec ou sans le concours de l'Intelligence Artificielle, sans faire preuve d'une sérieuse méthodologie.


Mais pourquoi voulez-vous aller voir sur place en Italie ?

Pour commencer par un point qui fâche : nous ne pouvons pas travailler avec tout le monde.
Pour le dire autrement, vous ne trouverez pas chez nous le « Magiciel », outil miraculeux qui vous permettra sans rien faire de prévoir votre trésorerie à 3 mois de façon fiable, alors même que vos prévisions d’exploitation sont peu fiables du fait d’une inflexion récente de votre Business Model, ou d’une saisie erratique des factures fournisseurs par les équipes comptables de cette nouvelle structure que vous avez récemment acquise.

Les chercheurs de solutions d'Intelligence Artificielle en trésorerie, auront gagné le temps de lecture de cet article.

L’anecdote qui suit va vous situer plus concrètement ce que notre expérience nous a appris de ces sujets.
Nous nous trouvions, il y a 3 ans, dans le cadre d’une mission d’organisation de la centralisation du Cash des filiales européennes d’une entreprise de logistique française face à notre jeune et brillante interlocutrice.

Elle s’étonne que nous souhaitions aller voir sur place « la réalité » de la filiale italienne, alors même que nous lui avons expliqué que notre équipe a conduit ce type de missions de nombreuses fois.
En quoi cette anecdote est-elle parlante ?

Il est très courant que nos clients ne perçoivent pas la nécessité d’un travail de clarification et de définition d’un schéma directeur spécifique au démarrage d’un projet de ce type :

  • soit notre interlocuteur a le sentiment d’être au clair (« les éditeurs de logiciels sollicités intègreront l’analyse nécessaire dans leur démarche d’intégration »),
  • soit celui-ci a du mal à valoriser vis-à-vis de sa DG l’intérêt d’une démarche, qui pourrait être vu comme un aveu de faiblesses sur ses sujets.

La réalité est difficile à dire. C’est pourtant strictement notre expérience : il est difficile de réunir les conditions pour faire réellement un travail de qualité.

Comment alors, pouvons-nous aider concrètement nos clients ?

Pour cette information particulière qu'est la prévision de trésorerie, où l’information à produire est plus encore qu'ailleurs la résultante de process (de règlements et de recouvrement notamment mais pas seulement), de l'organisation des responsabilités, de celles des flux d'information paiements,… de la réelle place donnée au trésorier aussi, il n’est pas possible de faire un travail sérieux sans la présence du Directeur Général dans le groupe de projet.

Suffit-il alors d’être expérimenté pour être pertinent dans les analyses et la définition des solutions ?

Il nous semble clair que l’expérience est une condition nécessaire mais elle n'est bien sûr pas suffisante : nous connaissons tous des gens qui cherchent, « par expérience » à appliquer dans un contexte nouveau des solutions qui marchaient dans un contexte précédent, rouleau compresseur à l‘appui.

L’expérience que nous qualifierions « d’efficace » est celle qui permet d’adapter les solutions qui ont fait leurs preuves « ailleurs » aux situations « ici, maintenant », à fortiori dans une période de grandes mutations.
Winston Churchill, qu’on cite peu à l’ère des GAFA, disait parait-il : « L’improvisation ? C’est ce que je travaille le plus ».

Cet amusant paradoxe s’applique complètement à notre sujet à l'ère du Big Data : pour construire une solution avec notre client, il faut, partir de notre expérience, dépasser et recréer avec lui.
Pour cela, il faut de l’expérience et du recul : c’est toujours nouveau.

C’est là que notre intervention trouve sa valeur ajoutée.

Dans cette affaire, il ne s’agit en rien de la compétence du client, d'ailleurs il l'est plus que nous! Il connait sa société, ses problèmes, ses fournisseurs et ses banquiers, ses hommes et leurs relations, et nous nous complétons avec notre expérience « d'ailleurs »...

Nous apportons l’expérience efficace parce que nous avons « l’esprit frais » et qu’un point de vue extérieur est souvent à même de poser les problèmes différemment.

La disproportion entre la connaissance qu’a le client de son entreprise et celle que nous pouvons avoir est d’ailleurs un handicap pour un dialogue réellement créatif et c’est la réelle raison pour laquelle nous suggérons à nos clients d’effectuer un diagnostic avant toute intervention.

Ce diagnostic a évidemment pour but de permettre d’éclaircir les objectifs et les enjeux, mais à partir d’une connaissance réelle du terrain et non pas d’une simple présentation verbale de la situation.

Le client et le consultant sont alors à « connaissance égale » (ou presque!) de la réalité dont ils parlent et l’expérience efficace peut alors entrer en action. L’expérience jouant alors son meilleur rôle : « l’anti-divagation ».

Encore faut-il pouvoir parler vrai ?

Si le ton de cet article ne vous a pas rebuté, c’est un bon 1er indice d'une possibilité de collaboration.


Quand l’urgence est le quotidien du contrôleur de gestion

Aujourd’hui, les actionnaires ou CODIRs de nombreuses grandes entreprises attendent les rapports sur l’état de l’activité dès le lendemain de la date d’arrêté de la période, du trimestre voire de l’exercice. Le temps réel est en passe de devenir le standard, l’urgence la règle.

Des reporting toujours plus en temps réel

Les données du mois dernier ne suffisent plus. Prendre les bonnes décisions et adapter la stratégie de l’entreprise dans un environnement en transformation est un exercice difficile. Les CODIRs exigent une connaissance fine et précise de l’activité pour les y aider.

 

Avec des moyens souvent inchangés, les équipes du contrôle de gestion doivent mettre les bouchées doubles et produire des reporting dans l’urgence avec un volume de données qui explose, au sein de Directions Financières résolument tournées vers une meilleure valorisation de la Data.

 

Un temps de contrôle important pour limiter le risque d’erreur avec Excel

Dans cette course contre la montre, les sources d’erreurs sont multiples. Les équipes se pressent. Elles collectent et traitent manuellement les données dans un tableur, le data-crunching leur prend beaucoup de temps, les copier/coller successifs ne sont pas sûrs et ne permettent pas de vérifier la provenance de l’information insérée dans le tableur. Les contrôles sont nécessaires mais chronophages car ils sont souvent faits manuellement, ligne par ligne parfois. Une erreur de saisie ou un oubli de vérification d’une cellule peut facilement passer à la trappe. La réconciliation des comptes est une étape délicate, et non automatisée, le risque d’erreur zéro n’existe pas.

 

Du fait de ces nombreuses opérations manuelles, le risque d’erreur est important et celui-ci augmente d’autant plus avec les délais urgents imposés. Les équipes du contrôle de gestion ont une épée de Damoclès au-dessus de leur tête. Au mieux leur réactivité est critiquée, au pire la qualité de leurs rapports est en danger.

 

Quelle nouveauté du côté des outils ?

De nombreuses solutions de Business Intelligence limitant le data-crunching par les équipes métiers tout en sauvegardant leur autonomie existent. En automatisant les reporting, certains outils de BI agile octroient à leurs utilisateurs beaucoup plus de temps à l’analyse. Et pour les meilleurs d’entre eux, sans complexité technologique.

 

 

En bref

Fondée et dirigée par Stéphane Robert depuis 10 ans, Essentiel Info simplifie le Data Management et propose des solutions décisionnelles Lean pour le pilotage d’activité et de trésorerie, le reporting réglementaire et la connaissance clients.


L'origine de la trésorerie zéro : une Méthode inventée par un Français

En matière d’information de gestion, parmi les indicateurs suivis par les entreprises privées de tous secteurs, l’un d’entre eux fait presque partout l’objet d’une attention particulière : il s’agit du niveau de la trésorerie.

Comment cette question se présente-t-elle chez les clients que nous rencontrons ?

Cela peut aller du client exceptionnel à la trésorerie très excédentaire qui ne voit pas l’intérêt de travailler sur le sujet à la grande entreprise dont les départements contrôle de gestion et trésorerie se renvoient la responsabilité de la mauvaise qualité des prévisions de trésorerie, en passant par le fond d’investissement qui souhaiterait aider ses participations à améliorer le passage du Budget d’exploitation en Budget de trésorerie.

En quoi sommes-nous à même d’apporter une réponse spécialement pertinente à nos clients sur ces sujets ?

La réponse courte à cette question tient en 2 mots : expérience et méthodologie.
Mais que recouvrent ces mots exactement ?

Pour ce qui est du mot expérience, le contenu est assez simple à définir : en ce qui me concerne, il s’agit d’une expérience bancaire à ses débuts (en 1973 !), puis de la gestion de la trésorerie d’une multinationale jusqu’en 1978, date ma rencontre avec Dung NGUYEN qui fut mon mentor (merci de prononcer Zung !) et date à laquelle je suis devenu consultant en gestion de trésorerie pour des sociétés de toutes tailles dans de nombreux secteurs et…pays ! Nous reviendrons plus loin sur ce sujet car beaucoup des sujets que tu évoques ramènent à Dung NGUYEN.

En ce qui concerne la méthodologie, c’est un peu plus compliqué et cela nécessiterait des développements élaborés. Pour des raisons de commodité de lecture, je propose d’en traiter les détails dans des articles spécifiques. Je me contenterai de principes dans ce qui suit.
Pour aborder de façon claire ces futurs développements, il me paraît tout d’abord nécessaire de rappeler quelques éléments du contexte dans lequel la gestion de trésorerie moderne en France est apparue car cela a complètement façonné les développements ultérieurs, les succès comme les difficultés. Cela va nous ramener au début des années 1970.

A cette époque :

- Les taux d’intérêts sur le Franc sont autour de 10% l’an, hors périodes de crises spéculatives contre le Franc. Si l’on rajoute les marges bancaires, l’addition est conséquente.
- La réglementation est drastique :

  • Contrôle des changes (interdiction de garder des devises plus d’un mois dans un compte en devise)
  • Encadrement du crédit (plafond de crédit à ne pas dépasser aux dates fatidiques fixées par la Banque de France)
  • Placements des excédents de trésorerie à un mois minimum pour espérer une rémunération

- Les moyens sont limités :

  • Pas de micro ordinateur, pas d’Internet, ni même de « Minitel », l’information provient des « pièces bancaires » ou des extraits de comptes papiers, exceptionnellement on s’informe par téléphone…
  • Pas de progiciel particulier pour la gestion de trésorerie (même Excel restait à inventer) : utilisation du progiciel comptable ou de documents papiers reprenant les informations reçues par les « pièces bancaires » auxquelles on ajoute à la main quelques estimations de l’évolution future. Gomme et crayon obligatoire.

- La gestion de trésorerie fait partie de la « comptabilité »
Compte tenu des éléments précédents (taux d’intérêts, brouillard sur la position de trésorerie du jour, trou noir sur le futur), les comptables visent la sécurité ce qui amène à privilégier les anticipations négatives, c'est-à-dire à favoriser « par précaution » l’intégration des dépenses futures dans les soldes bancaires, ce qui aboutit à constituer des soldes créditeurs par peur d’agios débiteurs conséquents et de « manquer ».

- Les conditions de banques sont d’une « obscure clarté » et relèvent quasiment du «secret défense»

C’est dans ce contexte que paraissent en 1972 dans la revue « Le Management » trois articles d‘un certain Dung NGUYEN sous le titre « Trésorerie zéro, pourquoi, comment ? ».
Tout est déjà dans le titre…Dans ces articles, Dung NGUYEN expose et démontre tout d’abord que le bon trésorier est celui qui gère en « trésorerie zéro » c’est-à-dire celui qui optimise le gain des placements moins le cout des emprunts afin qu’il n’y ait le moins d’argent dormant sur les comptes, pas celui qui évite les agios. Autrement dit, il faut prendre en compte le manque à gagner dans les décisions.
Évidence aujourd’hui, bombe à l’époque.

Les Directions Générales, les Directeurs Financiers, les Trésoriers (quand il y en a) commencent alors à évaluer ce manque à gagner par l’analyse d’un document jusqu’à là assez négligé et qui s’appelle échelle d’intérêts. Ils y trouvent alors une source de gains très important qui va lancer le mouvement.

Mais dans le titre des articles, s’il y a le « Pourquoi ? », il y a aussi le « Comment » ?

En effet, une fois admis le principe de trésorerie zéro, il faut le mettre en place.

Dans les conditions de l’époque exposées ci-dessus, on peut résumer ainsi la problématique : je dois être capable de pré-calculer et optimiser le résultat de l’équation suivante : Gains du produit si je place-Coût du découvert entrainé par le placement. Pour concrétiser, dans les conditions de l’époque, pour avoir un gain, il faut placer à 30 jours minimum à un certain taux, ce qui peut entrainer un découvert pendant un certain nombre de jours à un autre taux. Comment décider ?
Il faut évidemment maîtriser les conditions de banques (taux, marges, dates de valeur) mais aussi les prévisions pour effectuer un calcul sérieux.

De ces deux éléments essentiels (principe de trésorerie zéro, maîtrise des paramètres du modèle) et des enjeux conséquents et mesurables qui apparaissent va découler l’ensemble des développements des années qui ont suivi :

  • Prise de conscience dans les entreprises de l’importance de la gestion de trésorerie comme centre de profit
  • Mise en place d’une fonction Gestion de Trésorerie indépendante de la comptabilité
  • Développement de progiciels spécialisés
  • Mise en place des techniques d’information provenant des banques
  • Publication, clarification des conditions de banque et négociations

Il faut noter tout de suite que si ces points ont été indispensables au développement de la fonction Gestion de Trésorerie, ils portent également en germe des difficultés du fait de la séparation d’avec la fonction comptable, difficultés que l’on retrouve souvent au cœur des problèmes de certains clients.

Parallèlement, notamment dans le cadre du cabinet conseil Dung NGUYEN et Associés dont j’ai eu l’honneur de faire partie dès 1978 en tant qu’associé jusqu’à la disparition prématurée de Dung NGUYEN en 1988, se développe la méthodologie nécessaire pour mettre en place le principe de trésorerie zéro en terme d’organisation et de procédures. Évidemment fondamental.

Les règles et méthodes ont été définies par l’expérience, elles ont été mises en place dans de nombreuses entreprises tout au long des années 80, adaptées ou adaptables aux secteurs et cas particuliers. Ces règles et méthodes ont, par exemple, façonné l’ergonomie des progiciels de gestion de trésorerie, centrés sur la « fiche en valeur » dont l’ergonomie a été définie à cette époque et est toujours d’actualité (le plus bel exemple étant celui de la fiche en valeur de l’ex CERG-XRT Universe).

Depuis les années 1970, les conditions ont beaucoup changé : les taux d’intérêts se sont effondrés (du moins actuellement), la réglementation a changé, les produits de placements à court terme ont pu être développés, les progiciels et internet sont là, les conditions de banques ne sont plus un tabou, etc.

C’est évidemment tant mieux, mais il n’en reste pas moins que de nombreuses difficultés subsistent, notamment autour des prévisions.

Paradoxalement, on peut presque dire qu’une partie de ces difficultés provient du progrès…car comme chacun sait, la fonction crée l’organe et comme les pressions sur la gestion de trésorerie se sont relâchées, certains attributs se sont atrophiés. En gros, on peut dire qu’à de rares exceptions près, ne reste du modèle standard de trésorerie zéro que les aspects techniques « outils » (informatique, progiciels, télématique), les règles et procédures nécessaires en amont pour faire fonctionner le tout de façon cohérente ont disparues. En résumé, il est trop facile de placer en SICAV au jour le jour, cela dispense de faire des prévisions...

Et quand on connaît l’historique, il est amusant de constater qu’il reste une vague trace de ces procédures en amont mais vidées de leur substance dans le vocabulaire utilisé dans les progiciels de gestion de trésorerie.
Par exemple dans un progiciel que je ne nommerai pas existent des Prévisions Confirmées, des Prévisions d’Origine, des banques pivot ou encore des quotas…
Ces mots correspondent à des concepts méthodologiques bien précis de la trésorerie zéro mais les fonctionnalités mises en place n’ont qu’un lointain rapport avec le modèle original.

 

Pour terminer ce développement déjà assez long, indispensable pour comprendre ce qui suivra, mais qui ne fait qu’effleurer les sujets, on peut résumer ainsi notre apport sur le plan méthodologique :

  • Remise de chaque chose à sa place : les outils ne sont que des outils, ils ne peuvent rendre le meilleur dont ils sont capables que si l’environnement est préparé
  • Clarification des enjeux, des objectifs, des concepts et du vocabulaire de façon à avoir une vue bien définie de ce dont on parle (par exemple même les mots prévisions et réalisations sont à définir !)
  • Connaissance des principes, des règles, méthodes et procédures à mettre en place pour maitriser sa trésorerie et capacité à adapter les règles générales bien connues aux cas particuliers.

Pour terminer, je voudrais souligner un point de première importance : comme expliqué par Dung NGUYEN et vérifié par des années d’expérience, la maîtrise de la trésorerie suppose la reconnaissance de la fonction trésorerie en tant que telle. C’est admettre qu’elle a besoin de fixer des règles et procédures dans une organisation qui lui permet de jouer son rôle.
Naturellement, ces règles et procédures peuvent rentrer en conflit avec d’autres nécessités et cela peut donc être plus ou moins facile à faire passer.
Il y a donc des choix à faire mais il n’y a pas de miracle : si la fonction trésorerie n’est considérée que comme un simple service de caisse, il ne faut pas s’attendre à ce qu’elle puisse prévoir l’imprévisible, fût-elle dotée du plus couteux progiciel de la galaxie.

Marc Jacob de Cordemoy


BI, révolution numérique et autres changements: les outils agiles sont-ils vraiment utiles ?

Par Stéphane ROBERT, Directeur Associé d’ESSENTIEL INFO. Cet article cite des témoignages recueillis lors du dernier séminaire clients organisé par le Cabinet de conseil et d’intégration de Systèmes d’Information Décisionnels.

Intégrateur d’outils informatiques destinés à faciliter la compilation d’information et la prise de décision depuis 10 ans, nous avons constaté que l’usage d’Excel pour manipuler des données et produire de l’information reste très présent. C’est tout aussi bien le cas dans des PME dont la croissance rend cet usage inadapté (volumétrie, temps de traitement, sécurité,…) que dans des groupes où l’usage du tableur prospère alors que les Directions des Systèmes d’Information ont travaillé pour organiser et structurer l’accès à la donnée via des projets souvent couteux. Pour quelles raisons ? A notre avis, l’autonomie des utilisateurs dans Excel et la maîtrise d’un environnement simple pour compiler, manipuler et présenter des données, qui est aujourd’hui encore inégalée malgré ses limites. Cet article est un plaidoyer pour inciter les DSI à organiser, un accès sécurisé à l’information et une Business Intelligence agile, en Self-Service, dans un environnement déjà connu par les utilisateurs métiers, à travers quelques histoires…

L’usage d’Inside XL : un formidable apport dans la définition d’une vision claire et partagée du métier de l’entreprise.

Etablir des consensus sur la situation de départ, le but à atteindre et les changements à conduire, et simuler les effets réels de ces changements dans des environnements de tests.

Comme l’évoque un client, Responsable BI dans une grande Fondation, organiser la possibilité d’un droit à l’erreur via des environnements de tests est une bonne manière d’avancer rapidement : cela permet d’établir un consensus sur la situation de départ et les process à mettre en oeuvre. « Nous mettons les données à disposition des utilisateurs métiers dans un environnement de BI agile Inside XL. Ils échangent, évaluent et suggèrent ensuite des améliorations. Nous consolidons ensuite dans l’outil de Corporate BI* où nous libérons les données » : Rapidité et efficacité augmentées par la collaboration sur des cas concrets.

Fonder la collaboration sur le concret, la transparence et le (bon) sens pour responsabiliser, améliorer la qualité des données et des décisions.

Ces outils à la main des utilisateurs permettent ainsi de les associer à la définition des changements. Cela a pour avantage d’améliorer la qualité des process aussi bien que de remettre la réalité au centre des échanges. Cela semble d’autant plus nécessaire que la taille de l’organisation éloigne certains acteurs clés des opérations. Pour une autre cliente en charge de l’Operational Performance Strategy dans une entreprise multinationale « Organiser le pilotage des activités autour d’outils simples est une vraie force pour les grandes organisations car cela permet de responsabiliser les acteurs à différents niveaux de l’organisation. Donner la possibilité à ces acteurs d’analyser de l’information validée et partagée, c’est avant tout leur permettre d’identifier les défaillances dans les process opérationnels et traiter les dérives à la source. »

*Corporate BI : système d’information décisionnel d’entreprise, généralement composé d’outils d’Extraction, de transformation et de chargement de données, d’entrepôt de données et d’outil(s) de restitution administré(s) par la Direction des Systèmes d’Information (DSI). Ces outils évoluent suivant un processus organisé de spécification par les utilisateurs, réalisation par la DSI, tests et validation et mise en production. Ce processus peut-être long mais garantit la maîtrise, la cohérence et la qualité des données mises à disposition des utilisateurs.

 

Inside XL pour développer une culture de la donnée

Augmenter la conscience du lien entre appropriation des process et qualité de l’information restituée.

Il nous semble y avoir un vrai bénéfice à intégrer dans la pratique de la DSI, les liens entre l’appropriation du sens des process par les collaborateurs et la mise en place d’un outil permettant tests et implication des métiers d’une part, la qualité de la donnée et la rapidité des décisions et des adaptations d’autre part. Cela nous semble résumé en 1 phrase par le DSI d’une grande entreprise de location moyenne durée : « Nous prenons chaque jour un peu plus conscience que le pilotage de notre projet de changement d’ERP doit se faire « par le sens ».

Partager une vision claire du métier, du sens des process et du référentiel de l’entreprise.

Ainsi, comme l’exprime un Directeur Financier d’une entreprise ayant connu de grands changements ces 18 derniers mois, « C’est la compréhension partagée du métier de l’entreprise et la finesse du référentiel, qui permet de passer facilement des indicateurs chiffre d’affaires et parts de marché attendus par le Fondateur hier, aux indicateurs sur la rentabilité demandés par l’actionnaire principal aujourd’hui. C’est aussi un référentiel de qualité et des outils simples qui permettent aux opérationnels d’avoir la vue sur l’utilisation des ressources qui les intéressent au jour le jour pour que l’entreprise soit « analytique » jusqu’au plus près des opérations ».

Associer les utilisateurs métiers sur l’ensemble du cycle de l’information, de la saisie à la restitution de la donnée.

Un autre client Responsable du Contrôle de gestion et du projet Compliance dans un laboratoire pharmaceutique, atteste de l’intérêt d’associer les utilisateurs métiers sur l’ensemble du cycle de l’information, de la saisie à la restitution de la donnée. « Nous avons donné la vue à tous les Attachés Scientifiques sur le nombre de reporting de Compliance incomplets de chacun. Cela a permis d’améliorer la qualité de la saisie par les Attachés Scientifiques les moins rigoureux et par un effet de boucle vertueux d’obtenir aujourd’hui une excellente qualité de nos indicateurs ».

Une Business Intelligence agile et Collaborative au service du changement

Développer des capacités de simulation pour se préparer aux changements et décider vite.

« Nous changeons d’actionnaire majoritaire tous les 5 ans. Aujourd’hui je considère cela non pas comme une difficulté mais comme un changement stimulant.» Cette attitude positive face au changement, exprimée par une autre Directrice Financière est le résultat d’une confiance confortée par de précédentes adaptations réussies. Adapter un reporting à un nouvel actionnaire, réévaluer la qualité de la politique commerciale, démontrer la maîtrise de son Besoin de Fonds de Roulement étant ainsi considérés comme autant d’opportunités d’améliorer l’excellence opérationnelle. Le pilotage par la valeur actuelle et future nécessite une connaissance et une standardisation des process tout autant qu’une certaine capacité de simulation. Ces capacités de simulation préparent aux changements et permettent de décider vite lorsque ceux-ci se présentent. Ainsi pour, l’ex DG d’une entreprise des Médias, c’est la maîtrise parfaite de ses coûts de revient et de ses marges qui « permet dans un contexte de retournement de marché de décider très rapidement de l’achat d’un nouvel équipement ou de l’intérêt d’un nouveau marché ».

En résumé, voici 8 bonnes raisons d’intégrer Inside XL dans votre Système d’information décisionnel :

1) Il facilitera l’établissement d’un consensus sur la situation de départ, le but à atteindre et les changements à conduire,

2) Il permettra de simuler les effets réels de ces changements dans des environnements de tests,

3) Il contribuera au partage d’une vision claire du métier, du sens des process et du référentiel les décrivant,

4) Il fondera la collaboration sur le concret, la transparence et le bon sens,

5) Il responsabilisera chacun dans l’amélioration de la qualité des données et des décisions,

6) Il contribuera à développer une culture de la donnée, et incitera chacun à progresser dans les savoir-faire pour collecter, traiter et protéger une volumétrie importante de données,

7) Il démontrera l’importance des capacités de simulation pour mesurer la valeur actuelle, simuler la valeur future et se préparer aux changements,

8) Il confortera la confiance et amènera chacun à considérer le changement comme une opportunité de progrès.

Associer la mise à disposition d’Inside XL aux outils de Corporate BI ?

Dans de nombreuses organisations on oppose encore Business Intelligence d’entreprise, où la DSI aurait l’initiative de donner aux utilisateurs l’information nécessaire pour décider et self-service BI où les utilisateurs métiers accèdent aux données dont ils ont besoin pour prendre des décisions sans devoir faire appel à l’IT à chaque question. De notre point de vue les 2 approches sont très complémentaires et la question à résoudre pour la DSI est plutôt : de quelle manière organiser la mise à disposition des 2 types d’outils pour donner la réactivité et la capacité d’adaptation dont les organisations ont besoin dans une ère de changements accélérés ?


Business Intelligence et changements : quelles bonnes pratiques ? Une incitation forte à piloter le changement par le (bon) sens

Ce mardi 8 décembre 2015, s’est tenu au Novotel de la Porte d’Italie, la 7ème édition du séminaire clients d’ESSENTIEL INFO. Extraits d’échanges sur le thème « Business Intelligence et changements : quelles bonnes pratiques ?» qui constituent une incitation forte à piloter le changement par le (bon) sens, par Stéphane ROBERT, Directeur Associé, du Cabinet de conseil et d’intégration de Systèmes d’Information Décisionnels parisien.

 

« L’importance fondamentale d’une vision du métier et d’un référentiel de qualité. »

« Nous changeons d’actionnaire majoritaire tous les 5 ans. Aujourd’hui je considère cela non pas comme une difficulté mais comme un changement stimulant.» Cette attitude positive face au changement, exprimée par Ginette GABRIEL, Directrice Financière de CTN a donné le ton des échanges. Adapter un reporting à un nouvel actionnaire, réévaluer la qualité de la politique commerciale, démontrer la maîtrise de son Besoin de Fonds de Roulement apparaissant ainsi plutôt comme autant d’opportunités d’améliorer l’excellence opérationnelle.
Pour Thomas CHRISTIN, ex DG d’EUROMEDIA, la maîtrise parfaite de ses coûts de revient et de ses marges est vitale. Elle permet dans un contexte de retournement de marché de décider très rapidement, par exemple de l’achat d’un nouveau matériel ou de la prise d’un marché. Il met ainsi le doigt sur le lien crucial entre qualité du Référentiel et pertinence de la décision.
Une maîtrise des coûts et du référentiel intimement liée à la bonne compréhension des process, comme l’a souligné Nicolas ZEGARRA, Responsable du Plan Minier chez AREVA. Le pilotage par la valeur actuelle et future, nécessite une connaissance précise et une standardisation des process tout autant qu’une certaine capacité de simulation.

 

« Développer des capacités à collecter, traiter et sécuriser les données »

Frédéric LE DREN, DSI d’AXA Direct Protection souligne aussi l’importance d’une capacité à traiter une volumétrie importante de données. « La technologie permet d’imaginer être bientôt en capacité d’intégrer par exemple des données de capteurs présents dans les véhicules (freins, régime moteur,…) avec des données de géolocalisation et de circulation pour noter les profils des conducteurs. Ces ranking pourraient ensuite être intégrés à un profil de risque et pris en compte dans l’estimation de la valeur future d’un contrat d’assurance auto ». Redistribution des cartes en vue dans de nombreux secteurs, où les géants qui possèdent et maîtrisent la donnée tels que les GOOGLE, AMAZON, APPLE, FACEBOOK et autres acteurs moins voyants tel qu’AUTOLIB. par exemple, se trouvent en position d’entrer sur de nombreux marchés face à des acteurs en place pas tous spécialistes de la donnée et de sa sécurité.
« Un intellectuel assis va moins loin qu’un con qui marche ». Ludovic LABBE, le DSI de LEASECOM, qui cite Michel AUDIARD nuance immédiatement en expliquant qu’il s’attache à discerner quels petits changements apportent le plus de gains même s’il considère l’action comme une des clés du succès.

 

« Mettre en place les conditions d’une Business Intelligence agile et Collaborative »

L’intérêt d’une approche tactique est confirmée par Frédéric LE DREN : « Notre entité créée en 2010 représente aujourd’hui 20 millions d’euros de Chiffre d’affaires et est présente dans plusieurs pays européens. Nous avons préféré, aux gros outils référencés par le groupe, des outils plus simples et souples dont nous avions la parfaite maîtrise pour pouvoir faire des prototypes et garder de l’agilité ».
Pour Yao SOGADZI, Responsable BI à la FONDATION DE FRANCE organiser la possibilité d’un droit à l’erreur via des démarches de prototypage ou des environnements de tests est une bonne manière d’avancer rapidement et d’établir un consensus sur la situation de départ, sur les référentiels et les process. « A la Fondation de France, nous mettons les données à disposition des utilisateurs dans un environnement de BI agile Inside XL, ils échangent, évaluent, suggèrent des améliorations. Nous consolidons ensuite dans l’outil de Corporate BI ou nous libérons » : Rapidité et efficacité augmentées par la collaboration sur des cas concrets.

 

« Entre-t-on dans un monde où survivraient aux changements ceux qui partagent le (bon) sens ? »

Une collaboration guidée aussi par le sens, qui est largement revenue dans les échanges au sujet de la qualité des données aussi bien que sur la nécessité de remettre la réalité au centre des échanges, surtout dans des organisations dont la taille éloigne certains acteurs clés des opérations.
Pour Mounia EL ASRI DARIE en charge de l’Operational Performance Strategy chez AREVA, « Organiser le pilotage des activités autour d’outils simples est une vraie force pour les grandes organisations car cela permet de responsabiliser les acteurs à différents niveaux de l’organisation. Donner la possibilité à ces acteurs d’analyser de l’information validée et partagée c’est avant tout leur permettre d’identifier les défaillances dans les process opérationnels et traiter les dérives à la source. »
« Chez CHUGAI PHARMA FRANCE, nous avons donné la vue à tous à les Attachés Scientifiques sur le nombre de reporting de Compliance incomplets de chacun. Cela a permis d’améliorer la qualité de la saisie par les Attachés Scientifiques les moins rigoureux et par un effet de boucle vertueuse d’obtenir aujourd’hui une excellente qualité de nos indicateurs », a ainsi témoigné Sandro GARDONIO responsable du Contrôle de gestion et du projet compliance dans le laboratoire pharmaceutique.
« C’est la compréhension partagée du métier de l’entreprise et la finesse du référentiel, qui permet de passer facilement des indicateurs chiffre d’affaires et parts de marché attendus par le Fondateur hier, aux indicateurs sur la rentabilité attendue par l’actionnaire principal aujourd’hui. C’est aussi un référentiel de qualité et des outils simples qui permettent aux opérationnels d’avoir la vue sur l’utilisation des ressources qui les intéresse au jour le jour pour que l’entreprise soit « analytique» jusqu’au plus près des opérations», ainsi que l’a exprimé Eric AMORIN, Directeur Financier de MONAL GROUP.
« Nous prenons chaque jour un peu plus conscience que le pilotage de notre projet de changement d’ERP doit se faire par « le sens » conclut Didier MOREL, DSI de VIA LOCATION .