big data essentiel info

Comment faire du Big Data ? La voie la plus simple pour réussir

Dans votre entreprise aussi, le sujet est fiévreusement sur toutes les lèvres ? Comment faire du Big Data ? Comme si la réussite et la transformation de vos activités pour survivre à la "transition fulgurante" ne dépendaient que de ça. On comprend le sentiment de vertige prenant ceux qui ne disposent même pas encore de l'information nécessaire pour piloter facilement leur budget ou anticiper l'évolution de leurs activités. Mais "puisqu'il faut y aller, il faut y aller" !

N'est-ce pas ce qu'ont fait les géants qui réussissent ? Jeff Bezos n'a-t-il pas propulsé Amazon au firmament de la distribution en surfant sur la technologie et les données ?

" Trop cher et compliqué pour nous!", disent peut-être certains esprits chagrins autour de vous. Confiance ! Vous avez tout pour réussir. Suivez le guide.

La recette est très simple : frugalité des moyens techniques pour inciter vos équipes à mettre le sens au coeur de la démarche. En matière de data, une 2ème clé : aller à l'essentiel et ignorer le superflu. Seiri, comme disent les japonais ; supprimez l'inutile !

Un repère tout simple pour vérifier que les proportions sont bonnes : pas plus de 35 EUR de dépenses de technologie pour 65 EUR de dépenses en hommes et en méthodologie ! Conseil d'Intégrateur ;)

Le Big Data, c'est quoi ?

Qu'est-ce donc que cette Big Data ? L'expression courante recouvre 2 réalités. Une formidable opportunité, via la digitalisation des points de contact et la généralisation d'usage de capteurs dans les fameux IOT (objets connectés), de connaître le détail de la vie de vos produits et des préférences de vos clients. Autrement dit, une opportunité unique de développer vos ventes, fidéliser, améliorer la qualité, vous transformer. Mais Big Data désigne aussi, et avant tout, la masse des données générées. Il est fondamental de ne pas confondre les 2. Une opportunité d'un côté, un problème d'infobésité à gérer de l'autre.

Une série de questions éthiques et techniques, et un peu de temps pour les traiter

Ce serait donc une question de systèmes d'information à régler ? Pas de problème, car vous avez sous la main un DSI compétent. Mais où est-il et que fait-il en ce moment ? Il est héroïque, car il est sur tous les fronts ! Transformation digitale des front-office, intégrations de vos systèmes avec les Tiers, dématérialisation continue des flux, en garantissant toujours la continuité de l'activité... Heureusement dans plus en plus d'endroit un renfort récent, avec l'arrivée d'un Chief Data Officer pour gérer la masse exponentielle de données.

Rien que sur ce sujet, pas plus big que les autres, une bonne liste de questions à régler : quels outils de collecte pour ces nouvelles données ? Où les stocker ? Avec quel mode de stockage distribué ? C'est tout juste si vos geeks maison s'y retrouvent avec des technologies nouvelles qui s'enchaînent. Cela serait presque tentant d'occulter une partie des questions juridiques et éthiques. Quelles données peut-on et doit-on conserver ? Doit-on se laisser tenter par d'alléchantes offres dans le Cloud, mais permettre un jour à des tiers U.S. d'y accéder, via le Patriot Act par exemple ? Car après tout il est possible de se dire, "qui sommes-nous et qui pouvons-nous intéresser ?" Faut-il vraiment monter et gérer un environnement hybride ou On premise plus protecteur pour vos consommateurs et votre innovation ? Référentiel ? Qualité ? RGPD ? Protection des données ? N'en jetez plus, le sujet Data semble de loin terriblement compliqué.

Vers où tourner le regard alors ? Car tout le monde en parle ! Vos traditionnels conseils en stratégie, font maintenant de la transformation digitale. Ils ont fraichement embauché des Data Scientists pour rester dans la course. Les intégrateurs spécialistes de la BI (Business Intelligence) en contact avec votre DSI font maintenant de la stratégie !? Heureusement qu'il reste les éditeurs de logiciels cités par le Gartner... mais ne vous ont-ils pas déjà déçus avec cette dernière nouvelle technologie qui devait tout révolutionner ?

"Confiance", vous dis-je, vous avez déjà tout pour réussir !

Mais revenons à Jeff Bezos, le patron d'Amazon le champion de l'adaptation. Que dit-il lui ? En substance, "On me pose toujours la question de ce que sera devenu le business dans 20 ans, mais personne ne me demande ce qui n'aura pas changé. C'est dommage, car cette question est tout aussi intéressante, et c'est sur la réponse qu'on construit les Business de demain..." Il complète "pour Amazon c'est le délai et le prix", un résumé de l'expérience client pour le distributeur qu'il est.

Le bon sens et les hommes en renfort de la DG

Car Jeff Bezos nous parle de la vocation d'Amazon. Le fameux Why de Simon Sinek, dont vous parle votre directrice marketing à chaque fois que vous la croisez. Qu'est-ce qui ne va pas changer dans votre métier ? Quels sont les indicateurs mesurant ces invariants ? C'est une première bonne question.

Il y en a d'autres. Que souhaite-t-on apprendre ? Quelle question veut-on éclairer par ces données ? Il est ensuite possible de rassembler toutes les informations utiles pour mener à bien l'enquête. Prévoir les inconvénients possibles, et les répercussions secondaires est judicieux, vous le savez. À quoi bon, par exemple, collecter une information, dont la volumétrie va être un obstacle à l'analyse ? C'est la question que pose l'un des chefs de projet de la plus grande base de données européenne jamais réalisée.

"En fait, la question est : comment ne pas faire du Big-Data ?". Comment ne pas rendre sourde la tête de l'organisation par un bruit de données en réussissant à filtrer aux différents niveaux de l'entreprise les informations inutiles et en laissant passer celles qui sont pertinentes ?" C'est plus une question d'hommes et d'analyse des besoins réels que de systèmes. La loi de l'obésité de ces big data est la suivante : elles seront d'autant plus big que l'indétermination de l'objectif sera grande.

Pour maîtriser la data et réussir à entrer de plain-pied dans cette nouvelle ère digitale, il faut donc mettre l'essentiel au coeur de la démarche. L'entreprise dans l'axe de sa vocation. L'homme et son bon sens au coeur des changements. N'est-ce pas ce que font les Hénokiens, ces entreprises familiales pluri-centenaires, qui ont réussi à passer les modes et les années en misant sur les hommes ?

Illustrons l'importance des hommes avec 2 sujets clés pour les données. La question des référentiels en premier : pour trier des choux, de carottes, des fraises et des poires, il est intéressant de distinguer les fruits des légumes, puis éventuellement de faire appel à la notion de "Vegetable" pour pouvoir toutes les sommer.

Qui va créer une classification sensée ? L'intelligence Artificielle ? Surement pas la première fois. Cette grille de lecture est pourtant décisive pour l'analyse efficace de votre activité. Elle conditionne aussi la maîtrise de la communication aux régulateurs, à votre maison-mère, à vos filiales ou encore permet de s'étalonner avec les meilleurs du secteur. Là aussi c'est d'abord une question liée à l'intelligence du métier.

Autre exemple : la qualité des données. Toutes les personnes qui se sont penchées sur le sujet savent qu'une des clés est d'associer les collaborateurs en faisant en sorte que la collecte fasse sens pour eux.

La recette n'est pas si compliquée. Évitez l'inutile et laissez de la place aux Hommes

D'abord le sens, c'est toute la recette du Lean Data Management : frugalité des moyens techniques pour inciter l'homme à aller à l'essentiel et à ignorer le superflu, mode effectual et itératif pour obtenir vite des résultats concrets, échanges bienveillants entre DSI et hommes des métiers, en conscience des contraintes et des limites de chacun, pour aller dans une direction bien identifiée.

Concluons avec Elon Musk, le patron des "barbares" cité par Jean Staune le fameux prospectiviste français. Elon Musk s'est attaqué avec succès au marché de l'automobile (Tesla), à la Nasa (Space X), ou encore à Google et Facebook sur la question de l'Intelligence Artificielle. Qu'a-t-il fait dernièrement ? Il a créé Neuralink qui travaille sur l'interface homme/machine pour permettre à l'Homme de rester dans la course face à l'Intelligence Artificielle. L'homme et la technologie ensemble pour réussir, voilà le rêve fou du visionnaire américain. N'est-ce pas ici aussi une question de bon dosage ?


entreprise autonome et intelligence artificielle

Le mirage de l’entreprise autonome

Le séminaire de restitution du voyage de Veille dans la Silicon Valley d’Innocherche (Réseau veille innovation animé par Bertrand Petit) a offert un raccourci extraordinaire de la situation que je rencontre chaque jour dans mon métier de consultant, celle du mirage de l'entreprise autonome

Un risque très important de « Tech-Idolâtrie »

Vous avez vu des collègues investir dans SAP sans améliorer leur performance opérationnelle ? D’autres investir dans QlikView sans obtenir les tableaux de bord dont ils rêvaient ? Des derniers investir dans des technologies couteuses pour exploiter leurs Datas sans obtenir les informations souhaitées sur leurs clients ?

Cette illusion du « Magiciel » qui nous amène mes collègues et moi à croiser chaque jour des clients qui espèrent tout des logiciels et de la technologie, en abdiquant une partie de leur esprit critique.

De ce voyage en Californie d’Inno-cherche, il a été rapporté le meilleur. Je ne parlerai pas des projets Google X pour résoudre des problèmes mondiaux à l’aide de la technologie (Loon). Plutôt de Twist Bio-science, cette start-up américaine championne du génie génétique, qui promet d’encapsuler des masses immenses de données dans des séquences d’ADN synthétiques : imaginez qu’à la place des Data Center, énormes consommateurs d’énergie d’aujourd’hui, on ait la capacité demain de faire tenir le savoir de l’humanité dans l’équivalent de 7 ADN humains. Vous devinez les immenses perspectives que cela ouvre.  Pas de posture réactionnaire bien sûr : la technologie peut offrir le meilleur !

Il a été aussi été question ce soir-là d’Area. Là, j’étais dans mon champ d’expertises : ERP, CRM, extractions de données, « Datalake », Intelligence Artificielle et indicateurs de pilotage d’entreprise : mes centres d’intérêts professionnels depuis 20 ans !

« Enabling Self Driving Enterprise ! »

Telle est la promesse de cette nouvelle start-up en vue de la Silicon Valley. Après la voiture autonome, l’entreprise autonome. A l’ère de l’Intelligence Artificielle moyenne, une entreprise a levé des fonds en disant : « je suis votre assistant virtuel à la décision, je vous aide à piloter simplement en temps réel votre Business à l’échelle mondiale ». Rien que cela !? Sans que cela soulève ce soir-là une seule question.  Quel est mon point alors ?

Aujourd’hui, en praticien du domaine, je sais que cette promesse ne peut pas être réalisée.

Quand bien même elle pourra l’être demain serait-il souhaitable de laisser à un autre qu’au Dirigeant la décision de licencier des collaborateurs car cela améliore le profit à court terme par exemple ?

Et pourtant, Area n’est pas un cas isolé. Ce n’est que la caricature d’un phénomène, qui amène tellement de clients potentiels à tout attendre de la technologie, en oubliant au passage la nécessaire contribution de leurs équipes et d’eux même dans la réussite du projet. Jusqu’à un ami, brillant Dirigeant d’un cabinet de conseil en transformation digitale qui me disait récemment : « Nos clients collectent des montagnes de données sur leurs clients et ils n’en font rien. L’Intelligence Artificielle ne pourrait-elle pas indiquer automatiquement à nos clients de nouveaux usages à proposer à leurs clients, sans assistance humaine ? ». Bien sûr, l’I.A. pourra aider à faire cela, mais pas seule. Pas aujourd’hui en tous cas. Ne vous laissez pas aller à cette illusion simpliste !

Entreprise autonome à la sillicon valley

Allier le Sens, les ressources de créativité de vos équipes & la Technologie

Votre entreprise a un projet décisionnel ou Big Data en 2018 ? Je vous en conjure, avant de chercher la technologie qui est censée vous apporter une réponse toute faite, osez demander à quelles questions cette technologie va répondre et comment vos collaborateurs de terrain, en contact avec les clients peuvent aider à trouver les bonnes questions.  C’est dans cette « Alliance » entre la recherche de Sens d’une part, les ressources de créativité de vos équipes d’autre part et la Technologie bien appliquée que se trouve une réponse vraiment efficace.

Tu ne vas pas aller en vacances à Annecy mais je t’emmène en Normandie

Pour conclure, je vais citer Bertrand Petit qui écrit à la page 91 de son « Disruption 2017 » :

«…Avec l’image de l’application Waze que nous connaissons tous. Waze est capable en milieu de parcours de nous demander de bifurquer de prendre un autre chemin car elle a eu des informations que nous n’avons pas sur les embouteillages devant et a refait son calcul en nous demandant de lui faire confiance et de bifurquer sur la droite. Demain on peut appréhender un « super Waze de nos vies » qui prendra toutes nos données personnelles, nos souhaits de vacances ainsi que ceux de nos enfants et de nos compatriotes et qui in fine me dira « fait-moi confiance Bertrand cette année tu ne vas pas aller en vacances à Annecy comme souhaité mais je t’emmène en Normandie. Ne me demande pas pourquoi c’est un peu trop compliqué pour t’expliquer mais c’est l’optimum global que j’ai trouvé ». 

C’est la question de l’aliénation à la technologie et de la liberté qui est en jeu

Qui n’a pas été conduit un jour par son GPS a un endroit qu’il n’a pas choisi ?

Mon propos n’est bien sûr pas de vous inviter à abandonner Waze, à la veille d’acheter une voiture autonome pour retourner au Sextant et à la carte d’état-major.  Pas plus de vous détourner de l’Or Noir que constituent les informations dont vous disposez sur vos clients.  

Simplement, face à la tentation du « tout technologique », de ne pas renier la part d’intelligence, de courage, d’humanité et de faiblesse aussi, qui fait de vous un responsable porteur de sens.

Je terminerai en empruntant à Jean Staune le titre du dernier Zermatt Summit :

« Et vous ? En 2018, comment allez-vous faire vivre le débat sur la manière d’humaniser l'Innovation au sein de votre entreprise ? »


Intelligence Artificielle et Trésorerie : des prévisions pour quoi faire ?

L’un des sujets qui concentrent le plus d’attention en matière de trésorerie est la question des prévisions. Elle conditionne bien sûr la liberté de manœuvre future et l’indépendance de l’entreprise et du dirigeant. Un point de vue sur la maturité et le rôle de l’Intelligence Artificielle sur ces sujets.

 

Que l'on soit au dernier co-lunching regroupant la fine fleur de la FinTech française, à la réunion annuelle de l'AFTE (Association Française des Trésoriers d'Entreprise) ou à celle d'Universwifnet, ou encore à la grand-messe annuelle de Kyriba, l'un des sujets qui concentrent le plus d'attention est celui des prévisions de trésorerie. N'est-ce pas naturel, compte tenu de l'importance de cette information pour la stratégie du dirigeant ?

 

Et quel rôle pour l'Intelligence Artificielle dans tout ça, nous demandez-vous peut-être ? Pour y répondre, il apparaît d'abord nécessaire de préciser ce que l'on entend par prévisions de trésorerie. Car à bien écouter, difficile de savoir ce que cette expression signifie, tant elle semble recouvrir de réalités différentes dans la bouche de nombreux interlocuteurs.

 

Il nous semble important de commencer par dire aussi que le sujet "Prévisions" est sans doute un des sujets les plus difficiles à traiter en matière de gestion. Les changements du temps présent ne facilitant pas la question d'ailleurs. Faut-il pour autant abandonner ce champ ? À notre avis, pas du tout, car les enjeux sont importants pour le dirigeant. L'argent n'est-il pas de la liberté imprimée, tel que le disait Dostoïevski ?

 

La manière la plus concrète de définir la notion de prévision est d'embrasser le point de vue du trésorier d'entreprise. Dans une optique de gestion de trésorerie zéro, de quoi notre trésorier a-t-il besoin aujourd'hui comme prévisions avec des taux si faibles et des OPCVM aussi pratiques ?

 

Réponse : des mouvements bancaires du jour de valeur J. C'est-à-dire d'un logiciel de communication bancaire, ou plus récemment des services d'un des nouveaux intermédiaires autorisés par la récente Directive européenne des Services de paiements.

 

Il serait donc parfaitement légitime qu'un trésorier d'entreprise rétorque que pour sa gestion de trésorerie, il n'a, dans les conditions actuelles, pas besoin de prévisions autres, que les écritures comptables qui lui manquent à ce jour et qu'au-delà, ce n'est pas son problème. Et c'est le point de vue de la plus large partie des chantres des nouvelles technologies. Je le dis sans amertume, car les systèmes d'informations sont mon métier aussi.

 

Évidemment, dès qu'il y a des questions de risques de change, de taux, d'enveloppes de crédit, d'incertitudes ou de remise en cause de modèles économiques, même dans les conditions de taux actuelles, la question des prévisions peut se poser. Ces situations ne sont probablement pas si rares. Il est nécessaire d'en revenir à la question du vocabulaire.

 

Car de nombreux trésoriers disent par exemple qu'ils entrent des prévisions dans leur progiciel de gestion de trésorerie. Ils prennent l'exemple des chèques remis à la banque, des remises de prélèvements à échéances futures. En fait, il y a là une petite confusion aussi, car rien de prévisionnel dans ces informations : en effet, pour l'entreprise, ces opérations sont du réel certain que la banque créditera plus tard. C'est dans les faits du "réel futur" pour la trésorerie.

 

Ce qui serait prévisionnel, c'est une estimation du complément de prélèvements qui sera remis pour la même échéance et qui n'est pas connu pour l'instant.

 

Cette clarification des termes n'est pas du domaine du simple jeu de mots : si l'on n'est pas clair sur la notion de prévisions (et de réalisations à mettre en face naturellement), il sera difficile de mettre en place des méthodes et modèles qui traitent le sujet.

 

Notons au passage que ces confusions terminologiques sont entretenues par la plupart des progiciels de gestion de trésorerie (à notre connaissance à l'exception de KTP) qui considèrent que toute saisie effectuée par la société est du prévisionnel par opposition à un réel qui viendrait de la banque. C'est évidemment une facilité de programmation, mais ce n'est qu'un point de vue sur la question, le réalisé, pour la société, n'étant pas forcément celui constaté par la banque. Il n'est pas question ici de développer ce sujet, pas plus que d'épiloguer sur les "Prévisions d'origine", les "Prévisions confirmées", les "Niveaux de prévisions" que l'on rencontre partout, mais qui ne reposent sur aucune définition ni méthodologie.

 

En conclusion et de notre point de vue, il apparaît clairement que pour traiter ces questions de prévisions efficacement, avant même de déployer une quelconque méthodologie, il faut éclaircir les objectifs, les enjeux, les concepts, et les rôles. Viennent alors d'autres questions, telle que celle de savoir quel est le rôle du trésorier dans cette affaire (En quoi est-il concerné ? Fait-il les prévisions ? Les reçoit-il d'ailleurs ? Comment ? Qu'est-ce que les réalisations ? Qui les lui fournit ? Le contrôle de gestion ? Avec quelle qualité de prévisions de l'activité ?).

 

Nous espérons ici mettre en évidence que le sujet est loin d'être seulement une question de flux de Data et de traitements de celles-ci, et le risque est très grand de rester dans la velléité et la confusion, avec ou sans le concours de l'Intelligence Artificielle, sans faire preuve d'une sérieuse méthodologie.


Mais pourquoi voulez-vous aller voir sur place en Italie ?

Pour commencer par un point qui fâche : nous ne pouvons pas travailler avec tout le monde.
Pour le dire autrement, vous ne trouverez pas chez nous le « Magiciel », outil miraculeux qui vous permettra sans rien faire de prévoir votre trésorerie à 3 mois de façon fiable, alors même que vos prévisions d’exploitation sont peu fiables du fait d’une inflexion récente de votre Business Model, ou d’une saisie erratique des factures fournisseurs par les équipes comptables de cette nouvelle structure que vous avez récemment acquise.

Les chercheurs de solutions d'Intelligence Artificielle en trésorerie, auront gagné le temps de lecture de cet article.

L’anecdote qui suit va vous situer plus concrètement ce que notre expérience nous a appris de ces sujets.
Nous nous trouvions, il y a 3 ans, dans le cadre d’une mission d’organisation de la centralisation du Cash des filiales européennes d’une entreprise de logistique française face à notre jeune et brillante interlocutrice.

Elle s’étonne que nous souhaitions aller voir sur place « la réalité » de la filiale italienne, alors même que nous lui avons expliqué que notre équipe a conduit ce type de missions de nombreuses fois.
En quoi cette anecdote est-elle parlante ?

Il est très courant que nos clients ne perçoivent pas la nécessité d’un travail de clarification et de définition d’un schéma directeur spécifique au démarrage d’un projet de ce type :

  • soit notre interlocuteur a le sentiment d’être au clair (« les éditeurs de logiciels sollicités intègreront l’analyse nécessaire dans leur démarche d’intégration »),
  • soit celui-ci a du mal à valoriser vis-à-vis de sa DG l’intérêt d’une démarche, qui pourrait être vu comme un aveu de faiblesses sur ses sujets.

La réalité est difficile à dire. C’est pourtant strictement notre expérience : il est difficile de réunir les conditions pour faire réellement un travail de qualité.

Comment alors, pouvons-nous aider concrètement nos clients ?

Pour cette information particulière qu'est la prévision de trésorerie, où l’information à produire est plus encore qu'ailleurs la résultante de process (de règlements et de recouvrement notamment mais pas seulement), de l'organisation des responsabilités, de celles des flux d'information paiements,… de la réelle place donnée au trésorier aussi, il n’est pas possible de faire un travail sérieux sans la présence du Directeur Général dans le groupe de projet.

Suffit-il alors d’être expérimenté pour être pertinent dans les analyses et la définition des solutions ?

Il nous semble clair que l’expérience est une condition nécessaire mais elle n'est bien sûr pas suffisante : nous connaissons tous des gens qui cherchent, « par expérience » à appliquer dans un contexte nouveau des solutions qui marchaient dans un contexte précédent, rouleau compresseur à l‘appui.

L’expérience que nous qualifierions « d’efficace » est celle qui permet d’adapter les solutions qui ont fait leurs preuves « ailleurs » aux situations « ici, maintenant », à fortiori dans une période de grandes mutations.
Winston Churchill, qu’on cite peu à l’ère des GAFA, disait parait-il : « L’improvisation ? C’est ce que je travaille le plus ».

Cet amusant paradoxe s’applique complètement à notre sujet à l'ère du Big Data : pour construire une solution avec notre client, il faut, partir de notre expérience, dépasser et recréer avec lui.
Pour cela, il faut de l’expérience et du recul : c’est toujours nouveau.

C’est là que notre intervention trouve sa valeur ajoutée.

Dans cette affaire, il ne s’agit en rien de la compétence du client, d'ailleurs il l'est plus que nous! Il connait sa société, ses problèmes, ses fournisseurs et ses banquiers, ses hommes et leurs relations, et nous nous complétons avec notre expérience « d'ailleurs »...

Nous apportons l’expérience efficace parce que nous avons « l’esprit frais » et qu’un point de vue extérieur est souvent à même de poser les problèmes différemment.

La disproportion entre la connaissance qu’a le client de son entreprise et celle que nous pouvons avoir est d’ailleurs un handicap pour un dialogue réellement créatif et c’est la réelle raison pour laquelle nous suggérons à nos clients d’effectuer un diagnostic avant toute intervention.

Ce diagnostic a évidemment pour but de permettre d’éclaircir les objectifs et les enjeux, mais à partir d’une connaissance réelle du terrain et non pas d’une simple présentation verbale de la situation.

Le client et le consultant sont alors à « connaissance égale » (ou presque!) de la réalité dont ils parlent et l’expérience efficace peut alors entrer en action. L’expérience jouant alors son meilleur rôle : « l’anti-divagation ».

Encore faut-il pouvoir parler vrai ?

Si le ton de cet article ne vous a pas rebuté, c’est un bon 1er indice d'une possibilité de collaboration.


Le reporting collaboratif : encore un rêve pour beaucoup d’entreprises

Dans ces marchés en pleines mutations que connaissent vos entreprises, il ne suffit plus de savoir produire, de vendre, d’exceller dans les process. Vous créez de la valeur pour et avec vos clients ! Encourager l’innovation, favoriser la co-création, partager l’information. Le reporting collaboratif est un enjeu majeur pour nombre des entreprises.

 

Le partage de l’information avec Excel est-il encore possible ?

Quels que soit les outils sophistiqués mis en place par les DSI pour faciliter la collaboration, sur de nombreux sujets financiers, Excel n’a pas été délogé de sa place d’outil « à tout faire » le plus utilisé. La limite de ce couteau suisse du Directeur Financier c’est que l’information est statique pour les utilisateurs d’Excel. Chaque service travaille sur ses propres prérogatives, réalise ses reportings sous Excel et les sauvegarde sur le serveur de l’entreprise. Pour permettre une diffusion de cette information, les reportings sont envoyés par mail aux différentes équipes ou mis à disposition sur le serveur commun, sur Google Drive ou le Cloud de l’entreprise. Les équipes peuvent ainsi avoir accès aux documents et les consulter à volonté.

 

Souvent, ces tableaux de bord sont complexes car ils comportent beaucoup d’informations issues de diverses sources (outils de gestion, saisies des utilisateurs, budget, etc.), des formules imbriquées… La construction du tableau ne faisant pas toujours sens pour ses lecteurs, le reporting n’est donc maniable que par l’auteur. Parfois, lorsque le tableau est consulté par un autre lecteur, il lui est impossible de le mettre à jour ou de le recalculer, sans peine d’obtenir un message d’erreur ou pire de « détruire » l’architecture du reporting…

 

Les atouts du reporting collaboratif

Pour répondre à ce manque d’accès à l’information, les outils du reporting collaboratif se sont largement développés, mettant à disposition des entreprises des moyens efficaces pour permettre une diffusion de l’information en temps réel et des données à tout moment justifiables. L’objectif de ces outils est de créer une dynamique collective pour gagner en productivité et qualité de travail. L’accès à l’information est sécurisée par un identifiant et un mot de passe, les utilisateurs peuvent à tout moment consulter un fichier auquel sont attachés des droits de lecture et d’écriture et peuvent ainsi recalculer le classeur avec les données du jour et tout ceci sans obligatoirement disposer d’Excel. Ces bibliothèques interactives s’implantent dans une économie du partage et du savoir et forment ainsi un avantage concurrentiel simple pour les entreprises d’aujourd’hui.

 

 

Rédigé par Stéphanie Cambianica

 

En bref 

Fondée et dirigée par Stéphane Robert depuis 10 ans, Essentiel Info simplifie le Data Management et propose des solutions décisionnelles Lean pour le pilotage d’activité et de trésorerie, le reporting réglementaire et la connaissance clients.


Collecter des données de qualité et les exploiter en toute confiance : c’est possible !

C’est le terme de saison avec ses compères Digital et Numérique : Le terme Data est dans toutes les bouches. Les moyens de collecte d’informations se multiplient. Nouveaux canaux de communication, web et réseaux sociaux ou autres informations collectées sur les clients, sources de données externes et déjà les IOT (vous savez, votre Frigo qui communique seul avec le Drive de votre distributeur préféré !).

 

L’Homme est-il la clef de la réussite ?

2 faits acquis pour commencer : les systèmes d’information sont au cœur de la stratégie de presque toutes les entreprises ; l’efficacité de ces systèmes et la qualité de l’information qu’ils traitent ont rendu incontournable la donnée pour les entreprises. Quel que soit le métier, tous les acteurs sont concernés, à la finance comme au marketing, au commercial autant qu’à la production, au supply chain comme aux ressources humaines.

Cependant, un constat est largement posé : seules, les données ne valent rien. Elles ont besoin d’être maîtrisées, analysées et exploitées par les collaborateurs de l’entreprise pour produire de la valeur ajoutée. Où on redécouvre qu’à l’heure naissante de l’Intelligence Artificielle et du Deep Learning, il est important d’investir sur l’Homme. C’est lui la clé de la réussite ! Il est nécessaire d’y sensibiliser les collaborateurs et de nombreuses organisations investissent pour leur donner tous les moyens de maîtriser les données.

 

Le simple Excel garant de la fiabilité des données ?

Comme chacun le sait, Excel est un tableur. Il permet la création de tableaux divers en 2 dimensions, liant formules et illustrations graphiques pour dynamiser le contenu. Au fils du temps, un milliard d’utilisateurs d’Office dans le monde ont exploité toutes les possibilités Excel pour collecter, stocker et traiter l’information. Par conséquent, l’usage qui en est fait dans la plupart des entreprises dépasse les visées initiales du petit logiciel. C’est pourtant lui qui est encore utilisé dans beaucoup d’endroits par les utilisateurs métiers pour vérifier la redondance d’une information, retraiter des données comptables ou clients.

 

Comment éviter le data crunching ? Ou encore réconcilier des données de différentes sources sans risque d’erreur ?  Pour automatiser certaines manipulations et fiabiliser les données, nombreux sont les services qui recourent, au grand Dam de leur IT, à des compétences expertes en Excel, générant ainsi une dépendance des utilisateurs à un expert au sein d’un service. Une situation qui peut devenir gênante pour les entreprises.

 

Comment la BI agile répond aux limites d’Excel ?

Depuis quelques années, des outils de Business Intelligence agiles se sont développés, y compris chez Microsoft lui-même pour répondre aux limites d’Excel apportant de la liberté et de la souplesse aux entreprises. Sans complexité technique, il est aujourd’hui possible d’automatiser ses rapports et d’exploiter ses données en s’assurant de leur fiabilité tout au long de la construction des états, sans dépendance à l’IT ni à un expert Excel.

 

 

En bref

Fondée et dirigée par Stéphane Robert depuis 10 ans, Essentiel Info simplifie le Data Management et propose des solutions décisionnelles Lean pour le pilotage d’activité et de trésorerie, le reporting réglementaire et la connaissance clients.


Essentiel Info partenaire du Zermatt Summit

Le prochain Zermatt Summit se tiendra des 6 au 8 septembre prochain dans la station suisse sur le thème Humaniser l’innovation.

Programme accessible sur le lien http://fr.zermattsummit2017.org/

Inscription à des conditions préférentielles sur demande.


Un volume de DATA qui explose : Excel pourrait-il vous assurer un suivi de qualité des données à l’ère du Big Data

Selon une étude parue récemment dans Les Echos, la masse d’informations mondiale était de 100 millions Go en 2001, de 1,2 milliard en 2012 et sera de 35 milliards en 2020… soit en moins de 8 ans, un volume de données trente fois plus important ! Celles-ci sont issues des outils de gestion classiques des entreprises (Sage ou SAP par exemple), des données historiées ou externes, bien entendu des réseaux sociaux et des informations collectées sur les clients dans tous les nouveaux canaux digitaux et déjà bien sûr des premiers objets connectés.

L’exploitation de sources de données multiples : Excel est partout utilisé mais est-il toujours adapté ?

De nombreuses PME, mais aussi des ETI ou des divisions métiers de groupe stockent dans Excel les informations collectées puis les analysent, réalisant ainsi des reportings simples ou complexes mettant en relief l’information essentielle dont elles ont besoin. Grâce au tableur ou à d’autres outils plus évolués dans des entreprises plus richement dotées, La DATA est triée et mise à la forme souhaitée... Une question importante se pose partout, à laquelle les entreprises réfléchissent mais n’ont pas véritablement mis en place de réponses fiables : Comment s’assurer de l’exactitude des données provenant de tiers, d’outils ERP ou des réseaux sociaux ? Une fois les données regroupées sur un fichier Excel ou dans une base de données, le reporting créé et les résultats escomptés affichés, comment justifier un montant ou simplement une information erronée ? Les entreprises sont de plus en plus confrontées à ce problème : Excel permet à l’utilisateur métier de nettoyer les données mais n’est pas fait pour stocker un important volume d’information ; à l’inverse les outils dédiés à traiter le Big Data sont quant à eux exploités par des techniciens souvent bien loin du métier et du sens de la donnée. Le volume d’information grandissant en même temps que ses sources se multiplient, il devient crucial pour les entreprises de réussir à combiner le travail des hommes et des technologies d’aujourd’hui pour fiabiliser leurs données.

Des nouveaux outils présents sur le marché ?

La révolution fulgurante actuelle change les habitudes de la société et participe à l’explosion exponentielle du volume de données collectées. La masse d’informations créée encourage et favorise la création de nouveaux supports, de nouvelles méthodes et outils, voire de nouveaux métiers avec les recrutements qu’on commence à observer de Data Analyst, Data Scientists ou autres Chief Data Officer. Cette opportunité de création de valeur s’appuie sur une nouvelle génération d’outils dépassant les limites d’Excel et qui permettent à l’Homme de collecter, stocker, traiter, visualiser et utiliser les données d’une entreprise, quelle que soit sa source, avec un suivi de qualité permettant de s’assurer à tout moment de l’exactitude de l’information.

En bref

Fondée et dirigée par Stéphane Robert depuis 10 ans, Essentiel Info simplifie le Data Management et propose des solutions décisionnelles Lean pour le pilotage d’activité et de trésorerie, le reporting réglementaire et la connaissance clients.


Lean data management

Business Intelligence : Le héros est encore l’Homme. Et demain ?

15 ans d’automatisation de suivis et de prévisions d’activités dans des entreprises nous ont placé aux 1ères loges pour observer les mutations accélérées que des auteurs tels que Pierre GIORGINI* ou encore Jean STAUNE**, regroupent sous les termes de transition ou de révolutions fulgurantes. Intégrateur de logiciels, nous voyons avec amusement certains de nos confrères vendre des « Magiciels ». Vous en avez bien sûr rencontré. Vos questions concernant le pilotage, la trésorerie ou vos prévisions d’activité ? Elles se résoudront d’un clic grâce à ce dernier outil à la mode. Vous avez encore des contrôleurs de gestion ? Quel dinosaure vous faites ! Vive les « moteurs de calcul numériques » (sic) et l’Intelligence Artificielle. Pour le moment cette promesse n’est pas encore tenue. Car un constat s’impose : Excel est omniprésent dans les entreprises de toutes tailles. La question de comprendre pourquoi le petit tableur fait de la résistance à l’heure du Big Data et de la révolution numérique, nous semble intéressante. Elle permet de comprendre quel rôle clé l’Homme tient dans le système d’information décisionnel. Elle trace aussi l’horizon à atteindre pour les solutions de demain.

Pourquoi Excel aurait dû disparaître du paysage de la Business Intelligence ?

Excel, le Tableur de Microsoft est banni par la plupart des Directions des Systèmes d’Information (DSI) quand il est question de Business Intelligence (BI). Les atteintes à « l’unicité de la donnée » ou la chasse au « Shadow IT » favorisés par le tableur en sont les principales causes. Les DSI, mais aussi certains Directeurs Administratifs et Financiers (DAF), pilonnés d’information sur les nouvelles solutions pour faire face à la déferlante du Big Data, ne manquent pas de souligner les autres limites du tableur.

Dans le désordre d’une liste à la Prévert, 4 arguments au moins font depuis 20 ans les Choux gras des Business Object, Hypérion, Tableau, Anaplan ou plus récents Captain Dash et Toucan Toco :

1) Tout DAF d’ETI a un jour ou l’autre utilisé un classeur Excel évolué, où la maintenance des liens entre feuilles finissent par rendre des chiffres erronés. Une maintenance régulière s’impose. L’entreprise est dépendante de ce qui s’apparente finalement à un développement spécifique.

2) Le manque de sécurité est une deuxième raison, puisqu’un classeur Excel sert à la fois de restitution et de base de données. Quel Directeur Financier n’a jamais été confronté à l’effacement intempestif d’un fichier important, conséquence au plus heureux, d’une perte de temps ?

3) A l’ère du « Big Data » viennent ensuite les limites liées à la volumétrie. Malgré l’augmentation des capacités des feuilles Excel et la stratégie de Microsoft pour lier Excel à la suite SQL, les lenteurs liées à la taille des classeurs et la difficulté pour l’utilisateur à se repérer dans les modèles de données ont depuis 30 ans amené les entreprises à chercher d’autres solutions.

4) A une époque, de généralisation de l’usage de Facebook ou des Google Docs, les capacités de collaboration et de partage autorisées par Excel semblent enfin bien limitées.

Pourtant combien de sociétés de taille importante dans lesquelles le contrôleur de gestion du siège compile encore autant de feuilles Excel qu’il a de régions ou d’activités avec ce que ces méthodes semblant d’un autre âge comportent de lenteurs et de risques d’erreurs ! Pour quelles raisons retrouve t’on Excel jusque dans les organisations ayant consenti les plus lourds investissements en outils de BI, y compris dans ceux promettant une autonomie complète des utilisateurs et une BI en self-service

A notre avis la réponse tient en une phrase : La place que le tableur Microsoft laisse à l’Homme.

L’Homme : élément clé du pilotage à l’heure des mutations accélérées

La démarche de Business Intelligence structurée, menée par la Direction des Systèmes d’Information (DSI) est de type industriel. Elle vise à partager largement une information pertinente et à pérenniser des process. Spécification des besoins, alimentation et enrichissement d’un stockage de données (SGBD, OLAP, In Memory ou autres NoSQL… Cloud, On Premise ou Hybride) avec un contrôle de la qualité des données,... Sa durée minimale est incompressible. Les utilisateurs ont les états dont ils ont besoin, éventuellement  en « self-service » mais…

Dans un contexte de changements accélérés, l’analyse d’impact du rachat d’une nouvelle entité, la demande d’un autre format de reporting par le nouveau DG ou la simulation d’un nouveau Business Model doivent pouvoir être faits pour demain. Si le système d’information décisionnel ne contient pas déjà toutes les données nécessaires, la DSI, pour cause de transformation digitale à mener, doit parfois répondre dans un délai de X semaines à un métier ayant pourtant exposé un besoin dans les règles de l’art.

Le métier contourne alors la DSI et le système d’information structuré et opte souvent pour une autre alternative : soit la dernière offre disponible dans le cloud qui promet une réponse rapide en toute autonomie, soit Excel qu’il connait et maîtrise parfaitement.

Beaucoup n’hésitent pas longtemps quand ils ont besoin de produire des chiffres pour hier.

Car pour le moment, Excel a encore un avantage décisif : l’autonomie inégalée qu’il donne à ses utilisateurs pour la partie du process concernant l’ajout ou le croisement de données de sources différentes ou encore la gestion de référentiels différents grâce à la botte magique de tout contrôleur de gestion : les fonctions « Recherche V » ou «Somme Si ».

Aucun des outils de BI présents sur le marché, n’est aussi largement connu et répandu, en donnant autant d’agilité qu’Excel pour permettre à ses utilisateurs d’intégrer les subtilités métiers qui permettent de « coller » au plus près d’une réalité en mouvements Il permet surtout à l’utilisateur de gérer l’ensemble de son cycle d’information. Ce n’est encore que partiellement la réalité des dernières solutions. Elles y viendront très certainement.

Par ailleurs, en période de mutations, le cahier des charges et la construction de la solution doivent évoluer en même temps que l’expérience, ce qui est peu compatible avec les nécessités d’une démarche de type industriel, apanage d’un traitement par le système. Là encore la créativité des hommes fait merveilles.

La présence d’Excel dans les services des Directeurs Financiers d’organisation de toutes tailles, en particulier pour ce qui concerne les prévisions d’activités ou de trésorerie, nous semble démontrer l’espace qui existe, au moins pendant un temps, entre ce que contient le « système » et les informations nécessaires pour décider. La capacité d’adaptation de l’homme, sa possibilité de résoudre des situations imprévues ou d’apporter sa connaissance subtile du réel assurent encore pour un moment une place décisive pour l’homme dans le système d’information décisionnel de l’entreprise.

Demain est déjà à la porte : solutions Excel-like sur-vitaminées, reporting XBRL, Intelligence Artificielle ? La question de savoir qui sera l’Excel du futur va surement trouver rapidement sa réponse. Celle du rôle de l’Homme dans la Business Intelligence du monde qui s’ouvre est bien posée.

*La transition Fulgurante, Vers un bouleversement systémique du monde. Pierre Giorgini. Bayard.
Extrait conférence https://www.youtube.com/watch?v=Uu3ExBmmyM0

**Les clés du Futur, Réinventer ensemble la société, l’économie et la science, Jean Staune, préface de Jacques Attali, Plon.
Extrait conférence https://www.youtube.com/watch?v=dMqAmfZW0RU

L’auteur

Stéphane Robert, Fondateur et Dirigeant d’Essentiel Info. Essentiel Info travaille aux côtés des DSI et des DAF d’ETI depuis 10 ans pour les aider à donner de l’agilité à leur système d’information décisionnel. Une solide clientèle d’entreprises patrimoniales confirme leurs capacités opérationnelles.
Essentiel Info est partenaire du prochain Zermatt Summit qui a lieu du 8 au 10 septembre 2017 sur le thème « Humaniser l’Innovation » http://fr.zermattsummit2017.org/


L'origine de la trésorerie zéro : une Méthode inventée par un Français

En matière d’information de gestion, parmi les indicateurs suivis par les entreprises privées de tous secteurs, l’un d’entre eux fait presque partout l’objet d’une attention particulière : il s’agit du niveau de la trésorerie.

Comment cette question se présente-t-elle chez les clients que nous rencontrons ?

Cela peut aller du client exceptionnel à la trésorerie très excédentaire qui ne voit pas l’intérêt de travailler sur le sujet à la grande entreprise dont les départements contrôle de gestion et trésorerie se renvoient la responsabilité de la mauvaise qualité des prévisions de trésorerie, en passant par le fond d’investissement qui souhaiterait aider ses participations à améliorer le passage du Budget d’exploitation en Budget de trésorerie.

En quoi sommes-nous à même d’apporter une réponse spécialement pertinente à nos clients sur ces sujets ?

La réponse courte à cette question tient en 2 mots : expérience et méthodologie.
Mais que recouvrent ces mots exactement ?

Pour ce qui est du mot expérience, le contenu est assez simple à définir : en ce qui me concerne, il s’agit d’une expérience bancaire à ses débuts (en 1973 !), puis de la gestion de la trésorerie d’une multinationale jusqu’en 1978, date ma rencontre avec Dung NGUYEN qui fut mon mentor (merci de prononcer Zung !) et date à laquelle je suis devenu consultant en gestion de trésorerie pour des sociétés de toutes tailles dans de nombreux secteurs et…pays ! Nous reviendrons plus loin sur ce sujet car beaucoup des sujets que tu évoques ramènent à Dung NGUYEN.

En ce qui concerne la méthodologie, c’est un peu plus compliqué et cela nécessiterait des développements élaborés. Pour des raisons de commodité de lecture, je propose d’en traiter les détails dans des articles spécifiques. Je me contenterai de principes dans ce qui suit.
Pour aborder de façon claire ces futurs développements, il me paraît tout d’abord nécessaire de rappeler quelques éléments du contexte dans lequel la gestion de trésorerie moderne en France est apparue car cela a complètement façonné les développements ultérieurs, les succès comme les difficultés. Cela va nous ramener au début des années 1970.

A cette époque :

- Les taux d’intérêts sur le Franc sont autour de 10% l’an, hors périodes de crises spéculatives contre le Franc. Si l’on rajoute les marges bancaires, l’addition est conséquente.
- La réglementation est drastique :

  • Contrôle des changes (interdiction de garder des devises plus d’un mois dans un compte en devise)
  • Encadrement du crédit (plafond de crédit à ne pas dépasser aux dates fatidiques fixées par la Banque de France)
  • Placements des excédents de trésorerie à un mois minimum pour espérer une rémunération

- Les moyens sont limités :

  • Pas de micro ordinateur, pas d’Internet, ni même de « Minitel », l’information provient des « pièces bancaires » ou des extraits de comptes papiers, exceptionnellement on s’informe par téléphone…
  • Pas de progiciel particulier pour la gestion de trésorerie (même Excel restait à inventer) : utilisation du progiciel comptable ou de documents papiers reprenant les informations reçues par les « pièces bancaires » auxquelles on ajoute à la main quelques estimations de l’évolution future. Gomme et crayon obligatoire.

- La gestion de trésorerie fait partie de la « comptabilité »
Compte tenu des éléments précédents (taux d’intérêts, brouillard sur la position de trésorerie du jour, trou noir sur le futur), les comptables visent la sécurité ce qui amène à privilégier les anticipations négatives, c'est-à-dire à favoriser « par précaution » l’intégration des dépenses futures dans les soldes bancaires, ce qui aboutit à constituer des soldes créditeurs par peur d’agios débiteurs conséquents et de « manquer ».

- Les conditions de banques sont d’une « obscure clarté » et relèvent quasiment du «secret défense»

C’est dans ce contexte que paraissent en 1972 dans la revue « Le Management » trois articles d‘un certain Dung NGUYEN sous le titre « Trésorerie zéro, pourquoi, comment ? ».
Tout est déjà dans le titre…Dans ces articles, Dung NGUYEN expose et démontre tout d’abord que le bon trésorier est celui qui gère en « trésorerie zéro » c’est-à-dire celui qui optimise le gain des placements moins le cout des emprunts afin qu’il n’y ait le moins d’argent dormant sur les comptes, pas celui qui évite les agios. Autrement dit, il faut prendre en compte le manque à gagner dans les décisions.
Évidence aujourd’hui, bombe à l’époque.

Les Directions Générales, les Directeurs Financiers, les Trésoriers (quand il y en a) commencent alors à évaluer ce manque à gagner par l’analyse d’un document jusqu’à là assez négligé et qui s’appelle échelle d’intérêts. Ils y trouvent alors une source de gains très important qui va lancer le mouvement.

Mais dans le titre des articles, s’il y a le « Pourquoi ? », il y a aussi le « Comment » ?

En effet, une fois admis le principe de trésorerie zéro, il faut le mettre en place.

Dans les conditions de l’époque exposées ci-dessus, on peut résumer ainsi la problématique : je dois être capable de pré-calculer et optimiser le résultat de l’équation suivante : Gains du produit si je place-Coût du découvert entrainé par le placement. Pour concrétiser, dans les conditions de l’époque, pour avoir un gain, il faut placer à 30 jours minimum à un certain taux, ce qui peut entrainer un découvert pendant un certain nombre de jours à un autre taux. Comment décider ?
Il faut évidemment maîtriser les conditions de banques (taux, marges, dates de valeur) mais aussi les prévisions pour effectuer un calcul sérieux.

De ces deux éléments essentiels (principe de trésorerie zéro, maîtrise des paramètres du modèle) et des enjeux conséquents et mesurables qui apparaissent va découler l’ensemble des développements des années qui ont suivi :

  • Prise de conscience dans les entreprises de l’importance de la gestion de trésorerie comme centre de profit
  • Mise en place d’une fonction Gestion de Trésorerie indépendante de la comptabilité
  • Développement de progiciels spécialisés
  • Mise en place des techniques d’information provenant des banques
  • Publication, clarification des conditions de banque et négociations

Il faut noter tout de suite que si ces points ont été indispensables au développement de la fonction Gestion de Trésorerie, ils portent également en germe des difficultés du fait de la séparation d’avec la fonction comptable, difficultés que l’on retrouve souvent au cœur des problèmes de certains clients.

Parallèlement, notamment dans le cadre du cabinet conseil Dung NGUYEN et Associés dont j’ai eu l’honneur de faire partie dès 1978 en tant qu’associé jusqu’à la disparition prématurée de Dung NGUYEN en 1988, se développe la méthodologie nécessaire pour mettre en place le principe de trésorerie zéro en terme d’organisation et de procédures. Évidemment fondamental.

Les règles et méthodes ont été définies par l’expérience, elles ont été mises en place dans de nombreuses entreprises tout au long des années 80, adaptées ou adaptables aux secteurs et cas particuliers. Ces règles et méthodes ont, par exemple, façonné l’ergonomie des progiciels de gestion de trésorerie, centrés sur la « fiche en valeur » dont l’ergonomie a été définie à cette époque et est toujours d’actualité (le plus bel exemple étant celui de la fiche en valeur de l’ex CERG-XRT Universe).

Depuis les années 1970, les conditions ont beaucoup changé : les taux d’intérêts se sont effondrés (du moins actuellement), la réglementation a changé, les produits de placements à court terme ont pu être développés, les progiciels et internet sont là, les conditions de banques ne sont plus un tabou, etc.

C’est évidemment tant mieux, mais il n’en reste pas moins que de nombreuses difficultés subsistent, notamment autour des prévisions.

Paradoxalement, on peut presque dire qu’une partie de ces difficultés provient du progrès…car comme chacun sait, la fonction crée l’organe et comme les pressions sur la gestion de trésorerie se sont relâchées, certains attributs se sont atrophiés. En gros, on peut dire qu’à de rares exceptions près, ne reste du modèle standard de trésorerie zéro que les aspects techniques « outils » (informatique, progiciels, télématique), les règles et procédures nécessaires en amont pour faire fonctionner le tout de façon cohérente ont disparues. En résumé, il est trop facile de placer en SICAV au jour le jour, cela dispense de faire des prévisions...

Et quand on connaît l’historique, il est amusant de constater qu’il reste une vague trace de ces procédures en amont mais vidées de leur substance dans le vocabulaire utilisé dans les progiciels de gestion de trésorerie.
Par exemple dans un progiciel que je ne nommerai pas existent des Prévisions Confirmées, des Prévisions d’Origine, des banques pivot ou encore des quotas…
Ces mots correspondent à des concepts méthodologiques bien précis de la trésorerie zéro mais les fonctionnalités mises en place n’ont qu’un lointain rapport avec le modèle original.

 

Pour terminer ce développement déjà assez long, indispensable pour comprendre ce qui suivra, mais qui ne fait qu’effleurer les sujets, on peut résumer ainsi notre apport sur le plan méthodologique :

  • Remise de chaque chose à sa place : les outils ne sont que des outils, ils ne peuvent rendre le meilleur dont ils sont capables que si l’environnement est préparé
  • Clarification des enjeux, des objectifs, des concepts et du vocabulaire de façon à avoir une vue bien définie de ce dont on parle (par exemple même les mots prévisions et réalisations sont à définir !)
  • Connaissance des principes, des règles, méthodes et procédures à mettre en place pour maitriser sa trésorerie et capacité à adapter les règles générales bien connues aux cas particuliers.

Pour terminer, je voudrais souligner un point de première importance : comme expliqué par Dung NGUYEN et vérifié par des années d’expérience, la maîtrise de la trésorerie suppose la reconnaissance de la fonction trésorerie en tant que telle. C’est admettre qu’elle a besoin de fixer des règles et procédures dans une organisation qui lui permet de jouer son rôle.
Naturellement, ces règles et procédures peuvent rentrer en conflit avec d’autres nécessités et cela peut donc être plus ou moins facile à faire passer.
Il y a donc des choix à faire mais il n’y a pas de miracle : si la fonction trésorerie n’est considérée que comme un simple service de caisse, il ne faut pas s’attendre à ce qu’elle puisse prévoir l’imprévisible, fût-elle dotée du plus couteux progiciel de la galaxie.

Marc Jacob de Cordemoy


BI, révolution numérique et autres changements: les outils agiles sont-ils vraiment utiles ?

Par Stéphane ROBERT, Directeur Associé d’ESSENTIEL INFO. Cet article cite des témoignages recueillis lors du dernier séminaire clients organisé par le Cabinet de conseil et d’intégration de Systèmes d’Information Décisionnels.

Intégrateur d’outils informatiques destinés à faciliter la compilation d’information et la prise de décision depuis 10 ans, nous avons constaté que l’usage d’Excel pour manipuler des données et produire de l’information reste très présent. C’est tout aussi bien le cas dans des PME dont la croissance rend cet usage inadapté (volumétrie, temps de traitement, sécurité,…) que dans des groupes où l’usage du tableur prospère alors que les Directions des Systèmes d’Information ont travaillé pour organiser et structurer l’accès à la donnée via des projets souvent couteux. Pour quelles raisons ? A notre avis, l’autonomie des utilisateurs dans Excel et la maîtrise d’un environnement simple pour compiler, manipuler et présenter des données, qui est aujourd’hui encore inégalée malgré ses limites. Cet article est un plaidoyer pour inciter les DSI à organiser, un accès sécurisé à l’information et une Business Intelligence agile, en Self-Service, dans un environnement déjà connu par les utilisateurs métiers, à travers quelques histoires…

L’usage d’Inside XL : un formidable apport dans la définition d’une vision claire et partagée du métier de l’entreprise.

Etablir des consensus sur la situation de départ, le but à atteindre et les changements à conduire, et simuler les effets réels de ces changements dans des environnements de tests.

Comme l’évoque un client, Responsable BI dans une grande Fondation, organiser la possibilité d’un droit à l’erreur via des environnements de tests est une bonne manière d’avancer rapidement : cela permet d’établir un consensus sur la situation de départ et les process à mettre en oeuvre. « Nous mettons les données à disposition des utilisateurs métiers dans un environnement de BI agile Inside XL. Ils échangent, évaluent et suggèrent ensuite des améliorations. Nous consolidons ensuite dans l’outil de Corporate BI* où nous libérons les données » : Rapidité et efficacité augmentées par la collaboration sur des cas concrets.

Fonder la collaboration sur le concret, la transparence et le (bon) sens pour responsabiliser, améliorer la qualité des données et des décisions.

Ces outils à la main des utilisateurs permettent ainsi de les associer à la définition des changements. Cela a pour avantage d’améliorer la qualité des process aussi bien que de remettre la réalité au centre des échanges. Cela semble d’autant plus nécessaire que la taille de l’organisation éloigne certains acteurs clés des opérations. Pour une autre cliente en charge de l’Operational Performance Strategy dans une entreprise multinationale « Organiser le pilotage des activités autour d’outils simples est une vraie force pour les grandes organisations car cela permet de responsabiliser les acteurs à différents niveaux de l’organisation. Donner la possibilité à ces acteurs d’analyser de l’information validée et partagée, c’est avant tout leur permettre d’identifier les défaillances dans les process opérationnels et traiter les dérives à la source. »

*Corporate BI : système d’information décisionnel d’entreprise, généralement composé d’outils d’Extraction, de transformation et de chargement de données, d’entrepôt de données et d’outil(s) de restitution administré(s) par la Direction des Systèmes d’Information (DSI). Ces outils évoluent suivant un processus organisé de spécification par les utilisateurs, réalisation par la DSI, tests et validation et mise en production. Ce processus peut-être long mais garantit la maîtrise, la cohérence et la qualité des données mises à disposition des utilisateurs.

 

Inside XL pour développer une culture de la donnée

Augmenter la conscience du lien entre appropriation des process et qualité de l’information restituée.

Il nous semble y avoir un vrai bénéfice à intégrer dans la pratique de la DSI, les liens entre l’appropriation du sens des process par les collaborateurs et la mise en place d’un outil permettant tests et implication des métiers d’une part, la qualité de la donnée et la rapidité des décisions et des adaptations d’autre part. Cela nous semble résumé en 1 phrase par le DSI d’une grande entreprise de location moyenne durée : « Nous prenons chaque jour un peu plus conscience que le pilotage de notre projet de changement d’ERP doit se faire « par le sens ».

Partager une vision claire du métier, du sens des process et du référentiel de l’entreprise.

Ainsi, comme l’exprime un Directeur Financier d’une entreprise ayant connu de grands changements ces 18 derniers mois, « C’est la compréhension partagée du métier de l’entreprise et la finesse du référentiel, qui permet de passer facilement des indicateurs chiffre d’affaires et parts de marché attendus par le Fondateur hier, aux indicateurs sur la rentabilité demandés par l’actionnaire principal aujourd’hui. C’est aussi un référentiel de qualité et des outils simples qui permettent aux opérationnels d’avoir la vue sur l’utilisation des ressources qui les intéressent au jour le jour pour que l’entreprise soit « analytique » jusqu’au plus près des opérations ».

Associer les utilisateurs métiers sur l’ensemble du cycle de l’information, de la saisie à la restitution de la donnée.

Un autre client Responsable du Contrôle de gestion et du projet Compliance dans un laboratoire pharmaceutique, atteste de l’intérêt d’associer les utilisateurs métiers sur l’ensemble du cycle de l’information, de la saisie à la restitution de la donnée. « Nous avons donné la vue à tous les Attachés Scientifiques sur le nombre de reporting de Compliance incomplets de chacun. Cela a permis d’améliorer la qualité de la saisie par les Attachés Scientifiques les moins rigoureux et par un effet de boucle vertueux d’obtenir aujourd’hui une excellente qualité de nos indicateurs ».

Une Business Intelligence agile et Collaborative au service du changement

Développer des capacités de simulation pour se préparer aux changements et décider vite.

« Nous changeons d’actionnaire majoritaire tous les 5 ans. Aujourd’hui je considère cela non pas comme une difficulté mais comme un changement stimulant.» Cette attitude positive face au changement, exprimée par une autre Directrice Financière est le résultat d’une confiance confortée par de précédentes adaptations réussies. Adapter un reporting à un nouvel actionnaire, réévaluer la qualité de la politique commerciale, démontrer la maîtrise de son Besoin de Fonds de Roulement étant ainsi considérés comme autant d’opportunités d’améliorer l’excellence opérationnelle. Le pilotage par la valeur actuelle et future nécessite une connaissance et une standardisation des process tout autant qu’une certaine capacité de simulation. Ces capacités de simulation préparent aux changements et permettent de décider vite lorsque ceux-ci se présentent. Ainsi pour, l’ex DG d’une entreprise des Médias, c’est la maîtrise parfaite de ses coûts de revient et de ses marges qui « permet dans un contexte de retournement de marché de décider très rapidement de l’achat d’un nouvel équipement ou de l’intérêt d’un nouveau marché ».

En résumé, voici 8 bonnes raisons d’intégrer Inside XL dans votre Système d’information décisionnel :

1) Il facilitera l’établissement d’un consensus sur la situation de départ, le but à atteindre et les changements à conduire,

2) Il permettra de simuler les effets réels de ces changements dans des environnements de tests,

3) Il contribuera au partage d’une vision claire du métier, du sens des process et du référentiel les décrivant,

4) Il fondera la collaboration sur le concret, la transparence et le bon sens,

5) Il responsabilisera chacun dans l’amélioration de la qualité des données et des décisions,

6) Il contribuera à développer une culture de la donnée, et incitera chacun à progresser dans les savoir-faire pour collecter, traiter et protéger une volumétrie importante de données,

7) Il démontrera l’importance des capacités de simulation pour mesurer la valeur actuelle, simuler la valeur future et se préparer aux changements,

8) Il confortera la confiance et amènera chacun à considérer le changement comme une opportunité de progrès.

Associer la mise à disposition d’Inside XL aux outils de Corporate BI ?

Dans de nombreuses organisations on oppose encore Business Intelligence d’entreprise, où la DSI aurait l’initiative de donner aux utilisateurs l’information nécessaire pour décider et self-service BI où les utilisateurs métiers accèdent aux données dont ils ont besoin pour prendre des décisions sans devoir faire appel à l’IT à chaque question. De notre point de vue les 2 approches sont très complémentaires et la question à résoudre pour la DSI est plutôt : de quelle manière organiser la mise à disposition des 2 types d’outils pour donner la réactivité et la capacité d’adaptation dont les organisations ont besoin dans une ère de changements accélérés ?


Business Intelligence et changements : quelles bonnes pratiques ? Une incitation forte à piloter le changement par le (bon) sens

Ce mardi 8 décembre 2015, s’est tenu au Novotel de la Porte d’Italie, la 7ème édition du séminaire clients d’ESSENTIEL INFO. Extraits d’échanges sur le thème « Business Intelligence et changements : quelles bonnes pratiques ?» qui constituent une incitation forte à piloter le changement par le (bon) sens, par Stéphane ROBERT, Directeur Associé, du Cabinet de conseil et d’intégration de Systèmes d’Information Décisionnels parisien.

 

« L’importance fondamentale d’une vision du métier et d’un référentiel de qualité. »

« Nous changeons d’actionnaire majoritaire tous les 5 ans. Aujourd’hui je considère cela non pas comme une difficulté mais comme un changement stimulant.» Cette attitude positive face au changement, exprimée par Ginette GABRIEL, Directrice Financière de CTN a donné le ton des échanges. Adapter un reporting à un nouvel actionnaire, réévaluer la qualité de la politique commerciale, démontrer la maîtrise de son Besoin de Fonds de Roulement apparaissant ainsi plutôt comme autant d’opportunités d’améliorer l’excellence opérationnelle.
Pour Thomas CHRISTIN, ex DG d’EUROMEDIA, la maîtrise parfaite de ses coûts de revient et de ses marges est vitale. Elle permet dans un contexte de retournement de marché de décider très rapidement, par exemple de l’achat d’un nouveau matériel ou de la prise d’un marché. Il met ainsi le doigt sur le lien crucial entre qualité du Référentiel et pertinence de la décision.
Une maîtrise des coûts et du référentiel intimement liée à la bonne compréhension des process, comme l’a souligné Nicolas ZEGARRA, Responsable du Plan Minier chez AREVA. Le pilotage par la valeur actuelle et future, nécessite une connaissance précise et une standardisation des process tout autant qu’une certaine capacité de simulation.

 

« Développer des capacités à collecter, traiter et sécuriser les données »

Frédéric LE DREN, DSI d’AXA Direct Protection souligne aussi l’importance d’une capacité à traiter une volumétrie importante de données. « La technologie permet d’imaginer être bientôt en capacité d’intégrer par exemple des données de capteurs présents dans les véhicules (freins, régime moteur,…) avec des données de géolocalisation et de circulation pour noter les profils des conducteurs. Ces ranking pourraient ensuite être intégrés à un profil de risque et pris en compte dans l’estimation de la valeur future d’un contrat d’assurance auto ». Redistribution des cartes en vue dans de nombreux secteurs, où les géants qui possèdent et maîtrisent la donnée tels que les GOOGLE, AMAZON, APPLE, FACEBOOK et autres acteurs moins voyants tel qu’AUTOLIB. par exemple, se trouvent en position d’entrer sur de nombreux marchés face à des acteurs en place pas tous spécialistes de la donnée et de sa sécurité.
« Un intellectuel assis va moins loin qu’un con qui marche ». Ludovic LABBE, le DSI de LEASECOM, qui cite Michel AUDIARD nuance immédiatement en expliquant qu’il s’attache à discerner quels petits changements apportent le plus de gains même s’il considère l’action comme une des clés du succès.

 

« Mettre en place les conditions d’une Business Intelligence agile et Collaborative »

L’intérêt d’une approche tactique est confirmée par Frédéric LE DREN : « Notre entité créée en 2010 représente aujourd’hui 20 millions d’euros de Chiffre d’affaires et est présente dans plusieurs pays européens. Nous avons préféré, aux gros outils référencés par le groupe, des outils plus simples et souples dont nous avions la parfaite maîtrise pour pouvoir faire des prototypes et garder de l’agilité ».
Pour Yao SOGADZI, Responsable BI à la FONDATION DE FRANCE organiser la possibilité d’un droit à l’erreur via des démarches de prototypage ou des environnements de tests est une bonne manière d’avancer rapidement et d’établir un consensus sur la situation de départ, sur les référentiels et les process. « A la Fondation de France, nous mettons les données à disposition des utilisateurs dans un environnement de BI agile Inside XL, ils échangent, évaluent, suggèrent des améliorations. Nous consolidons ensuite dans l’outil de Corporate BI ou nous libérons » : Rapidité et efficacité augmentées par la collaboration sur des cas concrets.

 

« Entre-t-on dans un monde où survivraient aux changements ceux qui partagent le (bon) sens ? »

Une collaboration guidée aussi par le sens, qui est largement revenue dans les échanges au sujet de la qualité des données aussi bien que sur la nécessité de remettre la réalité au centre des échanges, surtout dans des organisations dont la taille éloigne certains acteurs clés des opérations.
Pour Mounia EL ASRI DARIE en charge de l’Operational Performance Strategy chez AREVA, « Organiser le pilotage des activités autour d’outils simples est une vraie force pour les grandes organisations car cela permet de responsabiliser les acteurs à différents niveaux de l’organisation. Donner la possibilité à ces acteurs d’analyser de l’information validée et partagée c’est avant tout leur permettre d’identifier les défaillances dans les process opérationnels et traiter les dérives à la source. »
« Chez CHUGAI PHARMA FRANCE, nous avons donné la vue à tous à les Attachés Scientifiques sur le nombre de reporting de Compliance incomplets de chacun. Cela a permis d’améliorer la qualité de la saisie par les Attachés Scientifiques les moins rigoureux et par un effet de boucle vertueuse d’obtenir aujourd’hui une excellente qualité de nos indicateurs », a ainsi témoigné Sandro GARDONIO responsable du Contrôle de gestion et du projet compliance dans le laboratoire pharmaceutique.
« C’est la compréhension partagée du métier de l’entreprise et la finesse du référentiel, qui permet de passer facilement des indicateurs chiffre d’affaires et parts de marché attendus par le Fondateur hier, aux indicateurs sur la rentabilité attendue par l’actionnaire principal aujourd’hui. C’est aussi un référentiel de qualité et des outils simples qui permettent aux opérationnels d’avoir la vue sur l’utilisation des ressources qui les intéresse au jour le jour pour que l’entreprise soit « analytique» jusqu’au plus près des opérations», ainsi que l’a exprimé Eric AMORIN, Directeur Financier de MONAL GROUP.
« Nous prenons chaque jour un peu plus conscience que le pilotage de notre projet de changement d’ERP doit se faire par « le sens » conclut Didier MOREL, DSI de VIA LOCATION .