Menu

Stockage en mémoire

Le In Memory au cœur de l’analyse prédictive

Dossier | publié le : 01.05.2017 | Dernière Mise à jour : 24.08.2017

Auteur

  • <aut/>

L’intégration progressive de bases de données en mémoire aux ERP et solutions logicielles des entreprises facilite la vulgarisation des algorithmes de planification, d’analyse de la performance en temps réel et d’aide à la décision. Les applications logistiques du In Memory commencent à émerger, en lien avec la gestion prédictive des approvisionnements et l’analyse des performances, mais la technologie souffre encore d’un retour sur investissement opaque.

Qu’il s’agisse de prévoir les stocks et leur dimensionnement, de calculer le besoin sur les chaînes de production, d’anticiper les commandes du e-commerce en fonction des pics d’activité ou de tracer le parcours d’un colis, les bases de données sont au cœur des outils d’analyse prédictive et de planification des ressources. La capacité de traitement de ces informations, parfois des millions saisies simultanément, devient un enjeu crucial pour pérenniser les systèmes d’information des entreprises et les process qu’ils gèrent au quotidien. Depuis quelques années, parallèlement à la montée en puissance du cloud et de l’hébergement distant des programmes informatiques sur de puissants serveurs, de nouvelles technologies de stockage en mémoire vive permettent d’améliorer les performances des systèmes qui exploitent d’importantes bases de données. Deux enjeux s’avèrent décisifs pour optimiser le traitement de ces bases: augmenter la puissance de calcul des algorithmes et des machines pour accélérer l’analyse d’un nombre infini de données; améliorer la qualité de la donnée dont l’analyse guidera ensuite les prévisions et les plans opérationnels de l’entreprise.

Une innovation plus qu’une révolution

La technologie In Memory n’est pas nouvelle, mais tend à se développer fortement et rapidement depuis quelques années. Mises en application en 2012 par SAP qui revendique leur paternité, les bases de données en mémoire doivent répondre à trois enjeux pour les systèmes d’information des entreprises: gérer de gros volumes de données, avec toujours plus de rapidité de traitement et en temps réel. Le principe est simple et consiste à placer la donnée au cœur du processus d’analyse de la machine et non plus à côté. Concrètement, l’information, jusqu’ici stockée sur disque dur avant d’être captée par la mémoire vive des machines pour le traitement processeur, est désormais hébergée directement dans la RAM. On ne parle donc pas d’une révolution technologique, puisque le principe de fonctionnement des ordinateurs est resté le même depuis près de 70 ans, mais bien d’une évolution. Trois phénomènes l’expliquent: le développement de l’informatique 64 bits, les serveurs multicœurs et la baisse du prix de la mémoire vive. « Ces dernières années, les technologies de stockage sur disques ont été fortement améliorées et se sont étendues, notamment grâce au Big Data, de façon à pouvoir stocker les données à des prix très accessibles », explique Reda Gomery, responsable data analytics au sein du cabinet Deloitte. « Le coût d’un téraoctet de données était à peu près de 1 000 € il y a encore une quinzaine d’années. On parle aujourd’hui, pour ce même téraoctet, de quelques dizaines d’euros. » Dans le même temps, les prix des mémoires vives, à puissance comparable, diminuent régulièrement d’environ 23 % par an depuis vingt-cinq ans. Les systèmes d’information ont évidemment bénéficié de cette baisse des coûts qui s’est traduite non seulement par l’amélioration de la puissance et de la vitesse de calcul, mais aussi par l’augmentation considérable de la quantité de données à traiter dans les entreprises.

En outre, la baisse des coûts IT, associée à l’innovation informatique, engendre l’arrivée – si ce n’est la démocratisation – des solutions ASP ou full Web de nouvelles générations d’outils d’analyse directement sur serveur et d’objets connectés qui enrichissent en permanence les bases de données. Dès lors, on peut considérer bénéfique, voire essentielle, toute innovation capable d’accélérer le traitement de la data et de booster les performances d’analyse des ERP et solutions métiers des entreprises. Ainsi, la technologie de stockage en mémoire de l’information n’est pas exclusive aux bases de données, mais elle prend tout son sens en environnement industriel et logistique où les architectures informatiques génèrent des masses colossales de données à traiter.

Des gains pour le calcul des besoins et l’aide à la décision

Analytique, décisionnel, temps réel… les bases de données en mémoire, ou IMDB pour « In Memory Data Base », ont vocation à répandre ces fonctions dans l’entreprise en accélérant le temps de réponse des algorithmes informatiques. Lorsque les performances de la base de données sont la priorité, les traitements en mémoire permettent de réduire au maximum la latence et apportent aux logiciels et systèmes d’information une réactivité nouvelle. Les traitements In Memory peuvent ainsi améliorer le data mining et l’analyse de données, ainsi que d’autres traitements dynamiques des données. « Le In Memory apporte aux entreprises la notion d’instantanéité du calcul, même pour des volumes de plusieurs centaines de millions de lignes. Cela transforme la façon de gérer les flux logistiques en permettant de mesurer la performance du transport et du stockage en fonction de la variation en temps réel », observe Georges Bory, directeur produit et innovation d’ActiveViam. « Aujourd’hui, le pilote de flux, le responsable de parc, le responsable transport, le donneur d’ordres, peuvent agir sur la même base de données en mémoire, ce qui permet d’aller très vite, de mesurer les événements, de simuler les scénarios et telle ou telle prise de décision. »

Le In Memory offre une grande réactivité aux applications qui l’utilisent grâce au stockage sans indexation des données à la fois transactionnelles et décisionnelles. « Les DSI gagnent en temps et en efficacité dans le déploiement et l’utilisation du système d’information grâce à des bases de données simplifiées. Autrefois, l’architecture informatique reposait sur plusieurs serveurs dissociant les systèmes applicatifs des outils décisionnels. Avec l’IMDB, la centralisation des données et la suppression du traitement batch au profit de l’analyse à la volée, permettent d’accélérer fortement les calculs de besoins. Le In Memory permet aussi de rapatrier dans le cœur de l’ERP des applications satellites et d’accélérer encore le traitement des données », précise Christian Charvin, responsable avant-vente ERP et supply chain chez SAP. L’éditeur met en avant la notion d’expérience utilisateur améliorée par le In Memory qui permet de mettre en place dans les ERP et les logiciels métiers des cockpits visuels d’indicateurs de performance dynamique pour accompagner les prises de décision des collaborateurs. « Le In Memory offre en quelques clics des indicateurs analysés et personnalisés en fonction du niveau d’accès de chacun dans l’entreprise. Aujourd’hui, nous proposons ces indicateurs de performance en page d’entrée de nos systèmes pour signifier à l’utilisateur les tâches à effectuer en priorité. Des cockpits pour les acheteurs, la production, les logisticiens, avec la liste des ordres à lancer en fonction des dates, les listes de contrats arrivant à expiration, une bibliothèque d’indicateurs et de rapports pour l’orienter et l’aider dans la décision … », confirme Christian Charvin.

Data analyse, planification et simulation

Le In Memory permet en outre de centraliser le traitement des données internes à l’entreprise et celui des données provenant de l’extérieur (réseaux sociaux, Big Data, IoT) pour mieux les confronter et détecter de nouveaux indicateurs.

De nombreuses applications courantes utilisent déjà le In Memory sans que l’on s’en rende compte. Dans Excel par exemple, lorsque l’on ouvre une grosse table ou un fichier très lourd avec de nombreuses données, le logiciel stocke les données en mémoire vive le temps de les traiter… « C’est l’exemple poussé à l’extrême, car Excel n’est pas fait pour traiter des gros volumes, mais cela démontre que la mémoire vive est potentiellement utilisable partout. Aujourd’hui, on arrive à des applications industrielles pertinentes à grosse échelle et pour de gros volumes », explique Kevin Mazille, responsable business analytics chez SAS. Potentiellement, le In Memory offre un intérêt pour toutes les applications de traitement d’informations en temps réel. La technologie permet d’analyser rapidement d’énormes volumes de données sérielles conjointement aux données opérationnelles, par exemple pour le suivi des fluctuations de prix, des flux saisonniers, le rendement des machines, la consommation d’énergie ou le trafic. « Le premier cas d’usage logistique du In Memory concerne la résolution des problèmes d’approvisionnement qui peuvent être issus de facteurs exogènes ou internes liés à une défaillance fournisseur, financière, technique », remarque Reda Gomery, responsable data analytics au sein du cabinet Deloitte. « Le traitement simultané et l’analyse de l’ensemble des facteurs impactant les approvisionnements vont permettre de comprendre rapidement le problème puis de proposer des scénarios alternatifs. Le In Memory fait ensuite écho à tout ce qui concerne la planification en dopant les capacités des ERP à comparer en temps quasi réel les ventes et la fiabilité du forecast au plan d’opération en cours. » Un autre élément rend l’utilisation de bases de données en mémoire presque nécessaire: l’analyse prédictive des risques de défaillance fournisseur et la recherche de solutions anticipatives. « Par exemple, il est possible de traiter intelligemment un ensemble de données diverses pour simuler l’impact sur les chaînes de production d’une défaillance brutale d’un fournisseur. Imaginons la situation d’un sous-traitant distribuant 80 % des composants, mais dont l’usine asiatique est arrêtée suite à un tremblement de terre… La capacité des entreprises à anticiper ce type de scénario devient une nécessité que le In Memory rend nettement plus accessible. Elles se rendent compte qu’il faut intégrer la dimension analytique à la refonte de leur système d’information pour pourvoir anticiper, car le seul suivi des opérations ne suffit plus. »

Une offre déjà opérationnelle

Sur le marché des logiciels, de nouvelles générations arrivent, développées autour des bases de données en mémoire. Après le lancement de l’ERP Hana développé sur base de données en colonnes In Memory Acid, puis Hana II fin 2016, SAP travaille désormais à la migration de son offre logicielle sur la nouvelle base de données. « Nous avons réécrit notre ERP et nos applications pour la logistique et le transport de façon à ce qu’elles tirent de nouveaux bénéfices du In Memory, de l’instantanéité des informations traitées par gros volumes et de cette opportunité de casser les frontières entre décisionnel et transactionnel », explique Christian Charvin. SAP en profite pour intégrer de nouvelles fonctionnalités, par exemple de planification à capacité finie directement dans l’ERP. « Cela signifie que l’utilisateur a aujourd’hui l’opportunité de réaliser ses opérations de calcul des besoins dans un processus de planification à capacité finie qui va permettre d’ordonnancer les ordres correctement, en fonction de ses contraintes à la fois industrielles et logistiques en termes de réception des composants. Le In Memory permet également d’intégrer le prédictif au cœur de l’ERP, par exemple de façon à proposer des scénarios suite à une pénurie de composant, anticiper des pics d’activité sur la base des expériences passées et y intégrer de nouvelles données dont on n’a pas forcément analysé l’impact (la météo, le contexte social local, le bassin d’emploi, etc.). »

Pour regagner des parts de marché face à SAP, Oracle et Microsoft ont également lancé chacun leur solution, Oracle Exalytics & Reg et Microsoft In Memory SQL Server 2016. Oracle combine plusieurs technologies de stockage en lignes et en colonnes de façon à rendre le traitement analytique jusqu’à plusieurs centaines de fois plus rapide (de jours en secondes) selon les applications et les traitements. De son côté, Microsoft estime que l’exploitation des données en mémoire multiplie par trente la vitesse de traitement des tables optimisées de la base In Memory de SQL Server 2016 par rapport à la version 2014. Dans la foulée, les éditeurs et intégrateurs spécialisés développent de nouvelles versions de leurs applications métiers dopées par le In Memory. ActiveViam propose la plate-forme Active Pivot développée pour générer des indicateurs métiers par l’analyse en continu d’importants volumes de données. La solution capte les données issues des ERP, WMS ou TMS, les agrège, puis effectue les calculs d’analyse. « Il est possible de calculer la performance de la chaîne logistique sur des maillons précis, par exemple entre une usine et un distributeur, ou pour un prestataire de transport donné, un marché ou un client précis », commente Georges Bory. Après analyse, le module Active Monitor assure le monitoring des indicateurs aux différents utilisateurs pour la mise en place de règles et d’alertes automatiques. Chez SAS, la solution Visual Analytics n’utilise pas de base de données, mais bénéficie du In Memory pour le stockage et le traitement à plat des informations. « En dix ans, on a divisé par dix les temps de réponse de l’outil, grâce à l’amélioration des algorithmes qui utilisent les traitements In Memory des informations », confie Kevin Mazille, responsable business analytics chez SAS. L’intégrateur TXT a dévoilé en janvier TXT Retail 8, qui offre des nouvelles capacités de planification In Memory et de planification visuelle. Le stockage et le calcul en mémoire optimisent les processus de planification des assortiments via l’attribution ergonomique des produits et le suivi du cycle de vie en temps réel. « La planification In Memory permet à TXT Retail 8 de combler l’écart entre planification et exécution, les plans et les décisions prises dans TXT Retail deviennent immédiatement opérationnels dans les systèmes transactionnels. La solution répond aux besoins des distributeurs en termes de rapidité, cohérence et réactivité dans tous les processus clés de merchandising, planification, design et achat » explique Simone Pozzi, CEO chez TXT Retail.

Des usages concrets en entreprise

Des applications sont déjà déployées dans des domaines variés. Pour garantir la traçabilité du lait en poudre à destination de la Chine, une filiale du groupe Danone utilise les solutions SAP Hana et les bases de données en mémoire pour déployer une plate-forme de suivi des produits à toutes les étapes de son cycle de vie. Elle collecte l’ensemble des données issues de millions de boîtes de lait, lesquelles contiennent un code-barres permettant aux clients de tracer leur origine sur une application mobile. De nombreux projets de déploiement d’objets connectés tirent profit des bases de données en mémoire pour automatiser le traitement des données. « La société allemande Kaeser Compressors, qui commercialise des systèmes d’injection d’air comprimé aux industries, a totalement repensé son modèle économique grâce à l’IoT, témoigne Christian Charvin. Elle a mis en place une nouvelle politique en proposant la vente d’air au mètre cube, à la demande et de gérer le parc de machines en place pour le compte des clients. La base de données en mémoire permet à l’ERP de traiter automatiquement les données remontées en permanence par les capteurs placés sur les machines, d’anticiper les plans d’entretien ou de réagir à une panne en temps réel, de générer la facturation, etc. »

Dans l’industrie automobile les notions de maintenance prédictive, télédiagnostic et même de conduite autonome dépendent de la rapidité de traitement et d’analyse de milliers d’informations à la seconde. Le traitement direct en mémoire de ces informations permet d’obtenir des temps de réponse proches du temps réel, une nécessité lorsque l’on parlera de véhicule totalement autonome. « Nous travaillons avec un constructeur automobile qui cherche à optimiser la distribution et la disponibilité des composants pour son activité pièces de rechange, complète Christian Charvin. Il s’agit d’associer au traitement des données internes du réseau de distribution les données externes de l’ensemble des partenaires, concessions ou garages indépendants. Grâce à la suite applicative en mémoire de SAP, le service de gestion des pièces détachées peut cumuler toutes les informations issues de son écosystème de partenaires et les traiter en quelques secondes de façon à déterminer, par exemple, s’il est préférable de rapatrier en urgence une pièce depuis l’entrepôt central ou de se la procurer chez le garagiste de proximité. » Chez Gefco, le logiciel Active Pivot d’ActiveViam est utilisé pour analyser un ensemble de facteurs impactant la chaîne logistique et qui pourraient engendrer le non-respect des délais de livraison, alors même qu’il s’agit d’un engagement contractuel du groupe: aléas dans le transport, météo, évolution de la demande client… Le logiciel calcule en permanence et en temps réel des indicateurs de performance et permet aux pilotes de flux de mettre en place des règles automatisées de type « 97 % des voitures n’arriveront pas avec trois jours de retard maximum par rapport au délai contractuel » et des alertes à tous les maillons de la chaîne si elles ne sont pas respectées. « Nous permettons aux opérateurs de la gestion des flux de suivre les délais et les indicateurs de performance sur toutes les plates-formes européennes et de prendre les décisions sur les délais de livraison en fonction de la marge et des coûts », explique Georges Bory.

Toujours dans l’automobile (ou presque), Harley Davidson a déployé la solution Visual Analytics de SAS aux États-Unis pour repenser son modèle de production et proposer la moto à la demande aux clients. Le constructeur leur propose une plate-forme Web de personnalisation de leur véhicule, connectée à la production en temps réel et avec possibilité de modifier de nombreux paramètres jusqu’au dernier moment. L’enjeu consiste à réintégrer les accessoires à la phase de production, alors que l’activité était captée par les vendeurs et magasins spécialisés. Le logiciel tire profit du In Memory pour collecter les données fournies par les clients et les données d’avancement de production, les mixer et déclencher les alertes ou les commandes nécessaires. Les clients, eux, peuvent visualiser sur le Web l’avancée de la fabrication de leur véhicule.

On citera encore la Scadif, centrale d’achats de E.Leclerc en Île-de-France, qui utilise Visual Analytics pour mesurer les consommations en temps réel dans les magasins du groupe et adapter les stratégies commerciales locales, ainsi que les plans de tournée en fonction de l’évolution quotidienne des besoins. La Scadif utilise les données pour benchmarker les magasins entre eux ou mesurer les taux de chargement des camions et l’efficacité des manutentionnaires à quai.

Pas d’amalgame avec le « cloud »

Attention à ne pas confondre In Memory et cloud. D’un côté, les entreprises tendent à migrer leur système d’information sur le Web pour réduire leur coût IT grâce à une utilisation à la demande. De l’autre, l’informatique matérielle évolue pour doper les performances des algorithmes logiciels. Bien que directement liées, les deux technologies sont indépendantes et les bases de données en mémoire ne sont pas réservées aux datacenter. On peut donc tout à fait déployer une IMDB et les applications logicielles « in premise », c’est-à-dire sur le réseau interne de l’entreprise, pour bénéficier d’une puissance de calcul accrue. Nul besoin d’une architecture informatique totalement déportée sur Internet. Mais l’avantage de l’externalisation sur le Web de l’infrastructure IT consiste à bénéficier de la puissance des datacenter qui renouvèlent leur matériel en moyenne tous les trois ans. Car si les avantages des bases de données en mémoire sont désormais prouvés, le principal frein à leur déploiement reste la refonte de l’architecture informatique et la difficulté à analyser son retour sur investissement.

Encore des freins à lever

Presque miraculeuse aux dires des éditeurs, la technologie In Memory aurait dû se répandre à foison dans l’industrie logistique où le besoin d’analyse temps réelle, ou prédictive, constitue un enjeu majeur de rentabilité. Elle tarde pourtant à s’implanter, car elle implique une rupture avec les solutions en place et la nécessité de refondre en partie les architectures informatiques. Oracle et Microsoft se distinguent de SAP sur ce point en précisant avoir fortement travaillé à la compatibilité de leur nouvelle base de données en mémoire avec les versions précédentes. En outre, le besoin de stockage traditionnel sur disque reste fort pour les entreprises qui veulent maîtriser leurs données et pouvoir y accéder à tout moment.

Or, la volatilité de la mémoire vive oblige à disposer en parallèle de solutions de sauvegarde sur disque et donc à mixer différentes solutions. Autant de points qui méritent réflexion et freinent encore les entreprises indécises face au manque de visibilité sur le retour sur investissement. D’autant plus que le marché des composants informatiques s’avère incertain face à de possibles pénuries de matière première et à la folle consommation des fabricants de terminaux mobiles, qui se traduit par une augmentation des prix de la RAM de 20 $ en moyenne depuis le début de l’année. « Le In Memory est une fonction nécessaire pour accélérer le traitement des données afin de répondre au besoin des entreprises de mettre en place des cycles de décisions courts face à une plus grande densité des traitements de données », déclare Magalie Testard responsable conseil achats & supply chain de Deloitte. « Cette complexité d’algorithmes sous-tendue par le Big Data va faire appel à des capacités en mémoire qui sont largement au-dessus de celles dont disposent aujourd’hui les entreprises. Elles doivent s’équiper en solution In Memory pour accentuer leur capacité de traitement, explique-t-elle. Mais ce n’est pas suffisant. Il faut aussi arriver à faire parler tous les systèmes et toutes les applications entre elles, faire évoluer le parc technologique parfois obsolète et mettre en place une nouvelle stratégie par rapport au cloud. Il s’agit donc d’une transformation des entreprises qui doivent progressivement accompagner la conduite du changement et l’acceptation humaine de ces nouvelles technologies. Cela prendra encore du temps. »

Faurecia planifie les approvisionnements avec SAP Hana

Faurecia cherche en permanence à rationaliser ses stocks tout en garantissant les délais de livraison des pièces chez ses clients de l’industrie automobile. L’équipementier fournit, en flux tendu et à la demande, des centaines de pièces détachées différentes dont certaines doivent être livrées 4 heures seulement après la commande ferme. En 2013, il a équipé ses usines françaises avec la plateforme In Memory SAP Hana pour la gestion de la production et des approvisionnements de ses usines, ainsi que pour l’analyse et le pilotage de ses opérations financières. La rapidité de calcul de la solution permet à l’équipementier de replanifier les approvisionnements à la demande et plusieurs fois par jour si nécessaire. « Avec Hana, nous pouvons faire des re-planifications en quelques minutes alors que cela nous prenait 21 heures auparavant, explique Bertrand Eteneau, le DSI du groupe. Nous travaillons désormais avec des données plus fraîches. » Parallèlement, la plate-forme a permis d’accélérer le calcul de la performance que Faurecia suit de près pour adapter la gestion de la production. Avec une masse énorme de données de business intelligence à traiter, réparties sur plusieurs datawarehouse, l’utilisation de la technologie In Memory a permis de diviser les temps de traitement par 3 600 et ainsi de réduire de plusieurs jours le calcul des performances. Grâce à l’analyse en temps réel de ces indicateurs, les contrôleurs de gestion de Faurecia peuvent désormais passer plus de temps sur le « data crunching » (exploitation et analyse de grands volumes de données). « Pour Faurecia, trois domaines sont fondamentaux pour bien gérer un projet: la technologie, le « charge management » et le « business process reengineering ». La plate-forme SAP Hana nous a permis d’avoir une meilleure approche de chacun de ces domaines et d’améliorer la valeur que nous apportons au métier. »

In Memory: une porte d’entrée pour les hackers

Tout système informatique est aujourd’hui soumis au risque de piratage et l’exploitation frauduleuse de la donnée est devenue le jeu favori des hackers, quand ce n’est pas le détournement d’objets connectés. Selon le spécialiste de la sécurité informatique Kapersky, la technologie In Memory leur permettrait d’échapper aux efforts de détection des sociétés de cyber-sécurité chargées d’analyser les attaques sur les réseaux ou les systèmes. Sans installer de malware sur les logiciels ni laisser de trace sur les disques durs, les pirates parviennent à dissimuler des codes malveillants directement en mémoire, ce qui rend ce type d’attaque particulièrement difficile à détecter. En face, les éditeurs spécialisés adaptent leurs logiciels à ces technologies et dopent leurs antivirus grâce au In Memory pour analyser plus rapidement les données en masse. Kapersky rappelle également qu’avant de contrôler les bases de données, c’est l’architecture réseau des entreprises qui doit en priorité être sécurisée et s’adapter aux nouveaux systèmes d’information et infrastructures IT des entreprises.

Retour au sommaire

Les plus lus

Abonnez-vous

Pour rester au coeur de votre métier, profitez dès maintenant de l'accès numérique au site www.actu-transport-logistique.fr en vous abonnant à L'Officiel des Transporteurs ou à Logistiques Magazine.

Div qui contient le message d'alerte

Envoyer l'article par mail

Mauvais format Mauvais format

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format

Div qui contient le message d'alerte

Contacter la rédaction

Mauvais format Texte obligatoire

Nombre de caractères restant à saisir :

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format