Data-Major

La réussite des projets se trouve souvent dans la complétude du dispositif réunissant expertise et management

Expertise et Solutions

En quelques années, la donnée est devenue un asset majeur pour toutes les entreprises. Il est fondamental de considérer la data dans sa globalité, du volet amont qui permet de l’identifier, la déplacer, la structurer, jusqu’à la consommation et valorisation de la donnée afin d’en exploiter toute sa richesse. Chez Data-Major, nos équipes mettent leur expertise aux services de nos clients afin de les accompagner sur chaque étape du cycle de vie de la donnée.

Data Management

Data Hub, Data Structuration, Data Catalogue, Master Data Management, … autant de termes qui composent la grande famille du Data Management. Même si la portée de chacune de ses briques n’est pas totalement identique, elles sont complémentaires et convergent toutes vers des objectifs communs : amélioration de la qualité, de l’accessibilité, de la compréhension, de la gestion et in fine du partage de la donnée.
A la fois expert en solution mais également en organisation et process, nos experts en Data Management accompagnent nos clients dans l’atteinte de ces objectifs.

#Blueway #Boomi #Colibra #DataGalaxy #Informatica #Microsoft #Semarchy #Talend #Tibco

Data Exchange – Intégration de données

Lorsque nous pensons à la data, nous pensons naturellement à la partie visualisation et manipulation de la donnée. Cependant, cette partie n’est que la partie visible de l’iceberg. Il faut également penser à la partie amont, à savoir le volet flux, échanges de données entre applicatifs s’appuyant sur des solutions ESB, ELT, ETL sans oublier l’importance de la connaissance des API. Chez Data-Major, nous sommes convaincus que c’est la problématique centrale pour nos clients. Au centre du système d’information et au-delà du seul périmètre data, les problématiques d’échange et de circulation de la donnée rejoignent des questions plus globales d’urbanisation du système d’information.
Nos experts accompagnent nos clients de bout en bout : depuis la définition de l’architecture de leur plateforme d’intégration jusqu’au développement des flux.

#WSO2 #Tibco #Talend #Stambia #SAP #Pentaho #Oracle #Microsoft #Matillon #Informatica #IBM #Boomi #Blueway

Data Science – Machine Learning

Parmi le flot de données disponibles, il est essentiel d’être en capacité d’Identifier les données utiles et valorisables.
Analyser les données, trouver des relations entre elles, classifier, segmenter, catégoriser les profils ou les comportements, identifier les variables discriminantes prépondérantes sont autant d’actions menées pour permettre à nos clients de se concentrer sur ce qui est important.
Data-Major accompagne également ses clients dans la mise au point de modèles prédictifs, machine learning ou d’IA.

#Scikit learn #Tensorflow #MLflow #Numpy #Pandas #Keras #Python #Octave #Jupyter #ElasticSearch #Spark #Matplotlib #Seaborn #Prophet
Data Intelligence – Dataviz – Analytics


Depuis plusieurs dizaines d’années,
la data s’est imposée comme l’asset majeur dans le pilotage des entreprises. Si l’importance de la donnée est partagée de tous, sa manière de l’exploiter est en constante évolution. A la business intelligence traditionnelle s’est ajoutée de nouveaux usages plus orientée utilisateurs, laissant une part plus importante à la visualisation de cette donnée. Ces évolutions ne rendent pas la BI obsolète mais viennent compléter la palette d’outils dont disposent les entreprises pour définir leur stratégie.

Nos consultants vous accompagnent sur l’ensemble des facettes de la Data Intelligence :

  • Data Prep
  • BI traditionnelle
  • Self service
  • Data Visualisation
  • Data analytics
  • Expérience utilisateur
  • Big data
#Microsoft #Talend #Qlik #Tableau #SAP #IBM #Microstratégy #Oracle #Tibco #Toucan Toco #Board #Grafana #Snowflake
Architecte Data – Cloud

 
Nos architectes Data conçoivent et aident à mettre en œuvre les systèmes data autour des bases de données, référentiels et applicatifs pour faire correspondre l’infrastructure des données aux enjeux des métiers et stratégiques.

Ils ont le souci de concevoir un système ergonomique laissant la marge aux évolutions futures. Ils interviennent autant sur la partie infrastructure (On Premise ou cloud) que dans l’implémentation de normes / standards ainsi que dans les process de développements, d’industrialisation, maintenance.
Ils accompagnent les projets dans la définition des besoins et sur la description et l’usage des données.

L’architecte Data est un créatif, résolveur de problèmes pour innover et concevoir de nouvelles solutions pour stocker et gérer les données le plus efficacement possible tout en maitrisant les coûts.

#AWS #Google Cloud Platform #Microsoft Azure #OVH #Oracle Cloud Infrastructure #Teradata

DataOps  – DevOps

Changement culturel s’appuyant sur le partage, la collaboration et l’automatisation, le devops a également fait bouger les lignes des projets data pour lesquels il est également nécessaire délivrer rapidement, régulièrement et avec fiabilité tout en permettant aux équipes de concentrer leur énergie sur la valeur métier des projets.

AWS #Git #Ansible #Azure Devops #Subversion #GitHub #GitLab #BitBucket #Kubernetes #Docker #GCP #Prometheus #Grafana #ELK

Quelques études de cas

Le mot de l’expert 

« Quel vaste domaine qu’est celui des flux de données ! C’est ce que j’ai pu constater lors de mes dix dernières années dans ce domaine au travers des multiples technologies que j’ai eu l’occasion de rencontrer. Ayant démarré dans la BI, je me suis vite focalisé sur mon outil ETL de l’époque : Talend. Cela m’a permis de participer à différents types de projets transverses liés à la Data et ainsi acquérir de l’expérience technique mais aussi fonctionnelle.
Ces projets m’ont permis de percevoir toutes les possibilités qu’offrent les flux de données : Que ce soit la sécurisation de ces données, leur qualité, leur transformation, tous ces axes forment les piliers de la valorisation des données et sont des axes devenus fondamentaux au sein des entreprises.
Depuis quelques années l’arrivée de l’ESB a entraîné une complexité supplémentaire de part la variété croissante des sources de données, ce qui a pour conséquence de rendre le Data Flow encore plus vital.
Vous l’aurez compris, ce domaine est très vaste et ne peut être résumé en quelques lignes, c’est justement cette expérience accumulée et cette vision globale que j’ai pour mission de transmettre à nos équipes afin de consolider nos connaissances et les faire perdurer au sein de Data-Major. »

Romain Tomasoni
Consultant Data Senior

Le mot de l’expert 

« Outre la modélisation en faits et en dimensions, un nouveau type de modélisation apparait : la modélisation Datavault. Cette modélisation s’articule autour de 3 structures simples : les Hubs qui regroupent les clés, les Satellites associés aux hubs qui donnent les informations (ou attributs des clés) et les Links qui permettent de relier les hubs entre eux. De plus les clés ne sont plus une transformation en nombre des clés business mais un hashage de la clé business avec le système source.

Les 2 points importants sont que d’une part on fait abstraction de la structure des systèmes sources pour capitaliser sur les objets métiers qui composent les process de la société (cela demande une phase préparatoire avec les key users pour définir ces objets métiers et les clés associées) et d’autre part elle permet de mettre en place un chargement en parallèle des différents éléments car il n’est plus utile d’attendre qu’une dimension soit chargée pour charger un fait : tout peut être réalisé en même temps.

Je suis convaincu de l’intérêt de ce type de modélisation car il est beaucoup plus orienté utilisateur (notre client final) que technique, l’encapsulation du système source dans la clé et la vision objet métier permet de consolider plusieurs sources de données et surtout il est très évolutif et agile dans sa structure : ajout de satellites aux hubs pour augmenter le nombre d’informations, relier par un link 2 hubs pour intégrer une nouvelle transaction, possibilité d’avoir plusieurs équipes qui travaillent sur des éléments différents sans risque de télescopage technique … »

Fabien Beaumont
Architecte Data

Le mot de l’expert 

« Après l’obtention d’une thèse en entreprise, j’ai souhaité faire évoluer mes connaissances en adoptant le profil de data scientist.
La diversité des problématiques (analyse prédictive, analyses des données, étude des corrélations, …) dans le milieu industriel me permet de continuer à appliquer une méthode de travail de recherche (veille scientifique, exploration des données et des modèles, interprétation des résultats) tout en montant en compétence sur des outils de mise en production des résultats (ETL, Datalake/Datalab, plateforme de bout-en-bout).
Mon appétence pour l’application de ces outils/méthodes me mène à travailler avec différents profils : data analyst, ingénieurs, architectes, avec également les experts de ces données. La compréhension du métier est une variable indispensable pour l’élaboration d’analyses statistiques et de modèles d’apprentissage.
C’est pourquoi je suis toujours très enthousiasmé pour analyser de nouvelles données et évaluer leurs potentiels avec les experts. »

Lucas Foulon
Consultant Data Science PhD

Le mot de l’expert 

« Les référentiels de données sont aujourd’hui un enjeu majeur pour les entreprises dans leur recherche de performance, de simplification et d’optimisation de leurs process. Considérés comme pierres angulaires au sein des SI, ils se posent en véritable Data Hub au service des processus métier de l’entreprise en leur mettant à disposition une information contrôlée et de très grande qualité. 

Données par nature très transverses à l’ensemble des applications des SI, 80% de ces référentiels sont orientés sur les notions de tiers au sens large (client / fournisseur / collaborateurs) et de produits, articles, ou matériels. Le restant comprenant la gestion de toutes sortes de nomenclatures et autres éléments de transcodification. 

La multiplicité des solutions technologiques sur le marché depuis les années 2010, très ouvertes et souples, faciles d’accès et permettant la mise en place d’une première couche de gouvernance a accrue encore la prise en compte et l’intégration de ces référentiels de données. 

Depuis quelques années, dans une optique Data Hub de mise à disposition rapide et efficace de l’information, nombre de ces solutions technologiques ont été intégrées au sein de « plateforme Data ». Permettant ainsi d’associer à ces moteurs de gestion des données de références toute une couche d’intégration et de diffusion de ces données en s’appuyant sur des principes de type ESB, API et BPM pour certains. Très intéressant pour nous intégrateur car offrant une gamme de solutions très large à proposer à nos clients selon leurs besoins, leurs maturités, leurs budgets et la complexité de leurs SI. »

Renaud Laluc
Senior Data Manager

Le mot de l’expert 

« Les différentes missions et projets dans lesquels j’ai pu m’investir me permettent de qualifier un chef de projet (CDP) comme une personne engagée, lucide, rigoureuse et qui sait fédérer ! C’est un acteur qui doit disposer de bonnes capacités de communication, d’animation, d’organisation et de prise de décision. Il doit avoir confiance en soi et en son équipe, mais doit incontestablement faire preuve de délégation et d’empathie. Dernier point qui à mes yeux est quasi indispensable : c’est la nécessité de disposer d’un background technique.

D’après mes premières années d’expérience en tant que consultant développeur la technique est assurément le meilleur moyen d’être sur le terrain et au cœur des sujets. En effet, c’est à cette étape de mise en place que l’on se trouve face aux différentes problématiques et points de blocage que l’on rencontre lors de projets IT et que l’on peut « rentrer au cœur du système ». Comme un pilote dans un avion qui connaît sur le bout des doigts tous les éléments manipulés sur ton tableau de bord, le fait de disposer d’un socle technique dans la gestion de projets est réellement un atout.

C’est également pendant cette période que l’on commence à affûter ses armes. En effet, j’ai pu me rendre compte à différentes reprises que cette expérience technique permet également de développer des capacités d’organisation, d’anticipation, de compréhension et d’adaptation aux travers de la multiplicité des outils mais aussi d’échanges avec les différents métiers et personnes associées.

Ce qui m’a poussé à m’orienter vers la chefferie de projet c’est d’aller encore plus loin sur les éléments cités précédemment et prendre de la hauteur avec un volet planification et une approche de la gestion des Hommes. Une expérience de CDP est avant tout une expérience humaine qui a sa part de difficultés liée à la gestion même de la richesse de cet élément.

Le fait de bénéficier d’un passé technique m’a tout bonnement permis d’affiner mes chiffrages, clé de voute dans la gestion de projets, en étant plus réaliste et plus juste.

Pour conclure, la technique pour un CDP peut être assimilée à une carte qui lui permet de naviguer et de s’orienter au fil des projets, et qu’il se doit de maintenir à niveau, vue la vitesse à laquelle cette même technique évolue au gré des années. »

Le mot de l’expert 

« Lorem Elsass ipsum dignissim Gal ! mollis amet eget Verdammi ornare rhoncus quam, amet, adipiscing hopla DNA, Yo dû. rucksack commodo semper knepfle Pellentesque hopla munster auctor, Hans leo Salu bissame salu schnaps merci vielmols sagittis picon bière geht’s so Chulia Roberstau non leo id, hopla suspendisse sed libero. wie condimentum elit Carola wurscht ac Gal. kuglopf barapli non ac libero, senectus s’guelt Oberschaeffolsheim sed habitant réchime purus eleifend lacus ch’ai kartoffelsalad baeckeoffe und dui ornare hoplageiss tristique nullam Salut bisamme consectetur turpis, Spätzle rossbolla amet Mauris météor pellentesque ftomi! sit lotto-owe schneck Chulien Richard Schirmeck yeuh. nüdle Pfourtz ! ante Christkindelsmärik Heineken dolor varius Racing. »

Prénom Nom
Data scientist Data Major