Big Data et Intelligence Artificielle les 26 et 27 septembre 2022 au Palais des Congrès de Paris

Big Data et Intelligence Artificielle les 26 et 27 septembre 2022 au Palais des Congrès de Paris

Big Data and AI Paris présente les dernières innovations et les nouveaux services du marché avec 250 exposants et plus de 350 interventions au Palais des Congrès de Paris.

Inscription : ici

Programme:

Discours d’ouverture

09:00 – 09:30

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Gilles BABINETDigital champion pour la France à la Commission Européenne, Co-présidentCNNUM

Hybridation de nos data plateformes : capitalisons sur nos assets & compétences internes

09:30 – 10:05

Salle de conférence 2

Expert Big Data

Comment construire nos data plateformes de demain ? Quelle architecture pour valoriser nos données ? Quid du cloud ? Mort du on premise Hadoop ? Devons-nous cacher notre éléphant ?

Je vous propose via la découverte de la plateforme GFS de vous présenter les data plateformes hybrides : le moteur Big Data du groupe BPCE, des centaines de serveurs, quasi 3 pétaoctets de données en production, des centaines de personnes servant plus de 120 cas d’usages métier.

On passe en revue les différentes technologies, de OpenShift pour simplifier l’orchestration des conteneurs, Indexima pour la BI, un catalogue de données Zeenea, aux outils de recherche basés sur le moteur d’indexation Apache Solr, …

Florian CARINGILeader Big Data & Open SourceGROUPE BPCE

#Plateforme#Cloud#Data Catalog#Hadoop

Où en sont les entreprises de leur transformation digitale ?

09:30 – 10:20 – Table ronde

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

– Comment le Big Data et l’IA permettent à l’entreprise d’atteindre ses objectifs ? Quel rôle et place pour la data dans l’organisation ?
– Quels sont les use-cases déployés ? Avec quels résultats concrets ?
– Next steps de la transformation vers un modèle data-driven

Bruno AIDANGroup Chief Data Officer & Head of La Digital FactoryAIR LIQUIDE

Christina POIRSONGroup Chief Data OfficerSOCIETE GENERALE

Sébastien HIDOCQGroup Chief Data OfficerDECATHLON TECHNOLOGY

Pejman GOHARIChief Data & Analytics OfficerBPI FRANCE

#Transformation digitale#Retour d’expérience#Entreprise data driven

Plateformes de données & conformité

10:05 – 10:40

Salle de conférence 2

Expert Big Data

L’approche sur la protection de la donnée a largement évolué ces dernières années, à la fois pour suivre les mutations technologiques et pour accompagner les grands enjeux sur la donnée.
Quelles en sont les conséquences pour un fournisseur de cloud comme Google Cloud et ses clients ?
Quelles sont les solutions pour s’adapter à ce nouveau contexte et comment promouvoir la sécurité des plateformes de données ?

Johan PICARDData & Analytics Practice LeadGOOGLE CLOUD

Thiébaut MEYERDirecteur – Office of the CISOGOOGLE CLOUD

#Sécurité#Protection des données#Cloud

Du plus haut niveau de commandement militaire à l’industrie 4.0, récit d’une transformation par la data

10:20 – 10:40

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Denis MERCIERAncien chef d’état-major de l’armée de l’Air et ancien Commandant suprême allié pour la Transformation de l’OTAN, Directeur Général AdjointFIVES GROUP

#Transformation digitale#Entreprise data driven

Amadeus : les dessous du déploiement d’un Data Mesh sécurisé dans le cloud

10:55 – 11:30

Salle de conférence 2

Expert Big Data

Avec sa transformation vers le Public Cloud, Amadeus renforce l’importance de la Data au cœur de son écosystème en mettant en œuvre un Data Mesh couvrant toutes les activités de l’industrie du voyage.

Stockage, Analytics et Machine Learning, découvrez comment Amadeus tire parti des technologies du Cloud pour refonder une plateforme Data à l’échelle globale et connectée à ses partenaires.
Vous verrez comment les équipes d’Amadeus ont construit les briques additionnelles aux services d’Azure afin d’offrir aux Data engineers une plateforme unique leur permettant d’exploiter les data efficacement en toute autonomie.

Yan MORVANCloud Data Platform principal engineerAMADEUS

Damien CLAVEAUData Platforms Operations lead engineerAMADEUS

#Cloud#Analytics#Stockage#Machine Learning (ML)#Data mesh

IA Act, DMA, DSA, DGA… comment préparer l’application des nouvelles réglementations européennes ?

11:10 – 12:00 – Table ronde

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

– Comment articuler la RGPD et les nouvelles initiatives règlementaires à venir ?
– Quels sont les impacts pour les entreprises et comment elles intègrent ces règlementations ?

Florence RAYNALDirectrice adjointe, Chef du Service des Affaires Européennes et InternationalesCNIL

Cody OLSONGroup Data Protection OfficerGROUPE ROCHER

Emmanuel PERNOT-LEPLAYSenior Consultant Data Protection & PrivacyDELOITTE

#Réglementation#RGPD#Protection des données

Chiffrement homomorphique et Big Data : comment améliorer la gestion de la vie privée pour l’analytique

11:30 – 12:05 – Présentation

Salle de conférence 2

Expert Big Data

Le durcissement des régulations autour de la protection des données personnelles et les obligations de type « cross-border data transfer » changent la donne. Les grands projets de consolidation de données ayant vocation à implémenter des cas d’usage métier avancés, se trouvent freinés et contraints d’opérer à des niveaux régionaux plutôt qu’internationaux.

Pour mettre en place des cas d’usage dans un cadre conforme aux règlementations, venez découvrir les approches de protection telles que FHE (Fully Homomorphic Encryption) pour le transfert et la consommation de données sensibles, tout en gardant la souveraineté digitale de ces données propre au pays où elles ont été collectées.

Joseph SALAMEHCompetency Leader – Data & App. SecurityIBM SECURITY SERVICES FRANCE

#Sécurité#Réglementation#Protection des données#Souveraineté des données

Comment parvenir à un modèle d’entreprise data-driven ?

12:00 – 12:20 – Keynote

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Claire LEBARZHead of Guest Data ScienceAIRBNB

#Entreprise data driven

Hadoop, l’éléphant vit encore !

12:05 – 12:40

Salle de conférence 2

Expert Big Data

Suite à un chantier colossal, EDF et la DGFIP (Direction Générale des Finances Publiques) publient Trunk Data Platform (TDP). Trunk Data Platform est une distribution Hadoop, Open Source, totalement libre de droits.
TDP est la solution pérenne pour ceux qui souhaitent continuer d’utiliser Hadoop et ne sont pas en mesure de faire des montées de versions tous les deux ans.
De nombreux grands comptes ne peuvent suivre ce rythme, ne sont pas intéressés par les caractéristiques cloud mises en avant par les nouvelles solutions et souhaitent simplement continuer de faire fonctionner leur existant sur Hadoop.
TDP a été développé pour répondre à ces besoins : la gouvernance sur le futur de la distribution est partagée, elle est accessible gratuitement et est 100% open-source.

Edouard ROUSSEAUXTech Lead Big DataEDF

Mehdi BEN AISSAArchitecte Data & CloudDGFIP

#Open Source#Hadoop

Comment faire confiance à votre analytique dans un environnement data toujours plus complexe.

12:20 – 12:40

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Avec la pandémie, la digitalisation s’est accélérée. Poussées par de nouveaux besoins, les entreprises n’ont jamais collecté autant de données, ce qui entraîne forcément une complexité croissante. Cependant, cette complexité des données dépasse les compétences analytiques de la plupart des utilisateurs. Des architectures de données modernes voient le jour telles que le data mesh, la data fabric ou les data lakehouses mais elles ne permettent pas à elles seules de résoudre le problème.

Dans cette session, nous aborderons les approches analytiques qui vous aident à naviguer dans la complexité des données tout en maintenant la confiance, la flexibilité et l’agilité.

Roxane EDJLALIEx-Senior Research Director chez Gartner, Senior Director Solution ManagementMICROSTRATEGY

#Analyse de données#Business Intelligence#Data Governance#Data intelligence#DataViz

Déjeuner

12:40 – 14:00

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Inflation, omnicanalité : comment Pricemoov rend le pricing accessible et collaboratif grâce au Data Cloud

14:00 – 14:25

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Rémi CASANOVAVP PricingPRICEMOOV

#Cloud#Pricing

Vers une Intelligence Artificielle de nouvelle génération

14:00 – 14:45

Salle de conférence 3

Expert AI

Jean-Baptiste FANTUNCEONUKKAI

Véronique VENTOSHead of ScienceNUKKAI

#IA de confiance#Économies d’énergie

L’IA au service des réseaux d’eau : détection d’anomalies et de fuites

14:00 – 14:25

Salle de conférence 2

Retours d’expérience métiers – AI

Reynholds REINETTESmart Data Services LeaderLACROIX GROUP

#Réseaux neuronaux#Maintenance predictive#MLOps#Sustainability#Time Series

Le Big Data au service de la transformation de la fonction finance au sein de la Direction Technique et du SI d’Orange France

14:25 – 14:50

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Avec de nouveaux modèles économiques qui se dessinent autours de 3 rôles : Opérateur d’infrastructure, Opérateur Industriel et Opérateur Commercial, le secteur des télécoms est en pleine mutation.
Orange par son histoire, son expertise et sa position sur le marché, intègre ces 3 rôles.

Lors de cette conférence nous vous expliquerons comment au travers de la Data, la Finance de la Direction Technique et Système d’Information d’Orange France, accompagne cette mutation. Nous parlerons notamment de :
– Migration vers le cloud
– Hybridation des solutions data
– Autonomisation des Contrôleurs de Gestion
– Gouvernance, Shadow IT, Traçabilité et Auditabilité

Régis LAMINIHead of Data, Finance DTSIORANGE

#Automatisation#Cloud#Traçabilité#Gouvernance#Cloud Migration#Finance

Supply chain chez SNCF : l’IA pour prédire les risques de surstocks

14:25 – 14:50

Salle de conférence 2

Retours d’expérience métiers – AI

La planification des stocks de pièces détachées est un enjeu majeur pour la SNCF. La pandémie récente a exacerbé le besoin d’adapter et d’optimiser les stocks, en particulier pour éviter les risques de surstocks et ainsi réduire l’immobilisation financière, tout en garantissant la disponibilité des pièces de rechange.

Pour répondre à ce besoin critique opérationnel, nous avons développé un algorithme d’IA qui permet d’associer un risque de surstock à un ordre d’achat de pièces, accompagné d’une explication de cette prédiction. Après une phase de preuve de concept, le projet est devenu un projet pilote, utilisé en opérationnel par les approvisionneurs chargés de valider les ordres d’achat.

Lors de cette conférence, nous vous présenterons :

  •     L’algorithme, ses performances et les étapes d’industrialisation
  •     Le workflow implémenté pour produire les prédictions et leur explicabilité
  •     Des détails essentiels sur l’infrastructure technique utilisée
  •     Les résultats et bénéfices métiers obtenus

Camille SAMSONDirectrice de mission DataSNCF

Amine SOUIKISenior data scientist et data engineerSNCF

#Analyse prédictive#Smart Supply Chain

Construisez vos applications NLP, Computer Vision et Speech avec les modèles Transformers

14:45 – 15:30

Salle de conférence 3

Expert AI

Julien SIMONChief EvangelistHUGGING FACE

#Speech Analytics#Computer Vision#Natural Language Processing (NLP)

Crédit Agricole : L’IA pour anticiper les situations de fragilités financières de nos clients

14:50 – 15:15

Salle de conférence 2

Retours d’expérience métiers – AI

Afin de mieux détecter les situations de fragilité financière de nos clients et les prendre en charge + rapidement pour mieux les accompagner, tout en répondant à une exigence réglementaire, CATS industrialise un outil innovant de prévention de la fragilité financière. Cette solution basée sur l’IA identifie dans les données clients des signaux faibles, non perceptibles pour un humain, qui caractérisent une future difficulté.
Les conseillers bancaires vont accompagner les clients détectés, afin d’éviter qu’ils ne basculent en réelle fragilité avérée

Marine UBERTALLIProduct Owner – Industrialisation des Usages Data avancée et IACREDIT AGRICOLE TECHNOLOGIES ET SERVICES

Patrick CHAUVEAULead Tech – Pôle Produit DATACREDIT AGRICOLE TECHNOLOGIES ET SERVICES

Thomas DUVALLeader Tribu Data Factory & Usages DataCREDIT AGRICOLE TECHNOLOGIES ET SERVICES

#IA frugale#Machine Learning (ML)#Hadoop

Michelin : des data lakes à la data mesh

14:50 – 15:15

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Offrir à chacun une meilleure façon d’avancer est la raison d’être du groupe Michelin depuis plus de 100 ans. Avec plus de 125 000 employés et 200 millions de pneumatiques vendus chaque année, dans un contexte toujours plus digitalisé, la donnée et son exploitation sont au cœur des enjeux de l’industrie et des services de demain.

Au travers d’exemples concrets de nos plateformes data et de leur gouvernance nous illustrerons :
– Pourquoi nous avons évolué d’une stratégie data lake à une architecture data mesh ?
– Comment nos plateformes simplifient la démocratisation de la donnée ?
– Quelle gouvernance nous mettons en place autour des data domaines et l’exposition de data products ?

Joris NURITGeneral manager – Data DemocratizationMICHELIN

Karim HSINIEnterprise architect Data & AnalyticsMICHELIN

#Gouvernance#Plateforme#Data Lakes#Data mesh

Déployer un Digital Twin pour suivre les émissions de GES de VINCI Construction

15:15 – 15:40

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Camille VANEENOGEData Lab & Innovation ManagerVINCI CONSTRUCTION

Jean-Pierre RIEHLTechnology Innovation LeadAVANADE

Retour d’expérience en cours de confirmation

15:15 – 15:40

Salle de conférence 2

Retours d’expérience métiers – AI

Industrialisation d’algorithme de NLP pour l’extraction des caractéristiques des médicaments dans les textes officiels

16:10 – 16:35

Salle de conférence 2

Retours d’expérience métiers – AI

VIDAL France s’est toujours positionné comme leader de l’offre de services digitaux pour l’information sur les médicaments à destination des professionnels de santé. Parmi ses services stratégiques figure la sécurisation de la prescription. Les alertes et informations générées sont issues d’un travail fin d’indexation. Ces données sont actuellement essentiellement extraites par une équipe de pharmaciens. Notre projet a pour objectif de mettre en place une aide automatique à l’indexation de ces documents médicaux. Nous avons développé une solution originale à partir de réseaux convolutionnels (CNN), d’approches par similarité et de règles métiers qui permet de créer des milliers de modèles d’extraction d’informations à partir de textes médicaux. La plateforme Data Science est la solution logicielle qui a été retenue pour notre projet. Au cours de cette conférence, VIDAL exposera une vision complète de la résolution d’un problème industriel complexe dans le domaine du NLP et présentera les résultats et gains obtenus. Grace a l’utilisation de cette technique d’Intelligence artificielle, VIDAL met a jour en temps réel ses documents qui sont ensuite diffusés dans les outils de soins, et permet encore ainsi d’améliorer la qualité des outils des professionnels de santé pour mieux soigner.

Suzanne BENTO PEREIRAResponsable plateforme Data ScienceVIDAL

Romain BENASSIData ScientistPUBLICIS SAPIENT

#Natural Language Processing (NLP)#Deep learning#Réseaux neuronaux#Santé

Auchan Retail : maximiser le chiffre d’affaires et l’expérience clients en magasin en optimisant les surfaces en point de vente au niveau national

16:10 – 16:35

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Dans le secteur du retail, les enjeux des dirigeants marketing se complexifient : proposer une expérience client unique pour assurer la rentabilité sur le long terme.
Comment maximiser son chiffre d’affaires en magasin au niveau national ? Comment créer une expérience client unique grâce à l’agencement des surfaces commerciales ? Comment passer à l’échelle sur de multiples magasins et géographies ?
Tickets de caisse, segmentation clients, environnement concurrentiel par magasin, zones de chalandise… venez découvrir comment la data science et l’IA permettent de réconcilier enjeux business et expérience clients.

Matthieu GUIETData analystAUCHAN RETAIL FRANCE

Piotr WOZNICASenior Manager Data ScienceEKIMETRICS

#Experience client#Intelligence artificielle #Data science

Un aperçu de l’avenir de l’apprentissage automatique quantique

16:10 – 16:35

Salle de conférence 3

Expert AI

L’intelligence artificielle (IA) est un domaine porteur de nouvelles opportunités de progrès mais aussi de défis. Les capacités de l’IA ont considérablement augmenté dans leur capacité à interpréter et à analyser les données. L’IA est également exigeante en termes de puissance de calcul à cause de plus en plus de données à traiter et de la complexité des charges de travails (workflows). Le machine learning (ML) et l’informatique quantique sont deux technologies qui peuvent potentiellement nous permettre de résoudre des problèmes complexes, auparavant impossible, et aider à accélérer des domaines tels que l’entrainement de modèles ou la reconnaissance de « patterns ». L’intersection entre l’informatique quantique et le machine learning a suscité une attention considérable ces dernières années et a permis le développement d’algorithmes d’apprentissage automatique quantique tels que les Support Vector Machine (SVM) améliorés par le quantique (QSVM), la classification multiclasse QSVM, des classificateurs quantiques variationnels ou des réseaux adverses génératifs quantique (qGAN). Il est clair maintenant que les ordinateurs quantiques ont le potentiel d’améliorer les performances des algorithmes d’apprentissage automatique et peuvent contribuer à des avancées majeures dans différents domaines tels que la découverte de médicaments ou la détection de fraude. Les algorithmes d’apprentissage automatique quantique ont le potentiel de résoudre certains types de problèmes beaucoup plus rapidement que les algorithmes classiques, mais combien plus rapidement ? Et quels problèmes résoudront-ils ?

Xavier VASQUESCTO and Distinguished Data ScientistIBM TECHNOLOGY

#Informatique quantique#Machine Learning (ML)#Quantum Computing

L’IA au service d’une ONG humanitaire d’envergure internationale

16:35 – 17:00

Salle de conférence 2

Retours d’expérience métiers – AI

Action Contre la Faim s’est toujours positionné comme une ONG utilisant au mieux les ressources à sa portée pour aider les populations.
Avec l’appui de Factonics, la direction de la collecte a décidé de mettre en place des processus data (IA, Big Data, BI) pour maximiser son impact.
C’est un projet novateur étant donné le domaine d’Action Contre la Faim, ou l’éthique, le non-droit à l’erreur et la cause portée par ACF ont été les maitres mots, tout en conservant la performance de l’IA mise en place.
Nous partagerons la vision stratégique de ce que peux être l’IA pour une ONG, ainsi que quelques cas pratiques

Vincent CREHALETDirector of Individual GivingACTION CONTRE LA FAIM

Adrian PELLEGRINICOOFACTONICS

#Ethics#Business Intelligence

L’évolution de la data platform de Sodexo : d’un cas d’usage isolé à un déploiement à l’échelle

16:35 – 17:00

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Antonio ABI SAADGlobal Data Hub DirectorSODEXO

Aissam MEZHOUDCloud Solution Architect Data & AIMICROSOFT FRANCE

#Industrialisation

Worldline : Le Big Data et l’AI aux services de la PayTech

16:35 – 17:00

Salle de conférence 3

Expert AI

Worldline est un leader mondial de la sécurisation des paiements et des transactions. Nous traitons des transactions au quotidien pour plus de 1 million de commerçants, plus de 1000 banques et acquéreurs et d’autres. Les technologies de BigData et IA ont une place particulièrement importante pour une entreprise de PayTech comme Worldline.  Nous travaillons avec des données très volumineuses et complexes : que ce soit des données relatives aux paiements, des données media mais aussi des données issues de logs techniques. Nous nous appuyons sur les outils de BigData et l’Intelligence Artificielle afin de répondre à nos besoins business : le traitement en temps réel, maintenance prédictive, le risk management and la fraud detection, l’optimisation de Merchant conversion rate, etc.

Stephan PIRSONHead of Data, Senior Data ArchitectWORLDLINE

Liyun HE-GUELTONLabs AI&BD skill center manager, Senior Data ScientistWORLDLINE

#Deep learning#Business Intelligence#Gestion de risque#Fraud#Neural network

Projet « France Tourisme Observation » : comment Atout France concilie industrialisation de la donnée et souveraineté numérique au service du renforcement de la filière touristique française ?

17:00 – 17:25

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Déploiement d’une plateforme souveraine facilitant la mutualisation et l’échange de données à l’échelle de la filière.
Création d’un espace de confiance où l’ensemble des partenaires, publics comme privés, déposent et accèdent à des jeux de données, dont l’exploitation ne sera faite qu’à des fins d’intérêt général : compréhension des comportements de consommation, anticipation de la fréquentation, évaluation des impacts économiques, sociaux et environnementaux, suivi de la transition écologique de la filière à l’échelle territoriale…
Déploiement d’une technologie souveraine 100% française, Cleyrop, qui agrège l’ensemble des briques nécessaires au fonctionnement du projet : collecte, stockage, automatisation, sécurisation des données. Cette approche intégrée a permis la construction rapide d’un catalogue de données mutualisées et l’exploitation de premiers cas d’usage dans une logique réplicable / industriel.

Hugo ALVAREZResponsable Prospective et StratégieATOUT FRANCE

Sandie OGIERDirectrice de ProjetCLEYROP

#Automatisation#Sécurité#Industrialisation#Stockage#Souveraineté des données#Data Catalog

Confiance.ai : les défis industriels du déploiement de l’IA dans les système critiques

17:00 – 17:25

Salle de conférence 2

Retours d’expérience métiers – AI

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale.

Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes.

Juliette MATTIOLIExperte Sénior en Intelligence ArtificielleTHALES

Rodolphe GELINExpert Leader en Intelligence ArtificielleRENAULT

#IA de confiance

La Poste lance le timbre numérique

17:00 – 17:25

Salle de conférence 3

Expert AI

La Poste proposera à ses clients en 2023 une nouvelle solution d’affranchissement : le timbre digital. Mêlant habilement physique et numérique, il permettra d’affranchir un courrier facilement et rapidement en reportant au stylo sur une enveloppe un code de 8 caractères alphanumériques, généré en trois clics sur l’appli La Poste. Véritable prouesse industrielle et technologique, le timbre digital répond à des contraintes de confort d’utilisation, de performances de fonctionnement, de résilience à la fraude et de massification. Pour développer cette solution innovante en interne, La Poste s’est appuyée sur sa filiale Probayes spécialisée dans l’intelligence artificielle pour créer des algorithmes sécurisés issus de la cryptographie.

Pierre-Etienne BARDINChief Data OfficerGROUPE LA POSTE

Alexandre GHELFIChef de projetsPROBAYES

Les défis du Tech & Touch chez Randstad – Comment automatiser ou augmenter les consultants grâce à l’IA pour leurs transactions avec les candidats et les clients ?

17:25 – 17:50

Salle de conférence 2

Retours d’expérience métiers – AI

Avec plus 1,5 Millions de candidats en contact par an, 85 000 collaborateurs intérimaires délégués chaque jour et plus de 40 000 entreprises clients, le défi est immense pour automatiser ou augmenter les consultants Randstad dans la réalisation quotidienne d’interactions à très forte ou beaucoup plus faible valeur ajoutée. L’IA et les agents conversationnels chatbots et callbots, au travers des solutions ILLUIN Talk, permettent de gagner en productivité et collecter automatiquement des informations très précieuses pour toutes les parties.

Christophe MONTAGNONChief Digital OfficerGROUPE RANDSTAD FRANCE

Robert VESOULCEOILLUIN TECHNOLOGY
Data platform ou catalogue de service au Crédit Agricole : comment maintenir une offre data cohérente au sein de la 10ème banque mondiale ?

09:10 – 09:45

Salle de conférence 2

Expert Big Data

Fournir un service hautement disponible dans un environnement hybride pour répondre aux besoins d’applications critiques tout en offrant des performances apportées par des solutions techniques modernes n’est pas une mince affaire !
Je vous propose ici de revenir sur certaines problématiques résolues ou encore d’actualité auxquelles l’équipe data du socle natif de CAGIP fait face au quotidien.

Julien LEGRANDFast Data Squad leaderCREDIT AGRICOLE GROUP INFRASTRUCTURE

#Plateforme Hybride

Le metaverse, nouvelle frontière de la donnée 

09:30 – 10:20 – Table ronde

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Comment suivre vos clients dans le metaverse, récolter et exploiter les nouvelles données ?

Stéphane GUERRYCEOHAVAS PLAY

Frédéric VIERENAmbassadeur de la R&D de Worldline, Expert RetailWORLDLINE

Kheira BOULHILASenior Vice President Solutions EMEA/FranceSALESFORCE

#Metaverse

Bic : comment analyser 1 Milliard+ de lignes de données financières instantanément

09:45 – 10:20

Salle de conférence 2

Expert Big Data

– Comment exploiter des données très volumineuses dans des outils de reporting type Power BI, avec des coûts raisonnables, performances instantanées, et sans Vendor lock-in.
– Comment aider les métiers à exploiter des données variées stockées de façon hétérogène dans l’architecture Data, sans les déplacer, en gardant de bons temps de réponse.
– Retour sur le choix et l’implémentation de Dremio ; ses fonctions d’indexation et d’accélération de requêtes, et l’intérêt des features de datalake engine.

Yassine TRADLead Data ArchitectBIC

#Temps réel#Finance

Retour d’expérience CMA CGM

10:20 – 10:55

Salle de conférence 2

Expert Big Data

Magali VILLIOTHead of Data OfficeCMA CGM

#Data Governance#Data Catalog

Quelle place pour l’IA et le Big Data face aux enjeux climatiques

10:20 – 10:40 – Keynote

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Suivi d’une séance de dédicaces du livre « On va droit dans le mur ? »

Luc JULIAChief Scientific OfficerRENAULT GROUP

#Climate change

Séance de dédicaces avec Luc JULIA pour son nouveau livre : « On va droit dans le mur ? »

10:40 – 11:10

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Recrutement et compétences

11:10 – 12:00 – Table ronde

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

– Quelle adéquation entre l’offre de formations dans la data et l’IA et les compétences recherchées par les organisations ?

– Comment l’entreprise recrute, constitue et retient son équipe ? Est-ce qu’elle trouve les formations adaptées ?

Benoit BERGERETExecutive Director, Metalab for data, technology and societyESSEC BUSINESS SCHOOL

Patrick HOURYDirecteur des Ressources HumainesMIRAKL

Paul-Antoine CHEVALIERResponsable du pôle exploitation de données et du Lab IAETALAB

Dominique LAURENTDirecteur des Ressources HumainesSCHNEIDER ELECTRIC FRANCE

Anne-Brisce GRASSETDirector, Transformation Data & Digital Product ManagementREXEL

#Recrutement#Formations#HR

Le coût du Big Data : comment Galderma a optimisé ses dépenses par la méthodologie FinOps ?

11:10 – 11:45

Salle de conférence 2

Expert Big Data

Après une migration vers le cloud de sa plateforme Data, Galderma s’est interrogé sur ses coûts.
La gestion de la répartition sur des usages analytiques, accessible sur une plateforme d’entreprise, rend le modèle simpliste de la redistribution des coûts des ressources inadéquates.
– Comment évaluer le ROI de la consommation d’une requête ou d’un reporting lorsqu’ils sont facturés individuellement ?
– Quelles sont les bonnes pratiques appliquées sur le déploiement, l’identification et la gestion des ressources analytiques dans le cloud ?

Bertrand CHAMPLOISManager Centre de Compétence – Analytics BI & ReportingGALDERMA

#Finance#Cloud#Analytics#Réduction des coûts

Doctolib : construire un Framework de test pour la transformation de données

11:45 – 12:20

Salle de conférence 2

Expert Big Data

Tester le code de transformation de données est complexe. Dans cette présentation, nous allons voir comment construire un framework de tests automatisés appliqué au code ETL en utilisant l’outil Talend.
Nous échangerons sur les avantages de l’utilisation de test fixtures et le développement piloté par les tests.
Nous verrons également comment automatiser, paralléliser et surveiller ces tests à grande échelle en utilisant Github Actions, Datadog CI et un cluster Kubernetes, afin de pouvoir exécuter des milliers de tests en quelques minutes.

Louis MAZETIngénieur LogicielDOCTOLIB

#Automatisation

Du jumeau numérique au metavers industriel : applications concrètes et bénéfices

12:00 – 12:20 – Keynote

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Xavier PERRETDirecteur Cloud AzureMICROSOFT FRANCE

Michel MORVANCo-founder & Executive ChairmanCOSMOTECH

#Metaverse#Jumeau numérique

AI is Magic

12:20 – 12:40 – Keynote

Amphithéâtre Bleu

Conférences stratégiques Big Data & AI

Dans un monde en rapide évolution, à une époque de distraction, faîtes-vous encore la distinction entre Technologie et Magie, entre l’algorithme capable de prédire votre heure d’arrivée du mentaliste capable de savoir le chiffre que vous avez en tête ? Dans les 2 cas, il y a un truc, on ne sait pas comment ça marche, pourtant l’un change nos modes de vies et l’autre n’est qu’illusion. Vivez une expérience inspirante et surprenante à la limite entre Tech and Trick

Samuel GAULAYFondateurMAGICTECH

PEPPERAssistant de Sam

Kevin DUVALAI expertCAPGEMINI FRANCE

Comment la Société Générale utilise les données pour accélérer la transition énergétique par le financement vert

14:00 – 14:25

Salle de conférence 2

Retours d’expérience métiers – AI

Société Générale et namR allient leur expertise et leur patrimoine de données inédites pour répondre aux enjeux de la transition écologique.

Dans cette intervention nous vous présenterons :

Comment namR fabrique un patrimoine de données au service de la massification de la rénovation énergétique, comme par exemple la prédiction d’une étiquette DPE sur l’ensemble des bâtiments résidentiels de France?

Comment à partir de ces données la Société Générale peut améliorer l’accompagnement de ces clients dans ce défi de la rénovation énergétique?

Karim PERDREAUHead of data BDDFSOCIETE GENERALE

Chloé CLAIRCEONAMR

#Machine Learning (ML)#Open Data#Analyse prédictive#Deep learning

Criteo : Open Data to Open People

14:00 – 14:25

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Germain VAUDOUERManager, Global Ops Data EnablementCRITEO

Comment fournir des logiciels d’IA innovants et de manière agile dans le milieu du renseignement

14:00 – 14:45

Salle de conférence 3

Expert AI

Comment fournir des logiciels innovants et de manière agile dans le milieu du renseignement ?
Preligens fournit depuis 6 ans des logiciels d’IA pour la défense et le renseignement. Ces produits extrêmement pointus se retrouvent déployés on premises, dans des contextes ultra sécurisés, air gap et coupés de tout.
Comment garder une vraie approche produit et technologique au top de l’état de l’art ?
Comment déployer de manière standard des outils IA et big data complexes quand la stack client n’est pas accessible de l’extérieur ?
Comment tester automatiquement quand les données clients sont classifiées ?
La majorité des approches de testing, de Devops et Produit s’appuient sur les philosophies SaaS et sur la flexibilité offerte par une stack accessible de partout et tout le temps.
Nous allons montrer ici comment appliquer ces pratiques dans les conditions traditionnellement plus rigides et extrêmement exigeantes des agences de défense et renseignement.

Renaud ALLIOUXCTO et co-fondateurPRELIGENS

#DevOps

Adeo : partage des données en temps réel et optimisation des chaînes logistiques

14:25 – 14:50

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

La valeur de la donnée n’est plus à prouver. Les questions auxquelles nous essayons de répondre aujourd’hui sont : comment libérer la donnée et la mettre en mouvement ? Comment faciliter l’utilisation de cette donnée au plus proche des produits digitaux ?
Adeo partagera son retour d’expérience sur l’utilisation du big data pour gérer ses stocks en temps réel, analyser les données clients à 360° et les expériences omnicanales, proposer des offres personnalisées en temps réel.

Mustapha BENOSMANEProduct Leader de la capacité d’échangeADEO

#Temps réel#Gestion des stocks et des flux#Personnalisation#Omnicanal

Passer du réactif au proactif : le NLP, accélérateur de la maintenance prédictive de demain

14:25 – 14:50

Salle de conférence 2

Retours d’expérience métiers – AI

Orano, acteur majeur de la filière nucléaire, réalise de nombreuses interventions préventives et correctives afin d’assurer le bon fonctionnement de ses équipements industriels.
Avec Orano, nous avons construit une solution innovante et à base d’IA pour identifier à l’avance les pannes et mieux profiter des Arrêts Programmés de Maintenance. L’objectif est de diminuer les jours d’arrêts intempestifs de production suite à des pannes sur certains équipements.
La contribution principale de ce projet est d’effectuer de la maintenance prédictive, via à un outil d’aide à la décision, à partir des données textuelles uniquement et en exploitant l’historique des comptes rendus d’intervention grâce aux algorithmes de type NLP. L’approche peut être qualifiée d’innovante du fait de l’analyse des remèdes constatés au lieu du point de vue habituel qui envisage d’abord les symptômes.

Christophe LECLERCData Officer Orano RecyclageORANO

Céline ALBYPhD, Manager Data ScienceAXIONABLE

#Analyse prédictive#Maintenance predictive#Aide à la prise de décision#Natural Language Processing (NLP)

Le développement de produits cosmétiques responsables assisté par l’IA

14:45 – 15:10

Salle de conférence 3

Expert AI

Le développement de produits cosmétiques à la fois efficaces, responsables et qui répondent aux évolutions des attentes des cibles consommateurs toujours plus variées, peut aujourd’hui être assisté par l’IA.
Nous dévoilerons nos approches basées sur la construction et le parcours sur knowledge graph permettant la construction de portraits robots pour les futurs best sellers et l’embedding sur formulation afin d’optimiser l’eco responsabilité des produits sous contraintes de préserver les performances sensorielles.
Il s’agira d’un atelier technique nécessitant la compréhension préalable des notions d’embedding et de graph.

Charles DADIMachine LearnerFACTONICS

#Knowledge Graph#Machine Learning (ML)

La révolution du médicament intelligent

14:50 – 15:15

Salle de conférence 2

Retours d’expérience métiers – AI

L’intelligence artificielle permet désormais d’instruire toutes les décisions importantes au cours de la conception, du développement, de l’évaluation et du suivi du médicament. Avec pour objectif de développer de nouveaux traitements contre les maladies auto-immunes, nous avons à partir de données de profilage moléculaire de milliers de patients établi des modèles prédictifs pour rendre compte de la complexité de ces maladies, identifier des cibles thérapeutiques, sélectionner des candidats médicaments et simuler leur efficacité chez des patients virtuels. Nous avons en 2018 créé la plateforme computationnelle industrialisée Patrimony pour soutenir notre découverte de nouveaux médicaments pour évoluer d’une approche classique basée sur les sciences de la vie, la chimie et les biotechnologies vers une stratégie de modélisation prédictive grâce à l’IA.
Au-delà de ces réalisations, cette présentation évoquera également les défis liés à la gestion des données massives, l’évolution des infrastructures informatiques et l’acculturation des experts humains pour exploiter de façon optimale les possibilités offertes par ces nouvelles technologies dans le monde du médicament.

Philippe MOINGEONHead of Immuno-inflammationSERVIER

#Machine Learning (ML)#Santé#Réseaux neuronaux#Deep learning#Knowledge Graph

EDF déploie le Knowledge Management pour favoriser l’accès et la valorisation des connaissances

14:50 – 15:15

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Suite au retour d’expérience du projet EPR à Flamanville, EDF lance en 2019 le plan EXCELL, un plan d’excellence de la filière nucléaire. Ce plan adresse entre autres la montée en compétence de la filière nucléaire Française et engage chez EDF une démarche structurée de Knowledge Management afin de propager / déployer les meilleurs pratiques.

Dans une industrie dans laquelle les réacteurs ont une durée de vie de plus de 40 ans, la conservation, l’accessibilité et la valorisation des connaissances est un enjeu de premier ordre. Parmi ces pratiques, EDF a choisi Sinequa pour améliorer l’accessibilité à ses connaissances dans le domaine nucléaire.

Thomas ROTHSCHILDHead of Knowledge ManagementEDF

#Knowledge Management

Connecter une ville. Mise en place d’un plan IOT dans le sud de Londres

15:40 – 16:10

Salle de conférence 2

Retours d’expérience métiers – AI

Rejoignez le South London Partnership & Sutton et Hitachi Solutions pour comprendre comment l’un des plus grands projets pilotes IOT du Royaume-Uni permettra de créer une plateforme polyvalente reliant 5 arrondissements de Londres. Les données générées permettront une intelligence et une intervention en temps réel pour aider les résidents à vivre plus sainement, générer une croissance économique, façonner les politiques et réduire les dépenses des collectivités.

Andrew PARSONSIoT Programme ManagerSOUTH LONDON PARTNERSHIPS

David GRASTYCorporate Head of Digital Strategy & PortfolioBOROUGH OF SUTTON

Rob WORSLEYHead of Data & AnalyticsHITACHI SOLUTIONS EUROPE

#Gestion des données#Data intelligence#IOT#AI#Cloud/Data Integration

Eurybia, contributions Open Source et IA Responsable par la MAIF !

15:45 – 16:10

Salle de conférence 3

Expert AI

MAIF présente sa nouvelle contribution Open Source : Eurybia, au service d’une IA mieux maitrisée et toujours plus responsable.

Eurybia est une librairie python qui est utile pour :

  • Sécuriser la mise en production de modèle en détectant tout problème inhérent aux données
  • Aider les data analysts, data engineers et data scientists à collaborer pour valider les données avant de déployer un modèle en production.
  • Faciliter et accélérer l’analyse de la dérive des données par les data scientists de la MAIF.
  • Savoir s’il est nécessaire de ré-entraîner le modèle
  • Sauvegarder des rapports pour le suivi de la dérive, pour une consultation suite à une alerte e-mail ou un autre besoin spécifique.

Cette présentation sera l’occasion d’un partage:

  • Des cas d’usage MAIF sur lesquels Eurybia est mise en oeuvre,
  • Des différentes contributions Open Source des équipes Data IA MAIF
  • D’un retour d’expérience sur la thématique IA Responsable

 

Yann GOLHENResponsable de l’équipage Data Scientists au sein de la Data FactoryMAIF

Thomas BOUCHÉData scientistMAIF

#Open Source#Training#Responsible AI#Data Analysis

Bouygues Telecom : identifier de nouveaux leviers commerciaux en s’appuyant sur les technologies sémantiques pour croiser des silos de connaissances stockés dans différents datalakes

15:45 – 16:10

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Pascal CERVONIResponsable Architecture des ServicesBOUYGUES TELECOM

#Analyse sémantique#Data Lakes#Data Siloes

Pourquoi et comment mobiliser la data-science à la CPAM de Loire Atlantique ?

16:10 – 16:35

Salle de conférence 2

Retours d’expérience métiers – AI

Pour répondre aux exigences de performance et de proximité, les équipes data de la caisse primaire de la Loire-Atlantique ont mis à profit les outils du machine learning pour comprendre les phénomènes à l’œuvre dans l’indemnisation des arrêts de travail et ensuite agir, de manière proactive, à partir des leviers identifiés tout en étant économe des ressources mobilisées.

C’est ainsi, que les équipes ont pu identifier les facteurs clés dans nos délais de traitement et repenser notre démarche pour réduire ceux-ci. Ce travail est en cours de déploiement à l’ensemble du réseau afin d’optimiser nos actions vis-à-vis de public employeur (segmentation et analyse approfondie) qui fournissent une partie des données d’entrée pour réaliser les paiements des indemnités journalières inhérentes aux arrêts de travail.

Nous travaillons, également, sur la prédiction des appels liée à nos délais de traitements.

Christophe QUEMENEURSous-DirecteurCPAM LOIRE-ATLANTIQUE

#Secteur public#Service client#Machine Learning (ML)

Retour sur l’implémentation de l’initiative data gouvernance de SwissLife et le déploiement du data catalogue

16:10 – 16:35

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Le but de cette intervention est de parcourir le pourquoi et le comment de notre initiative de Data Gouvernance et de sélection d’un data catalogue. Nous expliquerons le contexte SwissLife, les enjeux data, les grands besoins techniques et fonctionnels autour du data catalogue, la sélection de l’outil, l’identification des cas d’usage, l’approche d’implémentation en PoV puis en industrialisation.

Emmanuel DUBOISChief Data OfficerSWISS LIFE

Laetitia RENARDResponsable Gouvernance et Qualité de la donnéeSWISS LIFE

#Data Governance#Data Catalog

La data dans le football professionnel : du fournisseur de données à l’entraîneur

16:35 – 17:00

Salle de conférence 2

Retours d’expérience métiers – AI

La récolte – Comment la donnée est produite par les analystes Opta ?
Transformation – De la donnée brute à la compréhension (PressBox, dataviz etc) ?
Exploitation – Comment sont utilisées ces outils dans un club pro (focus sur Edge + ProVision)
Finalité – Comment traduire la data pour le staff ?

Matthieu LILLE-PALETTESenior Vice-PresidentSTATSPERFORM

Kevin JEFFRIESData AnalystOGC NICE

#Computer Vision#Data Analysis#Machine Learning (ML)#DataViz

La data au cœur de la stratégie de transformation du Département des Alpes-Maritimes

16:35 – 17:00

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Charles Ange Ginésy, Président du Département des Alpes-Maritimes, a engagé depuis 2018 une stratégie ambitieuse de transformation numérique du territoire et de la collectivité à travers le programme SMART Deal. Adossé au GREEN Deal, deuxième axe majeur de la stratégie de transformation de la collectivité tourné vers le développement durable, le SMART Deal doit permettre d’accompagner le territoire et encapaciter la collectivité pour permettre de tirer pleinement bénéfice de la digitalisation croissante des processus. Dans cette ambition, la donnée prend une place centrale et nécessite des évolutions impactant à la fois le système d’information, l’organisation, et la manière de piloter l’action publique.

Nathalie POGGICheffe du Service Support et Pilotage de la Transformation Numérique à la Direction de la Transformation Numérique et de la Relation UsagersDEPARTEMENT DES ALPES-MARITIMES

#Transformation digitale

Retour d’expérience en cours de confirmation

17:00 – 17:25

Salle de conférence 2

Retours d’expérience métiers – AI

Foncier innovant et étude de marché : retour sur les cas d’usage permis par l’approche data centric et open source de la DGFIP

17:20 – 17:25

Amphithéâtre Bleu

Retours d’expérience métiers – Big Data

Dans le cadre de l’association TOSiT(The Open Source I Trust), différents échanges ont eu lieu entre la DGFIP (Direction Générale des FInances Publiques) et EDF (Électricité De France) afin de partager leurs besoins autour de la data. Un axe fondamental de la politique des administrations françaises et des grands groupes français consiste à garder la maîtrise de leurs systèmes d’information. C’est la raison pour laquelle, ils ont décidé de mutualiser leurs efforts et d’opter pour le développement d’une distribution data libre nommée Trunk Data Platform (TDP). La construction de cette distribution a pour objectif d’assurer l’autonomie et la souveraineté des parties dans une approche data centric et open source, et de réaliser des économies considérables par rapport aux solutions existantes.

Durant cette conférence, nous aurons le plaisir de partager avec vous un retour d’expérience sur la mise place de TDP pour les projets Foncier Innovant et étude de marché en détaillant :
– ses différentes caractéristiques et fonctionnalités
– son impact sur la qualité et l’accessibilité à la donnée
– son impact sur les coûts en tant que plateforme gratuite, open source et data centric
– l’organisation de nos équipes dans une approche ‘you build it, you run it’

Olivier MAZAINManager Architectures et Infrastructures Techniques Big-Data et IA/MLDGFIP

François ROLLODirecteur de projetDGFIP

#Open Source#Plateforme#Qualité des données

En poursuivant votre navigation, vous acceptez le dépôt de cookies tiers destinés à vous proposer des contenus et publicités ciblés et nous à nous permettre de procéder à des analyses statistiques d’audience et de navigation. Vous pouvez en savoir plus et paramétrer les cookies en cliquant ici