Big Data et Intelligence Artificielle les 26 et 27 septembre 2022 au Palais des Congrès de Paris
Big Data and AI Paris présente les dernières innovations et les nouveaux services du marché avec 250 exposants et plus de 350 interventions au Palais des Congrès de Paris.
Inscription : ici
Programme:
09:00 – 09:30
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
€
09:30 – 10:05
Salle de conférence 2
Expert Big Data
Comment construire nos data plateformes de demain ? Quelle architecture pour valoriser nos données ? Quid du cloud ? Mort du on premise Hadoop ? Devons-nous cacher notre éléphant ?
Je vous propose via la découverte de la plateforme GFS de vous présenter les data plateformes hybrides : le moteur Big Data du groupe BPCE, des centaines de serveurs, quasi 3 pétaoctets de données en production, des centaines de personnes servant plus de 120 cas d’usages métier.
On passe en revue les différentes technologies, de OpenShift pour simplifier l’orchestration des conteneurs, Indexima pour la BI, un catalogue de données Zeenea, aux outils de recherche basés sur le moteur d’indexation Apache Solr, …
#Plateforme#Cloud#Data Catalog#Hadoop
€
09:30 – 10:20 – Table ronde
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
– Comment le Big Data et l’IA permettent à l’entreprise d’atteindre ses objectifs ? Quel rôle et place pour la data dans l’organisation ?
– Quels sont les use-cases déployés ? Avec quels résultats concrets ?
– Next steps de la transformation vers un modèle data-driven
#Transformation digitale#Retour d’expérience#Entreprise data driven
€
10:05 – 10:40
Salle de conférence 2
Expert Big Data
L’approche sur la protection de la donnée a largement évolué ces dernières années, à la fois pour suivre les mutations technologiques et pour accompagner les grands enjeux sur la donnée.
Quelles en sont les conséquences pour un fournisseur de cloud comme Google Cloud et ses clients ?
Quelles sont les solutions pour s’adapter à ce nouveau contexte et comment promouvoir la sécurité des plateformes de données ?
#Sécurité#Protection des données#Cloud
€
10:20 – 10:40
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
#Transformation digitale#Entreprise data driven
€
10:55 – 11:30
Salle de conférence 2
Expert Big Data
Avec sa transformation vers le Public Cloud, Amadeus renforce l’importance de la Data au cœur de son écosystème en mettant en œuvre un Data Mesh couvrant toutes les activités de l’industrie du voyage.
Stockage, Analytics et Machine Learning, découvrez comment Amadeus tire parti des technologies du Cloud pour refonder une plateforme Data à l’échelle globale et connectée à ses partenaires.
Vous verrez comment les équipes d’Amadeus ont construit les briques additionnelles aux services d’Azure afin d’offrir aux Data engineers une plateforme unique leur permettant d’exploiter les data efficacement en toute autonomie.
#Cloud#Analytics#Stockage#Machine Learning (ML)#Data mesh
€
11:10 – 12:00 – Table ronde
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
– Comment articuler la RGPD et les nouvelles initiatives règlementaires à venir ?
– Quels sont les impacts pour les entreprises et comment elles intègrent ces règlementations ?
#Réglementation#RGPD#Protection des données
€
11:30 – 12:05 – Présentation
Salle de conférence 2
Expert Big Data
Le durcissement des régulations autour de la protection des données personnelles et les obligations de type « cross-border data transfer » changent la donne. Les grands projets de consolidation de données ayant vocation à implémenter des cas d’usage métier avancés, se trouvent freinés et contraints d’opérer à des niveaux régionaux plutôt qu’internationaux.
Pour mettre en place des cas d’usage dans un cadre conforme aux règlementations, venez découvrir les approches de protection telles que FHE (Fully Homomorphic Encryption) pour le transfert et la consommation de données sensibles, tout en gardant la souveraineté digitale de ces données propre au pays où elles ont été collectées.
#Sécurité#Réglementation#Protection des données#Souveraineté des données
€
12:00 – 12:20 – Keynote
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
#Entreprise data driven
€
12:05 – 12:40
Salle de conférence 2
Expert Big Data
Suite à un chantier colossal, EDF et la DGFIP (Direction Générale des Finances Publiques) publient Trunk Data Platform (TDP). Trunk Data Platform est une distribution Hadoop, Open Source, totalement libre de droits.
TDP est la solution pérenne pour ceux qui souhaitent continuer d’utiliser Hadoop et ne sont pas en mesure de faire des montées de versions tous les deux ans.
De nombreux grands comptes ne peuvent suivre ce rythme, ne sont pas intéressés par les caractéristiques cloud mises en avant par les nouvelles solutions et souhaitent simplement continuer de faire fonctionner leur existant sur Hadoop.
TDP a été développé pour répondre à ces besoins : la gouvernance sur le futur de la distribution est partagée, elle est accessible gratuitement et est 100% open-source.
#Open Source#Hadoop
€
12:20 – 12:40
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
Avec la pandémie, la digitalisation s’est accélérée. Poussées par de nouveaux besoins, les entreprises n’ont jamais collecté autant de données, ce qui entraîne forcément une complexité croissante. Cependant, cette complexité des données dépasse les compétences analytiques de la plupart des utilisateurs. Des architectures de données modernes voient le jour telles que le data mesh, la data fabric ou les data lakehouses mais elles ne permettent pas à elles seules de résoudre le problème.
Dans cette session, nous aborderons les approches analytiques qui vous aident à naviguer dans la complexité des données tout en maintenant la confiance, la flexibilité et l’agilité.
#Analyse de données#Business Intelligence#Data Governance#Data intelligence#DataViz
€
12:40 – 14:00
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
€
14:00 – 14:25
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
#Cloud#Pricing
€
14:00 – 14:45
Salle de conférence 3
Expert AI
#IA de confiance#Économies d’énergie
€
14:00 – 14:25
Salle de conférence 2
Retours d’expérience métiers – AI
#Réseaux neuronaux#Maintenance predictive#MLOps#Sustainability#Time Series
€
14:25 – 14:50
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Avec de nouveaux modèles économiques qui se dessinent autours de 3 rôles : Opérateur d’infrastructure, Opérateur Industriel et Opérateur Commercial, le secteur des télécoms est en pleine mutation.
Orange par son histoire, son expertise et sa position sur le marché, intègre ces 3 rôles.
Lors de cette conférence nous vous expliquerons comment au travers de la Data, la Finance de la Direction Technique et Système d’Information d’Orange France, accompagne cette mutation. Nous parlerons notamment de :
– Migration vers le cloud
– Hybridation des solutions data
– Autonomisation des Contrôleurs de Gestion
– Gouvernance, Shadow IT, Traçabilité et Auditabilité
#Automatisation#Cloud#Traçabilité#Gouvernance#Cloud Migration#Finance
€
14:25 – 14:50
Salle de conférence 2
Retours d’expérience métiers – AI
La planification des stocks de pièces détachées est un enjeu majeur pour la SNCF. La pandémie récente a exacerbé le besoin d’adapter et d’optimiser les stocks, en particulier pour éviter les risques de surstocks et ainsi réduire l’immobilisation financière, tout en garantissant la disponibilité des pièces de rechange.
Pour répondre à ce besoin critique opérationnel, nous avons développé un algorithme d’IA qui permet d’associer un risque de surstock à un ordre d’achat de pièces, accompagné d’une explication de cette prédiction. Après une phase de preuve de concept, le projet est devenu un projet pilote, utilisé en opérationnel par les approvisionneurs chargés de valider les ordres d’achat.
Lors de cette conférence, nous vous présenterons :
- L’algorithme, ses performances et les étapes d’industrialisation
- Le workflow implémenté pour produire les prédictions et leur explicabilité
- Des détails essentiels sur l’infrastructure technique utilisée
- Les résultats et bénéfices métiers obtenus
#Analyse prédictive#Smart Supply Chain
€
14:45 – 15:30
Salle de conférence 3
Expert AI
#Speech Analytics#Computer Vision#Natural Language Processing (NLP)
€
14:50 – 15:15
Salle de conférence 2
Retours d’expérience métiers – AI
Afin de mieux détecter les situations de fragilité financière de nos clients et les prendre en charge + rapidement pour mieux les accompagner, tout en répondant à une exigence réglementaire, CATS industrialise un outil innovant de prévention de la fragilité financière. Cette solution basée sur l’IA identifie dans les données clients des signaux faibles, non perceptibles pour un humain, qui caractérisent une future difficulté.
Les conseillers bancaires vont accompagner les clients détectés, afin d’éviter qu’ils ne basculent en réelle fragilité avérée
#IA frugale#Machine Learning (ML)#Hadoop
€
14:50 – 15:15
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Offrir à chacun une meilleure façon d’avancer est la raison d’être du groupe Michelin depuis plus de 100 ans. Avec plus de 125 000 employés et 200 millions de pneumatiques vendus chaque année, dans un contexte toujours plus digitalisé, la donnée et son exploitation sont au cœur des enjeux de l’industrie et des services de demain.
Au travers d’exemples concrets de nos plateformes data et de leur gouvernance nous illustrerons :
– Pourquoi nous avons évolué d’une stratégie data lake à une architecture data mesh ?
– Comment nos plateformes simplifient la démocratisation de la donnée ?
– Quelle gouvernance nous mettons en place autour des data domaines et l’exposition de data products ?
#Gouvernance#Plateforme#Data Lakes#Data mesh
€
15:15 – 15:40
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
€
15:15 – 15:40
Salle de conférence 2
Retours d’expérience métiers – AI
€
16:10 – 16:35
Salle de conférence 2
Retours d’expérience métiers – AI
VIDAL France s’est toujours positionné comme leader de l’offre de services digitaux pour l’information sur les médicaments à destination des professionnels de santé. Parmi ses services stratégiques figure la sécurisation de la prescription. Les alertes et informations générées sont issues d’un travail fin d’indexation. Ces données sont actuellement essentiellement extraites par une équipe de pharmaciens. Notre projet a pour objectif de mettre en place une aide automatique à l’indexation de ces documents médicaux. Nous avons développé une solution originale à partir de réseaux convolutionnels (CNN), d’approches par similarité et de règles métiers qui permet de créer des milliers de modèles d’extraction d’informations à partir de textes médicaux. La plateforme Data Science est la solution logicielle qui a été retenue pour notre projet. Au cours de cette conférence, VIDAL exposera une vision complète de la résolution d’un problème industriel complexe dans le domaine du NLP et présentera les résultats et gains obtenus. Grace a l’utilisation de cette technique d’Intelligence artificielle, VIDAL met a jour en temps réel ses documents qui sont ensuite diffusés dans les outils de soins, et permet encore ainsi d’améliorer la qualité des outils des professionnels de santé pour mieux soigner.
#Natural Language Processing (NLP)#Deep learning#Réseaux neuronaux#Santé
€
16:10 – 16:35
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Dans le secteur du retail, les enjeux des dirigeants marketing se complexifient : proposer une expérience client unique pour assurer la rentabilité sur le long terme.
Comment maximiser son chiffre d’affaires en magasin au niveau national ? Comment créer une expérience client unique grâce à l’agencement des surfaces commerciales ? Comment passer à l’échelle sur de multiples magasins et géographies ?
Tickets de caisse, segmentation clients, environnement concurrentiel par magasin, zones de chalandise… venez découvrir comment la data science et l’IA permettent de réconcilier enjeux business et expérience clients.
#Experience client#Intelligence artificielle #Data science
€
16:10 – 16:35
Salle de conférence 3
Expert AI
L’intelligence artificielle (IA) est un domaine porteur de nouvelles opportunités de progrès mais aussi de défis. Les capacités de l’IA ont considérablement augmenté dans leur capacité à interpréter et à analyser les données. L’IA est également exigeante en termes de puissance de calcul à cause de plus en plus de données à traiter et de la complexité des charges de travails (workflows). Le machine learning (ML) et l’informatique quantique sont deux technologies qui peuvent potentiellement nous permettre de résoudre des problèmes complexes, auparavant impossible, et aider à accélérer des domaines tels que l’entrainement de modèles ou la reconnaissance de « patterns ». L’intersection entre l’informatique quantique et le machine learning a suscité une attention considérable ces dernières années et a permis le développement d’algorithmes d’apprentissage automatique quantique tels que les Support Vector Machine (SVM) améliorés par le quantique (QSVM), la classification multiclasse QSVM, des classificateurs quantiques variationnels ou des réseaux adverses génératifs quantique (qGAN). Il est clair maintenant que les ordinateurs quantiques ont le potentiel d’améliorer les performances des algorithmes d’apprentissage automatique et peuvent contribuer à des avancées majeures dans différents domaines tels que la découverte de médicaments ou la détection de fraude. Les algorithmes d’apprentissage automatique quantique ont le potentiel de résoudre certains types de problèmes beaucoup plus rapidement que les algorithmes classiques, mais combien plus rapidement ? Et quels problèmes résoudront-ils ?
#Informatique quantique#Machine Learning (ML)#Quantum Computing
€
16:35 – 17:00
Salle de conférence 2
Retours d’expérience métiers – AI
Action Contre la Faim s’est toujours positionné comme une ONG utilisant au mieux les ressources à sa portée pour aider les populations.
Avec l’appui de Factonics, la direction de la collecte a décidé de mettre en place des processus data (IA, Big Data, BI) pour maximiser son impact.
C’est un projet novateur étant donné le domaine d’Action Contre la Faim, ou l’éthique, le non-droit à l’erreur et la cause portée par ACF ont été les maitres mots, tout en conservant la performance de l’IA mise en place.
Nous partagerons la vision stratégique de ce que peux être l’IA pour une ONG, ainsi que quelques cas pratiques
#Ethics#Business Intelligence
€
16:35 – 17:00
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
#Industrialisation
€
16:35 – 17:00
Salle de conférence 3
Expert AI
Worldline est un leader mondial de la sécurisation des paiements et des transactions. Nous traitons des transactions au quotidien pour plus de 1 million de commerçants, plus de 1000 banques et acquéreurs et d’autres. Les technologies de BigData et IA ont une place particulièrement importante pour une entreprise de PayTech comme Worldline. Nous travaillons avec des données très volumineuses et complexes : que ce soit des données relatives aux paiements, des données media mais aussi des données issues de logs techniques. Nous nous appuyons sur les outils de BigData et l’Intelligence Artificielle afin de répondre à nos besoins business : le traitement en temps réel, maintenance prédictive, le risk management and la fraud detection, l’optimisation de Merchant conversion rate, etc.
#Deep learning#Business Intelligence#Gestion de risque#Fraud#Neural network
€
17:00 – 17:25
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Déploiement d’une plateforme souveraine facilitant la mutualisation et l’échange de données à l’échelle de la filière.
Création d’un espace de confiance où l’ensemble des partenaires, publics comme privés, déposent et accèdent à des jeux de données, dont l’exploitation ne sera faite qu’à des fins d’intérêt général : compréhension des comportements de consommation, anticipation de la fréquentation, évaluation des impacts économiques, sociaux et environnementaux, suivi de la transition écologique de la filière à l’échelle territoriale…
Déploiement d’une technologie souveraine 100% française, Cleyrop, qui agrège l’ensemble des briques nécessaires au fonctionnement du projet : collecte, stockage, automatisation, sécurisation des données. Cette approche intégrée a permis la construction rapide d’un catalogue de données mutualisées et l’exploitation de premiers cas d’usage dans une logique réplicable / industriel.
#Automatisation#Sécurité#Industrialisation#Stockage#Souveraineté des données#Data Catalog
€
17:00 – 17:25
Salle de conférence 2
Retours d’expérience métiers – AI
Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale.
Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes.
#IA de confiance
€
17:00 – 17:25
Salle de conférence 3
Expert AI
La Poste proposera à ses clients en 2023 une nouvelle solution d’affranchissement : le timbre digital. Mêlant habilement physique et numérique, il permettra d’affranchir un courrier facilement et rapidement en reportant au stylo sur une enveloppe un code de 8 caractères alphanumériques, généré en trois clics sur l’appli La Poste. Véritable prouesse industrielle et technologique, le timbre digital répond à des contraintes de confort d’utilisation, de performances de fonctionnement, de résilience à la fraude et de massification. Pour développer cette solution innovante en interne, La Poste s’est appuyée sur sa filiale Probayes spécialisée dans l’intelligence artificielle pour créer des algorithmes sécurisés issus de la cryptographie.
€
17:25 – 17:50
Salle de conférence 2
Retours d’expérience métiers – AI
Avec plus 1,5 Millions de candidats en contact par an, 85 000 collaborateurs intérimaires délégués chaque jour et plus de 40 000 entreprises clients, le défi est immense pour automatiser ou augmenter les consultants Randstad dans la réalisation quotidienne d’interactions à très forte ou beaucoup plus faible valeur ajoutée. L’IA et les agents conversationnels chatbots et callbots, au travers des solutions ILLUIN Talk, permettent de gagner en productivité et collecter automatiquement des informations très précieuses pour toutes les parties.
09:10 – 09:45
Salle de conférence 2
Expert Big Data
Fournir un service hautement disponible dans un environnement hybride pour répondre aux besoins d’applications critiques tout en offrant des performances apportées par des solutions techniques modernes n’est pas une mince affaire !
Je vous propose ici de revenir sur certaines problématiques résolues ou encore d’actualité auxquelles l’équipe data du socle natif de CAGIP fait face au quotidien.
#Plateforme Hybride
€
09:30 – 10:20 – Table ronde
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
Comment suivre vos clients dans le metaverse, récolter et exploiter les nouvelles données ?
#Metaverse
€
09:45 – 10:20
Salle de conférence 2
Expert Big Data
– Comment exploiter des données très volumineuses dans des outils de reporting type Power BI, avec des coûts raisonnables, performances instantanées, et sans Vendor lock-in.
– Comment aider les métiers à exploiter des données variées stockées de façon hétérogène dans l’architecture Data, sans les déplacer, en gardant de bons temps de réponse.
– Retour sur le choix et l’implémentation de Dremio ; ses fonctions d’indexation et d’accélération de requêtes, et l’intérêt des features de datalake engine.
#Temps réel#Finance
€
10:20 – 10:55
Salle de conférence 2
Expert Big Data
#Data Governance#Data Catalog
€
10:20 – 10:40 – Keynote
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
Suivi d’une séance de dédicaces du livre « On va droit dans le mur ? »
#Climate change
€
10:40 – 11:10
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
€
11:10 – 12:00 – Table ronde
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
– Quelle adéquation entre l’offre de formations dans la data et l’IA et les compétences recherchées par les organisations ?
– Comment l’entreprise recrute, constitue et retient son équipe ? Est-ce qu’elle trouve les formations adaptées ?
#Recrutement#Formations#HR
€
11:10 – 11:45
Salle de conférence 2
Expert Big Data
Après une migration vers le cloud de sa plateforme Data, Galderma s’est interrogé sur ses coûts.
La gestion de la répartition sur des usages analytiques, accessible sur une plateforme d’entreprise, rend le modèle simpliste de la redistribution des coûts des ressources inadéquates.
– Comment évaluer le ROI de la consommation d’une requête ou d’un reporting lorsqu’ils sont facturés individuellement ?
– Quelles sont les bonnes pratiques appliquées sur le déploiement, l’identification et la gestion des ressources analytiques dans le cloud ?
#Finance#Cloud#Analytics#Réduction des coûts
€
11:45 – 12:20
Salle de conférence 2
Expert Big Data
Tester le code de transformation de données est complexe. Dans cette présentation, nous allons voir comment construire un framework de tests automatisés appliqué au code ETL en utilisant l’outil Talend.
Nous échangerons sur les avantages de l’utilisation de test fixtures et le développement piloté par les tests.
Nous verrons également comment automatiser, paralléliser et surveiller ces tests à grande échelle en utilisant Github Actions, Datadog CI et un cluster Kubernetes, afin de pouvoir exécuter des milliers de tests en quelques minutes.
#Automatisation
€
12:00 – 12:20 – Keynote
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
#Metaverse#Jumeau numérique
€
12:20 – 12:40 – Keynote
Amphithéâtre Bleu
Conférences stratégiques Big Data & AI
Dans un monde en rapide évolution, à une époque de distraction, faîtes-vous encore la distinction entre Technologie et Magie, entre l’algorithme capable de prédire votre heure d’arrivée du mentaliste capable de savoir le chiffre que vous avez en tête ? Dans les 2 cas, il y a un truc, on ne sait pas comment ça marche, pourtant l’un change nos modes de vies et l’autre n’est qu’illusion. Vivez une expérience inspirante et surprenante à la limite entre Tech and Trick
€
14:00 – 14:25
Salle de conférence 2
Retours d’expérience métiers – AI
Société Générale et namR allient leur expertise et leur patrimoine de données inédites pour répondre aux enjeux de la transition écologique.
Dans cette intervention nous vous présenterons :
Comment namR fabrique un patrimoine de données au service de la massification de la rénovation énergétique, comme par exemple la prédiction d’une étiquette DPE sur l’ensemble des bâtiments résidentiels de France?
Comment à partir de ces données la Société Générale peut améliorer l’accompagnement de ces clients dans ce défi de la rénovation énergétique?
#Machine Learning (ML)#Open Data#Analyse prédictive#Deep learning
€
14:00 – 14:25
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
€
14:00 – 14:45
Salle de conférence 3
Expert AI
Comment fournir des logiciels innovants et de manière agile dans le milieu du renseignement ?
Preligens fournit depuis 6 ans des logiciels d’IA pour la défense et le renseignement. Ces produits extrêmement pointus se retrouvent déployés on premises, dans des contextes ultra sécurisés, air gap et coupés de tout.
Comment garder une vraie approche produit et technologique au top de l’état de l’art ?
Comment déployer de manière standard des outils IA et big data complexes quand la stack client n’est pas accessible de l’extérieur ?
Comment tester automatiquement quand les données clients sont classifiées ?
La majorité des approches de testing, de Devops et Produit s’appuient sur les philosophies SaaS et sur la flexibilité offerte par une stack accessible de partout et tout le temps.
Nous allons montrer ici comment appliquer ces pratiques dans les conditions traditionnellement plus rigides et extrêmement exigeantes des agences de défense et renseignement.
#DevOps
€
14:25 – 14:50
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
La valeur de la donnée n’est plus à prouver. Les questions auxquelles nous essayons de répondre aujourd’hui sont : comment libérer la donnée et la mettre en mouvement ? Comment faciliter l’utilisation de cette donnée au plus proche des produits digitaux ?
Adeo partagera son retour d’expérience sur l’utilisation du big data pour gérer ses stocks en temps réel, analyser les données clients à 360° et les expériences omnicanales, proposer des offres personnalisées en temps réel.
#Temps réel#Gestion des stocks et des flux#Personnalisation#Omnicanal
€
14:25 – 14:50
Salle de conférence 2
Retours d’expérience métiers – AI
Orano, acteur majeur de la filière nucléaire, réalise de nombreuses interventions préventives et correctives afin d’assurer le bon fonctionnement de ses équipements industriels.
Avec Orano, nous avons construit une solution innovante et à base d’IA pour identifier à l’avance les pannes et mieux profiter des Arrêts Programmés de Maintenance. L’objectif est de diminuer les jours d’arrêts intempestifs de production suite à des pannes sur certains équipements.
La contribution principale de ce projet est d’effectuer de la maintenance prédictive, via à un outil d’aide à la décision, à partir des données textuelles uniquement et en exploitant l’historique des comptes rendus d’intervention grâce aux algorithmes de type NLP. L’approche peut être qualifiée d’innovante du fait de l’analyse des remèdes constatés au lieu du point de vue habituel qui envisage d’abord les symptômes.
#Analyse prédictive#Maintenance predictive#Aide à la prise de décision#Natural Language Processing (NLP)
€
14:45 – 15:10
Salle de conférence 3
Expert AI
Le développement de produits cosmétiques à la fois efficaces, responsables et qui répondent aux évolutions des attentes des cibles consommateurs toujours plus variées, peut aujourd’hui être assisté par l’IA.
Nous dévoilerons nos approches basées sur la construction et le parcours sur knowledge graph permettant la construction de portraits robots pour les futurs best sellers et l’embedding sur formulation afin d’optimiser l’eco responsabilité des produits sous contraintes de préserver les performances sensorielles.
Il s’agira d’un atelier technique nécessitant la compréhension préalable des notions d’embedding et de graph.
#Knowledge Graph#Machine Learning (ML)
€
14:50 – 15:15
Salle de conférence 2
Retours d’expérience métiers – AI
L’intelligence artificielle permet désormais d’instruire toutes les décisions importantes au cours de la conception, du développement, de l’évaluation et du suivi du médicament. Avec pour objectif de développer de nouveaux traitements contre les maladies auto-immunes, nous avons à partir de données de profilage moléculaire de milliers de patients établi des modèles prédictifs pour rendre compte de la complexité de ces maladies, identifier des cibles thérapeutiques, sélectionner des candidats médicaments et simuler leur efficacité chez des patients virtuels. Nous avons en 2018 créé la plateforme computationnelle industrialisée Patrimony pour soutenir notre découverte de nouveaux médicaments pour évoluer d’une approche classique basée sur les sciences de la vie, la chimie et les biotechnologies vers une stratégie de modélisation prédictive grâce à l’IA.
Au-delà de ces réalisations, cette présentation évoquera également les défis liés à la gestion des données massives, l’évolution des infrastructures informatiques et l’acculturation des experts humains pour exploiter de façon optimale les possibilités offertes par ces nouvelles technologies dans le monde du médicament.
#Machine Learning (ML)#Santé#Réseaux neuronaux#Deep learning#Knowledge Graph
€
14:50 – 15:15
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Suite au retour d’expérience du projet EPR à Flamanville, EDF lance en 2019 le plan EXCELL, un plan d’excellence de la filière nucléaire. Ce plan adresse entre autres la montée en compétence de la filière nucléaire Française et engage chez EDF une démarche structurée de Knowledge Management afin de propager / déployer les meilleurs pratiques.
Dans une industrie dans laquelle les réacteurs ont une durée de vie de plus de 40 ans, la conservation, l’accessibilité et la valorisation des connaissances est un enjeu de premier ordre. Parmi ces pratiques, EDF a choisi Sinequa pour améliorer l’accessibilité à ses connaissances dans le domaine nucléaire.
#Knowledge Management
€
15:40 – 16:10
Salle de conférence 2
Retours d’expérience métiers – AI
Rejoignez le South London Partnership & Sutton et Hitachi Solutions pour comprendre comment l’un des plus grands projets pilotes IOT du Royaume-Uni permettra de créer une plateforme polyvalente reliant 5 arrondissements de Londres. Les données générées permettront une intelligence et une intervention en temps réel pour aider les résidents à vivre plus sainement, générer une croissance économique, façonner les politiques et réduire les dépenses des collectivités.
#Gestion des données#Data intelligence#IOT#AI#Cloud/Data Integration
€
15:45 – 16:10
Salle de conférence 3
Expert AI
MAIF présente sa nouvelle contribution Open Source : Eurybia, au service d’une IA mieux maitrisée et toujours plus responsable.
Eurybia est une librairie python qui est utile pour :
- Sécuriser la mise en production de modèle en détectant tout problème inhérent aux données
- Aider les data analysts, data engineers et data scientists à collaborer pour valider les données avant de déployer un modèle en production.
- Faciliter et accélérer l’analyse de la dérive des données par les data scientists de la MAIF.
- Savoir s’il est nécessaire de ré-entraîner le modèle
- Sauvegarder des rapports pour le suivi de la dérive, pour une consultation suite à une alerte e-mail ou un autre besoin spécifique.
Cette présentation sera l’occasion d’un partage:
- Des cas d’usage MAIF sur lesquels Eurybia est mise en oeuvre,
- Des différentes contributions Open Source des équipes Data IA MAIF
- D’un retour d’expérience sur la thématique IA Responsable
#Open Source#Training#Responsible AI#Data Analysis
€
15:45 – 16:10
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
#Analyse sémantique#Data Lakes#Data Siloes
€
16:10 – 16:35
Salle de conférence 2
Retours d’expérience métiers – AI
Pour répondre aux exigences de performance et de proximité, les équipes data de la caisse primaire de la Loire-Atlantique ont mis à profit les outils du machine learning pour comprendre les phénomènes à l’œuvre dans l’indemnisation des arrêts de travail et ensuite agir, de manière proactive, à partir des leviers identifiés tout en étant économe des ressources mobilisées.
C’est ainsi, que les équipes ont pu identifier les facteurs clés dans nos délais de traitement et repenser notre démarche pour réduire ceux-ci. Ce travail est en cours de déploiement à l’ensemble du réseau afin d’optimiser nos actions vis-à-vis de public employeur (segmentation et analyse approfondie) qui fournissent une partie des données d’entrée pour réaliser les paiements des indemnités journalières inhérentes aux arrêts de travail.
Nous travaillons, également, sur la prédiction des appels liée à nos délais de traitements.
#Secteur public#Service client#Machine Learning (ML)
€
16:10 – 16:35
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Le but de cette intervention est de parcourir le pourquoi et le comment de notre initiative de Data Gouvernance et de sélection d’un data catalogue. Nous expliquerons le contexte SwissLife, les enjeux data, les grands besoins techniques et fonctionnels autour du data catalogue, la sélection de l’outil, l’identification des cas d’usage, l’approche d’implémentation en PoV puis en industrialisation.
#Data Governance#Data Catalog
€
16:35 – 17:00
Salle de conférence 2
Retours d’expérience métiers – AI
La récolte – Comment la donnée est produite par les analystes Opta ?
Transformation – De la donnée brute à la compréhension (PressBox, dataviz etc) ?
Exploitation – Comment sont utilisées ces outils dans un club pro (focus sur Edge + ProVision)
Finalité – Comment traduire la data pour le staff ?
#Computer Vision#Data Analysis#Machine Learning (ML)#DataViz
€
16:35 – 17:00
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Charles Ange Ginésy, Président du Département des Alpes-Maritimes, a engagé depuis 2018 une stratégie ambitieuse de transformation numérique du territoire et de la collectivité à travers le programme SMART Deal. Adossé au GREEN Deal, deuxième axe majeur de la stratégie de transformation de la collectivité tourné vers le développement durable, le SMART Deal doit permettre d’accompagner le territoire et encapaciter la collectivité pour permettre de tirer pleinement bénéfice de la digitalisation croissante des processus. Dans cette ambition, la donnée prend une place centrale et nécessite des évolutions impactant à la fois le système d’information, l’organisation, et la manière de piloter l’action publique.
#Transformation digitale
€
17:00 – 17:25
Salle de conférence 2
Retours d’expérience métiers – AI
€
17:20 – 17:25
Amphithéâtre Bleu
Retours d’expérience métiers – Big Data
Dans le cadre de l’association TOSiT(The Open Source I Trust), différents échanges ont eu lieu entre la DGFIP (Direction Générale des FInances Publiques) et EDF (Électricité De France) afin de partager leurs besoins autour de la data. Un axe fondamental de la politique des administrations françaises et des grands groupes français consiste à garder la maîtrise de leurs systèmes d’information. C’est la raison pour laquelle, ils ont décidé de mutualiser leurs efforts et d’opter pour le développement d’une distribution data libre nommée Trunk Data Platform (TDP). La construction de cette distribution a pour objectif d’assurer l’autonomie et la souveraineté des parties dans une approche data centric et open source, et de réaliser des économies considérables par rapport aux solutions existantes.
Durant cette conférence, nous aurons le plaisir de partager avec vous un retour d’expérience sur la mise place de TDP pour les projets Foncier Innovant et étude de marché en détaillant :
– ses différentes caractéristiques et fonctionnalités
– son impact sur la qualité et l’accessibilité à la donnée
– son impact sur les coûts en tant que plateforme gratuite, open source et data centric
– l’organisation de nos équipes dans une approche ‘you build it, you run it’
#Open Source#Plateforme#Qualité des données