Mastère Spécialisé® Expert Big Data Analytics & Métriques

Introduction au Big Data

GÉNÉRALITÉS ET NOTIONS SUR LE BIG DATA
Référence : ITB / Durée : 35 H / Crédits : 5 ECTS

Le déluge sans cesse croissant de données hétérogènes et la multiplicité des technologies du Big data constituent les défis majeurs de l’expert en Big Analytics et Métriques. Cette UV a donc pour objectif de fournir une vue d’ensemble sur le sujet du Big Data tout en fournissant les clés d’un système de veille efficace aux étudiants.

A l’issue de cette première UV les étudiants seront capables de poser un diagnostic, de concevoir et de manager un projet data.

[1.1] Présentation de l’écosystème du Big Data
  • Conférence d’introduction à la formation.
  • Big data et son background : Web, Architectures de Services Web, les acteurs du Cloud et leurs stratégies.
  • Métiers du Big data : Évolution, structuration.
  • Cas d’étude : CRM, Gestion des territoires.
  • Approches SHS du Big data : digital curators, validateurs, approches participatives, etc.
[1.2] Transition digitale et changement de paradigme en entreprise
  • Manager une entreprise à l’ère du Big data
  • Les nouveaux paradigmes en entreprise face au déluge de données
  • Organisation et pilotage la transition digitale en entreprise.
[1.3] Conception et Management de projets data
  • La modélisation pilotée par les données (Data-driven modeling)
  • Identification des données pour son projet
  • Conception et pilotage d’un projet data : étapes et mise en œuvre
  • Cas d’étude.
Enseignants

Jean-Pierre CAHIER

 

François Stephan, DGA en charge du Développement et de l’International, Institut de Recherche Technologique (IRT) SystemX

Ingénieur diplômé de l’Ecole polytechnique et de Télécom ParisTech, François Stephan a plus de 20 ans d’expérience au sein d’entreprises technologiques telles que Schlumberger Smart Cards et Thales; et de sociétés de services IT telles que Ornis et Unilog Management. Il a rejoint en 2013 l’Institut de Recherche Technologique (IRT) SystemX.

 

Francis Rousseaux, Professeur des Universités, Université de Reims Champagne Ardenne (URCA)

Francis Rousseaux est titulaire d’une thèse en informatique et d'une Habilitation à Diriger des Recherches de l’Université Pierre et Marie Curie (UPMC). Membre permanent du laboratoire CReSTIC de l'URCA, il dirige le Master en informatique de cette Université. Ses recherches actuelles portent sur l'aide à la décision en intelligence artificielle et l'acquisition des connaissances

 

Patrick BREBION

Données d’entreprise : Gouvernance et stratégies

GÉNÉRALITÉS ET NOTIONS SUR LE BIG DATA 
Référence : GSD / Durée : 35 H / Crédits : 4 ECTS

Avec l’émergence des technologies du Big Data, les institutions (privées et publiques) font face à la question de la gouvernance et de la stratégie en matière de possession, de gestion et de transformation de la donnée. L’UV 2 présente de façon méthodique les trois principaux sujets de préoccupation du data scientist et du data strategist : droit des données, sécurité dans le cloud et les risques liés à l’entreposage, l’analyse et l’interprétation de la donnée.

Les étudiants ayant suivi l’UV 2 seront capables de faire l’état des lieux et d’identifier les risques inhérents au stockage et aux traitements des Big data. Ils seront aussi capables de définir une politique de gouvernance respectueuse des lois et des standards de sécurité.

[2.1] Droit des données et Aspects éthiques
  • Introduction au droit et aux systèmes juridiques français et européen.
  • Régimes de responsabilité (civil, pénal, administratif, quelques régimes spéciaux).
  • Vie privée : notion et protection juridique.
  • Données personnelles : notion et protection juridique.
  • Éthique juridique.
[2.2] Cloud computing et sécurité
  • Introduction au cloud computing.
  • Big data et enjeux en cybersécurité.
  • Protection et sécurisation des données.
  • Étude de cas.
[2.3] Analyse de risque liée à la donnée
  • Comprendre la gestion des risques pour la vie privée, les droits et libertés fondamentaux des personnes.
  • Différents types de risques liés aux Big Data (stockage, traitements, valorisation).
  • Comment mener une analyse des risques sur la vie privée ?
  • La prise en compte des risques pour la vie privée en amont des projets de Big Data : Le Privacy by Design (PbD).
Enseignants

Estelle De Marco, Directrice, Inthemis

Docteur en droit privé et sciences criminelles, Estelle De Marco s'est spécialisée dès 1998 en droit des communications électroniques et des réseaux, ainsi qu'en protection des droits fondamentaux. Elle enseigne la protection des données personnelles et les aspects juridiques de la sécurité des systèmes d'information à l'université de Montpellier et à Polytech Nice-Sophia. Elle est également expert auprès du Conseil de l’Europe et assiste la division "protection des données personnelles et cybercriminalité".

 

Moez Esseghir, Maître de conférences, Université de Technologies de Troyes

Moez Esseghir est docteur en informatique de l’UPMC Paris VI et expert STIC auprès du MENESR. Ses activités de recherche portent sur des problématiques réseau (qualité de service, sécurité) dans des applications telles que les réseaux de capteurs, les réseaux véhiculaires et le cloud. Il est actuellement responsable de la filière sécurité des systèmes et des communications (SSC) à l’UTT.

 

Rida Khatoun, Enseignant-chercheur, Télécom ParisTech

Titulaire d’un doctorat en cybersécurité, Rida Khatoun se spécialise dans la conception des systèmes de détection d'intrusion dans les contextes mobiles et fixes, les infrastructures, les services et les applications. Il travaille également sur les nouvelles approches de sécurisation des données dans le cloud.

 

Florence Bonnet, Directrice, CIL CONSULTING

Florence Bonnet est titulaire d’un double Mastère en protection des données personnelles de l’Institut Supérieur d'Electronique de Paris et en management de l’ESSEC. Elle intervient sur des missions d’audit, d’accompagnement de projets numériques, de certification en "Privacy" et est Correspondant Informatique et Libertés (Data Protection Officer) de plusieurs entreprises.

Stockage de données réutilisables

TECHNIQUES D’ACTIONNABILITÉ DE LA DONNÉE 
Référence : SDR / Durée : 35 H / Crédits : 4 ECTS

Avec le déluge de données, la possession de données brutes (collectées ou acquises) laisse de plus en plus la place à l’émergence de la notion de données actionnables. Il est donc important pour les entreprises d’une part de disposer des techniques de transformation de la donnée brute en donnée actionnable et d’autre part d’être capable d’entreposer cette donnée afin de se donner la possibilité de la réutiliser. Cette UV est plus orientée sur le caractère opérationnel d’une stratégie de la donnée actionnable que sur la présentation des techniques avancées de grandes masses de données qu’abordera l’UV 5.

À l’issue de cette UV, les étudiants seront capables de proposer, compte tenu des spécificités du contexte, une stratégie de stockage des données réutilisables en fonction de leur valeur intrinsèque et des besoins.

[3.1] Entrepôts de données opérationnelles
  • Notions de base et concepts à maîtriser.
  • Panorama actuel et tendances des acteurs stratégiques du marché.
  • Des solutions « Legacy » à « l’HyperConvergence » et SaaS : Avantages et inconvénients.
  • Technologies et Innovations : Splunk, ErasureCoding, Spectrum, Nutanix, ..
  • Applications : Sécurité et Green Datacenter, Cas Client.
  • What’s Next ? Regard dans les Labos.
[3.2] Open Data - enjeux et stratégie
  • Open Data : concepts et déclinaisons (étatiques, privées, participatif, etc.).
  • Les différents mécanismes d’ouverture de la donnée.
  • Les questions de souveraineté de données.
  • L’Open data et la stratégie de développement des entreprises.
[3.3] Bases de données actionnables
  • Panorama des bases de données orientées graphe.
  • Principes des bases de données NoSQL et graphes.
  • Stockage des données massives : cas d’usage.
  • Moteur analytique orienté graphe, requêtes des collections et autres options d’analyse.
Enseignants

Alexis Eidelman, Directeur du projet Gouvernance de la Donnée, Etalab

Polytechnicien et administrateur de l'Insee, Alexis Eidelman a été statisticien à l'Insee et économiste à la Direction Générale du Trésor. Fin 2014, il rejoint l'Administrateur Général des Données (AGD) de l’État au sein d'Etalab, le service du Premier Ministre chargé de l’ouverture des données publiques.


Jean-Charles RISCH 

Jérôme BATON

Nathalie Peguero, Partner manager, Computacenter

Nathalie Peguero travaille dans le milieu informatique depuis presque 20 ans. Elle travaille dans la veille technologique et la montée en compétences des ingénieurs sales et des consultants avant-vente sur les produits infrastructure et nouveaux marchés. Elle pilote également le partenariat intel sur la France pour Computacenter.

Data intelligence & Data as a Service

TECHNIQUES D’ACTIONNABILITÉ DE LA DONNÉE
Référence : DAAS / Durée : 35 H / Crédits : 4 ECTS

La data intelligence désigne la collecte, l’analyse et la prise de décision à partir de multiples sources de données pour valoriser l’activité économique des entreprises. La Data Intelligence nécessite la constitution de compétences pluridisciplinaires capables de caractériser et préparer la donnée et d’utiliser les outils technologiques nécessaires à l’exploitation de ces données. Cette UV abordera également la conception de services orientés données à travers l’étude d’exemples.

À l’issue de cette UV, les étudiants seront capables de proposer une stratégie de monétisation des données et de concevoir et tester des cas d’usage de services basés sur la donnée.

[4.1] Monétisation des données
  • Valorisation des données : études de cas.
  • Business models de data as a service.
  • Méthodes de monétisation.
  • Régulation du marché des données (i.e privacy).
[4.2] Caractérisation et analyse préparatoire des données
  • Cartographie des données.
  • Identification des sources de données, connecteurs et collecte des données.
  • Sélection et analyse préalable des données.
  • Définition de la chaîne de traitement décisionnel.
[4.3] Web Services orientés données
  • Panorama des solutions de Big Data as a Service.
  • Description d’idées de services autour de la donnée
  • Environnements de test des premiers cas d’usages en Big Data.
  • Data intelligence, Business Intelligence et Web Intelligence.
Enseignants

Eddie Soulier, Enseignant-chercheur, Université de Technologie de Troyes (UTT), (HDR)

Titulaire d’une thèse en informatique de l’Université Pierre et Marie Curie et d’une Habilitation à Diriger des Recherches de l’Université de Technologie de Compiègne (UTC), Eddie Soulier a une triple formation en Intelligence Artificielle, en Economie et en Sciences Politiques. Ses travaux portent sur les mécanismes d’unification de données hétérogènes pour mieux comprendre la structure et la dynamique de systèmes sociocognitifs et matériels complexes.


Youssef HISSOU

Conception et gestion de bases de données avancées

BASES DE DONNÉES ET PROGRAMMATIONS AVANCÉES 
Référence : BDD / Durée : 35 H / Crédits : 5 ECTS

L’optimisation des systèmes de stockage et de gestion de la donnée (brute ou prétraitée) constitue l’un des défis majeurs des métiers de data scientist et de data strategist. De plus la spécificité des traitements en fonction des besoins et la forte variabilité des dimensions sous-jacentes imposent un choix (sinon un dosage) judicieux entre des bases de données structurées et les bases de données non structurées.

Les étudiants ayant suivi cette UV seront capables de modéliser, concevoir et gérer des bases de données répondants aux trois dimensions du big data : volume, vélocité, variété tout en prenant en compte les besoins.

[5.1] SQL vs NoSQL : présentation générale
  • Gestion des systèmes de base de données.
  • Modèle relationnel vs Modèle non relationnel.
  • Big data et NoSQL.
  • Cas d’études.
[5.2] Bases de données orientées colonne (BigTable, HyperTable, etc.)
  • Notions de base et concepts à maitriser.
  • Panorama actuel et tendances des acteurs stratégiques du marché.
  • De la requête au système cognitif – du texte à l’objet.
  • Technologies et Innovations : SAP HANNA, Hadoop, NoSQL, Cassandra,…
  • Applications : e-Commerce, Cas Client
  • What’s Next ? Regard dans les Labos.
[5.3] Solutions Open Source pour la gestion de données massives
  • Hadoop en tant que Data Operating System.
  • HDFS et MapReduce.
  • Spark en tant qu’Analytic Operating System
  • Analytiques avancées avec Apache Spark
Enseignants

Nathalie Peguero, Partner manager, Computacenter

Nathalie Peguero travaille dans le milieu informatique depuis presque 20 ans. Elle travaille dans la veille technologique et la montée en compétences des ingénieurs sales et des consultants avant-vente sur les produits infrastructure et nouveaux marchés. Elle pilote également le partenariat intel sur la France pour Computacenter.


Majd AISSAOUI

Victor Hatinguais, Big Data Architect, IBM Paris

Diplômé en informatique et en intelligence artificielle, Victor Hatinguais est spécialisé en Business Intelligence et Machine Learning. Après avoir été consultant Big Data chez Teradata, il travail aujourd'hui chez IBM sur des projets Big Data et Analytics sur des technologies telles que Hadoop BigInsights, Apache Spark et IBM Streams.

 

Langages et outils de programmation

BASES DE DONNÉES ET PROGRAMMATIONS AVANCÉES
Référence : PRO / Durée : 35 H / Crédits : 4 ECTS

La mise en œuvre des technologies des Big Analytics requiert de réelles compétences dans la programmation avancée. Quels sont les fondements de la programmation pour la mise en place d’algorithmes de traitement de grosses volumétries de données ? Quels sont les langages de programmation les plus adaptés aux Big data ?

À l’issue de l’UV 6, les étudiants seront en mesure de programmer en R et dans un autre langage (tel que Python ou Scala ou Java/JavaScript).

[6.1] Programmation R pour l’analyse décisionnelle en entreprise
  • Introduction au Logiciel R.
  • Apprentissage Statistique avancée avec R.
  • Introduction aux outils avancés et aux interfaces graphiques pour des projets data.
  • Implémenter du MapReduce avec R.
[6.2] Autres langages de programmation
  • Découverte du langage Scala.
  • Compilation Scala.
  • Python et librairies standards.
  • PySpark, scikit-learn, Panda, Anaconda.
[6.3] Indexation et Systèmes de Fichiers
  • Structures de données (list, graphe, tree, set, map…) (finalité, stockage) et format d’échange de données (XML, HTML, JSON, PDF).
  • Indexation de données (block sorted based indexing BSBI, single pass memory indexing SPMI, List memory indexing LMI, etc).
  • Introduction à la théorie du requettage.
  • Modèles de recherche d’information ; Configuration d’un moteur de recherche (ElasticSearch ou Solr).
Enseignants

Tony Kangni Agbeko, Fondateur, AKTuarial Consulting Ltd

Consultant Actuariel, Tony Kangni Agbeko est membre de l’Institut des Actuaires aux Royaume-Uni. Il est titulaire de Diplômes d’Etudes Supérieures Universitaires en Actuariat de l’Université de Kent et Cass Business School de Londres. Ses travaux de recherche incluent les modélisations stochastiques de provisionnement ainsi que le déploiement des méthodes avancées de tarification en assurance IARDT.

 

Martin Prillard, Data Scientiste, Talentoday

Ingénieur en informatique et système d'information, Martin Prillard est diplômé en data science de Télécom ParisTech. Il travaille aujourd'hui à Talentoday, une start-up en people analytics. Il intervient en tant que formateur Big Data dans plusieurs groupes de travail.

 

Victor Hatinguais, Big Data Architect, IBM Paris

Diplômé en informatique et en intelligence artificielle, Victor Hatinguais est spécialisé en Business Intelligence et Machine Learning. Après avoir été consultant Big Data chez Teradata, il travail aujourd'hui chez IBM sur des projets Big Data et Analytics sur des technologies telles que Hadoop BigInsights, Apache Spark et IBM Streams.

Intelligence artificielle en grande dimension

TRAITEMENT DE GRANDES MASSES DE DONNÉES 
Référence : ARI / Durée : 35 H / Crédits : 5 ECTS

Les approches d’intelligence artificielle connaissent un succès incontesté depuis de nombreuses années. Les géants du high-tech (tels que Apple, Facebook, Google, Microsoft) ainsi qu’un grand nombre de petites entreprises et de start-up à travers le monde l’utilisent pour développer leurs applications.
Cette UV couvre la résolution automatisée des problèmes complexes sur de grandes quantités de données. Les applications sont nombreuses et couvrent une large gamme de domaines tels que la recherche d’information, la recommandation sociale, la vision par ordinateur, la génomique, etc.

À l’issue de l’UV 7 les étudiants seront capables de mettre en œuvre des algorithmes d’intelligence artificielle pour le traitement de grandes masses de données. L’accent sera surtout mis à la fin de l’UV sur les approches émergentes des méthodes d’apprentissages (basées sur les réseaux de neurones par exemple) pour préparer les étudiants aux situations les plus complexes.

[7.1] Introduction au data mining
  • Clustering de données de grandes masses.
  • Principales approches de la classification.
  • Détection d’anomalie ou d’outliers.
  • Recherche de règle de corrélation ou d’association.
[7.2] Machine Learning avancée pour la production d’indicateurs
  • Introduction à l’apprentissage statistique (contexte et problématique).
  • Méthodes d’apprentissage linéaire (FLD, Régression, LASSO).
  • Séparateur à vastes marges et classification non-linéaire avec l’astuce du noyau.
  • Fléau de la dimension et méthodes d’apprentissage d’ensemble.
[7.3] Deep Learning and applications
  • Motivations et rappels sur le machine learning.
  • Présentation des neurones et réseaux neuronaux.
  • Entraînement des réseaux neuronaux : propagation avant et rétropropagation du gradient.
  • La descente de gradient stochastique.
  • Analyse de résultats et régularisation pour les réseaux neuronaux.
  • Les différents modèles de réseaux de neurones et leurs applications.
  • Cas d’usage : classification de données multimédia.
Enseignants

Cédric Carbone, Co-fondateur de Influans & NanoCloud

Entrepreneur spécialisé dans le Big Data, Cédric Carbone était le CTO de Talend (éditeur de logiciel leader dans le domaine du Big Data) depuis la création de la société jusqu’en décembre 2014. Il a créé et géré le département ingénierie qui compte près de 200 personnes réparties sur 3 continents en 2014. Il est maintenant Directeur Technique de Influans et NanoCloud.

 

Rémi Cogranne, Maître de conférences, Université de Technologies de Troyes

Rémi Cogranne est Ingénieur en Système d'Information et Télécommunication et titulaire d’un doctorat en Optimisation et Sûreté des Systèmes. Ses domaines de recherche concernent les aspects de sécurité des médias numériques et de détection statistique. Il enseigne plusieurs matières différentes en mathématiques et en informatique à l’UTT.

 

Nicolas Thiébaut, Data Scientist, Quantmetry

Titulaire d'un doctorat en physique théorique à l'Université Paris-Saclay, Nicolas Thiébaut a travaillé sur la modélisation des systèmes de physique statiques de grande dimension par des méthodes de diagonalisation numérique exacte et Monte-Carlo. Actuellement Data Scientist chez Quantmetry, il travaille sur des approches basées sur le machine learning et le deep learning. Il a été chargé de cours / TD en mathématiques et physiques à l'Université Paris-Saclay.


Gilles NOBLET

 

Traitements Distribués

TRAITEMENT DE GRANDES MASSES DE DONNÉES
Référence : TRD / Durée : 35 H / Crédits : 4 ECTS

Le calcul distribué a longtemps été utilisé comme une simple technique d’optimisation des calculs pour faire face au problème de réduction de la complexité algorithmique. Aujourd’hui, il apparaît être une étape incontournable tout aussi dictée par la finalité que par la configuration intrinsèque des données et le modèle des traitements. D’autre part, il est important que les étudiants comprennent, lorsque le cas se présente, le compromis entre traitements centralisés et traitements distribués.

À l’issue de cette UV, après avoir appris à différentier les compromis qui peuvent être faits entre le mode centralisé et le mode décentralisé, les étudiants seront en mesure de :

  1. reconnaître les cas qui peuvent être implémentés avec Hadoop,
  2. comprendre comment mettre en œuvre le MapReduce,
  3. écrire des programmes MapReduce sur des cas concrets
[8.1] Résolution distribuée des problèmes complexes
  • Intelligence artificielle distribuée et systèmes multi-agents.
  • Résolution distribuée avec des algorithmes de colonies de fourmis.
  • Résolution distribuée avec une approche cognitive.
  • Internet des Objets : Fog Computing VS Cloud computing.
[8.2] Parallélisations en haute dimension
  • Les concepts du calcul parallèle.
  • L’architecture physique des machines pour le calcul parallèle.
  • Calcul distribué multi-processeurs.
  • Calcul distribué multi-machines.
[8.3] Hadoop & MapReduce par la pratique
  • L’écosystème d’Hadoop.
  • HDFS, le système de fichier distribué.
  • Introduction à la théorie du requettage.
  • Les modèles de calculs distribué d’Hadoop M/R, Spark, Flink…
  • Cas Pratiques.
Enseignants

Leïla Merghem-Boulahia, Maître de conférences, Université de Technologies de Troyes

Leïla Merghem-Boulahia est titulaire d’un doctorat en informatique de l’université de Paris 6 et d’une Habilitation à Diriger des Recherches en informatique de l'Université de Compiègne. Ses principaux thèmes de recherche concernent la gestion de la qualité de service dans les réseaux, les systèmes multi-agents et les smart-grids. Elle travaille aussi sur les traitements distribués.

 

Charly Clairmont, Co-fondateur, Synaltic

Spécialisé dans l’information décisionnelle, Charly Clairmont a fait ses armes avec les startups d’Internet du début des années 2000. Après un passage à Capgemini, il monte en 2004 Altic qui devient Synaltic, dédié au management de la donnée. Il a assuré de nombreuses formations au sein des Universités Paris 6 et Paris 13. Il est co-fondateur des groupes Hadoop User Group France et le Paris Spark Meetup.

Information Retrieval(Extraction d’Information)

BIG ANALYTICS ET VISUALISATION DÉCISIONNELLE
Référence : IRT / Durée : 35 H / Crédits : 5 ECTS

La taille et la complexité des données (générées par l’activité humaine et technologique) croissent de plus en plus rapidement. Le développement d’approches innovantes pour l’extraction d’information pertinente dans le flow (continue) de données est un axe incontournable du cycle de l’information pour une entreprise innovante.

À l’issue de cette UV, les étudiants seront capables de mettre en œuvre les techniques d’extraction d’information intrinsèques ou par recoupement et interconnexion.

[9.1] Knowledge discovery
  • Base de la modélisation par graphes.
  • Optimisation dans les graphes.
  • Stratégies de classements et référencement sur le web (PageRank, Hits, Salsa).
  • Clustering de grands graphes (cas statiques et dynamiques).
[9.2] Outils pour la visualisation de tendances en grandes dimensions
  • Introduction à la visualisation d’informations.
  • Données multivariées.
  • Représentation de données en grandes dimensions.
  • Graphe et réseaux.
  • Fouille de texte et visualisations.
[9.3] Enrichissement de données et calcul d’indicateurs
  • Principes de l’enrichissement de données.
  • Exploitation des « métadonnées » (approche amont).
  • Entraînement des réseaux neuronaux : propagation avant et rétropropagation du gradient.
  • Enrichissement par inférence.
  • Hybridation d’indicateurs (techniques avales).
  • Cas d’étude.
[9.4] Interconnexion et visualisation de graphes sociaux distribués
  • Théorie et analyse de graphes.
  • Open-source intelligence (OSINT) et API.
  • Interconnexion de graphes sociaux distribués.
  • Visualisation.
Enseignants

Andréa Cynthia Santos Duhamel, Enseignant-chercheur, Université de Technologie de Troyes

Andréa Cynthia Santos Duhamel est Docteur en Informatique de l’Université PUC-Rio, Brésil en Algorithmique, Optimisation et Parallélisme. Elle travaille sur des approches de graph mining. Ses recherches actuelles portent sur l’optimisation dans les systèmes complexes. Elle coordonne des projets pluridisciplinaires traitant des problématiques de gestion de grand volumes de données.

 

Babiga Birregah, Enseignant-chercheur, Université de Technologie de Troyes

Enseignant-Chercheur au sein du pôle Recherche Opérationnelle, Statistiques Appliquées et Simulation, Babiga Birregah travaille sur la modélisation des systèmes dynamiques et sur l’analyse de flux de données par des approches de type data mining et graphes spatio-temporels. Ses domaines d'application concernent l’analyse des réseaux sociaux, la résilience des systèmes sociotechniques et l'intégration de grand flux de données provenant de capteurs hétérogènes.

 

Martin Prillard, Data Scientiste, Talentoday

Ingénieur en informatique et système d'information, Martin Prillard est diplômé en data science de Télécom ParisTech. Il travaille aujourd'hui à Talentoday, une start-up en people analytics. Il intervient en tant que formateur Big Data dans plusieurs groupes de travail.

Visualisation Dynamique

BIG ANALYTICS ET VISUALISATION DÉCISIONNELLE 
Référence : DYN / Durée : 35 H / Crédits : 4 ECTS

Aussi contradictoire que cela puisse paraître, le jugement humain reste au centre d’une analyse de données réussie. Il est aujourd’hui admis que sans des outils qui s’appuient sur la cognition humaine, les approches automatiques n’ont pas de réelle valeur ajoutée. Or, très souvent les représentations des données (ou des indicateurs extraits) perdent leur dimension dynamique après les traitements. Il s’agit de ne pas perdre la dimension dynamique au passage de la donnée brute à sa représentation et offrir ainsi à l’utilisateur une visualisation temps-réel.

À l’issue de cette UV, les étudiants seront capables de capturer la variabilité intrinsèque des données cibles pour les restituer lors de la visualisation.

[10.1] Visualisation interactive
  • Introduction à la visualisation interactive.
  • Modes de représentation dynamique.
  • Introduction à la visualisation temps-réel.
  • Logiciels open source pour la visualisation dynamique.
  • Étude de cas.
[10.2] Analyse et visualisation spatio-temporelles
  • Mode de représentation des big data : graphiques, time series, réseaux, cartographies.
  • Techniques et Algorithmes pour la représentation.
  • Géographie et big data.
  • Type de représentation et adéquation aux objectifs.
  • Étude de cas.
[10.3] Scalable Multimedia Analytics
  • Extraction de descripteurs bas niveau.
  • Outils de visualisation et de représentation de contenus multimédia.
  • Management de bases de données multimédia.
  • Analyse vidéo (détection, tracking, reconnaissance de formes).
  • Analyse vidéo avancée (analyse sémantique, reconnaissance de situations).
Enseignants

AMADOU B. Habiboulaye

 

Christophe Courtois, Président, SûretéGlobale.Org

Christophe Courtois est expert judiciaire en informatique et cybercriminalité auprès de la Cour d’Appel d’Angers. Il a contribué à la création du master Intelligence Economique à l’université d’Angers et de l’Euromaster Chef de Projet Informatique et Telecoms de la CCI. SûretéGlobale édite et commercialise le logiciel d'analyse statistique et de prédictions spatio-temporelles Map Revelation.

 

Hichem Snoussi, Professeur des Universités, Université de Technologie de Troyes

Hichem Snoussi est ingénieur Supélec et titulaire d’un doctorat de l'Université Paris-Sud. Ses activités de recherche comprennent le traitement statistique de signal et de l'image, la géométrie de l'information et les techniques d'estimation/décision décentralisées dans les réseaux de capteurs sans fil, avec applications en sécurité et sûreté des systèmes. Il est responsable de la plateforme CapSec (Capteurs pour la sécurité) et co-fondateur de Track&Catch.