addia - analyse de données apprentissage ia (X. Luciani)

Dans la première partie du cours (27h) nous présenterons les principaux problèmes d'apprentissage machine : représentation, modélisation, classification et régression ainsi qu'une sélection de méthodes, des plus simples aux plus avancées.La seconde partie (18h) sera consacrée à l'apprentissage profond (réseaux de neurones.)

optim - calcul distribué optimisation (X. Luciani)

Le cours se déroule en trois parties: Méthodes d'optimisation déterministes, optimisation stochastique, calcul distribué.

Java et Android (N. Thirion Moreau)

Pour la partie JavaIntroduction puis présentation des IDE utilisés en TP (Eclipse et Android Studio et installation de plug-in)Présentation du cœur de l’interface de programmation (API Java) : bibliothèque JFC, hiérarchie et packages de classes. Structures fondamentales de la POO en Java : classes et instanciation d’objets, héritage, création d’interface, classes anonymes et classes internes, données membres, méthodes, constructeurs, tableaux, opérateurs, instructions de contrôle, exceptions, consignation, collections. Programmation graphique et conception des IHM en Java en s’appuyant sur les ``GUI toolkit’’ SWING ou JavaFX. Composants de l’interface utilisateur : containers/composants/ gestion des événements (listeners d’écoute, classes adapter). Principes de la programmation multithread. Pour Android : - Brève introduction puis présentation de l’architecture d’Android. Configuration et lancement de l’émulateur virtuel (Android Virtual Device ou AVD) ou utilisation de l’Android Debug Bridge (ADB) pour le déploiement des applications sur téléphone -     Introduction au langage de balisage XML, puis détail de la structure des applications Android (manifest.xml, ressources, layouts, etc.…) et principaux composants impliqués (cycle de vie des Activités, fournisseurs de contenus, Services etc…) de même que les éléments d’interaction (Intents, Récepteurs, Notifications, etc…). -     Passage à la conception d’interfaces utilisateur conviviales et interactives (Vues, Widgets (bouton, texte, images, etc.)) tout en apprenant à définir des composants d’interface en XML. Gestion des événements, notifications et toasts, conception de menus, de boites de dialogue, création de listes. -     Utilisation des capteurs (boussole, accéléromètre, GPS, service de géolocalisation, caméra, appareil photo, magnétophone) -     Utilisation des services de téléphonie & SMS et de communication (Bluetooth et WIFI).

Analyse Avancée de signaux - Temps-fréquence (N. Thirion-Moreau)

Ce cours porte sur les approches non paramétriques i.e. distributions temps-fréquence et temps-échelle linéaires et bilinéaires ou quadratiques, pour l’analyse avancée et la caractérisation des signaux déterministes non stationnaires. On présente aussi des généralisations aux signaux aléatoires (spectres temps-fréquence). On commence par des rappels généraux sur les outils de description temporelle et fréquentielle des signaux (énergie d’un signal, corrélation, etc…). Les notions de fréquence instantanée et de retard de groupe sont ensuite introduites au moyen du signal analytique. Après avoir montré leurs limites, on introduit des représentations bidimensionnelles : les représentations temps-fréquence et temps-échelle linéaires (Transformée de Fourier à Court-Terme, Transformée de Gabor, Transformée en Ondelettes). On détaille ensuite les distributions quadratiques et bilinéaires, en commençant par présenter les différentes classes de solutions / différentes propriétés d’invariance (classe de Cohen, classe Affine, classe par Corrélation, etc.). Puis on présente quelques-unes des méthodes les plus connues : Transformation de Wigner et de Wigner-Ville et ses versions lissées (Pseudo Wigner-Ville et Pseudo Wigner-Ville lissée), Scalogramme, Spectrogramme, distribution de Choï-Williams, fonction d’Ambiguïté. On traite ensuite des principales propriétés, avantages et inconvénients de ces méthodes. 

SeaTech - Introduction au Deep Learning (RP Pinon Marxer)

Cette formation introduit les concepts fondamentaux des approches d'apprentissage automatiques dites "Deep Learning" (DL). Le cours fera une révision des bases mathématiques des réseaux des neurones et leur entraînement (e.g. Multi-layer Perceptron, descente de gradient stochastique, l'algorithme de back propagation), ainsi que les méthodes et techniques plus utilisés (e.g. régularisations,  fonctions activations, fonctions de coût, opérations, paradigmes d'apprentissage et topologies). Le cours présentera également quelques outils disponibles pour faciliter l'implantation et utilisation des réseaux des neurones (e.g. TensorFlow ou PyTorch) et centrera les travaux pratiques sur certains aspectes d’usage et applications du DL (e.g. transfert d'apprentissage, apprentissage non-supervisé, interprétation, exemples adversaires ou l’apprentissage sur des séquences).