v2.11.0 (5380)

Cours courts - MAP433 : Statistiques

Domaine > Mathématiques appliquées.

Descriptif

Cet enseignement a trois objectifs. Le premier objectif est d'introduire les outils de statistique mathématique et d'apprentissage statistique ("machine learning"). Nous décrirons toutes  depuis le choix d'un modèle statistique, l'estimation des paramètres et l'inférence et le choix de modèles. Nous apprendrons à construire des estimateurs, des tests, des règles de classification, à évaluer les performances de ces règles. Nous introduirons un certain nombre d'outils théoriques - théorie de la décision, processus empirique-. Les deux derniers cours seront consacrés à une introduction à l'apprentissage statistique. Le deuxième objectif est de décrire, dans le cours et dans les petites classes, des exemples concrets de modélisation dans divers domaines (traitement du signal et des images, économétrie, sciences de l'environnement, classification de formes etc.). Le troisième objectif est de développer un savoir-faire pratique fondé  permettant de comprendre la façon dont  les outils théoriques peuvent être mis en oeuvre dans des applications concrètes (utilisation de R ou de Python).


Modalités d'évaluation : Contrôle de connaissances (écrit), deux DM, deux quizzes


Langue du cours : Français

Credits ECTS : 5

35 heures en présentiel (10 blocs ou créneaux)

100 heures de travail personnel estimé pour l’étudiant.

Diplôme(s) concerné(s)

Parcours de rattachement

Format des notes

Numérique sur 20

Littérale/grade réduit

Pour les étudiants du diplôme Diplôme d'ingénieur de l'Ecole polytechnique

Le rattrapage est autorisé
    L'UE est acquise si note finale transposée >= C
    • Crédits ECTS acquis : 5 ECTS

    Le coefficient de l'UE est : 10

    La note obtenue rentre dans le calcul de votre GPA.

    La note obtenue est classante.

    Programme détaillé

    Programme prévisionnel (en 10 séances de 1h30 chacune)

    1. Introduction aux modèles statistiques 
    2. Méthodes d'estimation: méthodes des moments, M-estimateurs, Z-estimateurs, maximum de vraisemblance, modèle linéaire et moindres carrés. 

    3. Construction des tests: problème, risque de 1ère et 2nde espèce, construction de tests classiques (tests de Fisher, de Student), p-valeur d'une famille de tests, liens avec les intervalles de confiance

    4. Décision statistique: perte, risque, optimalité. Application à l'estimation sans biais: bornes inférieures du risque quadratique (borne de Cramér-Rao), efficacité au sens de Fisher. 

     
    5. Décision statistique et tests. Points de vue non-asymptotique, Neyman-Pearson, p-valeur et lien avec les intervalles de confiance.

    6. Introduction à la statistique asymptotique: rappel des différents modes de convergence, loi des grands nombres et théorème de limite centrale (conditions de Lindeberg-Levy pour les tableaux), méthode-delta et applications pour la construction d'intervalles de confiance

    7. Théorie asymptotique des M-estimateurs et Z-estimateurs (consistance et normalité asymptotique). Notion d'efficacité asymptotique et ses limites.

    8. Tests asymptotiques. Convergence d'un test, tests de modèles (Wald, Rao, rapports de vraisemblances généralisés), tests d'adéquations à un modèle paramétrique, test du Chi-deux.

    9. Introdution à l'apprentissage statistique: règle de classifications (perceptron, réseaux de neurones), probabilité d'erreur, minimisation du risque empirique, théorie PAC 

    10. Théorie de Vapnik-Chernovenkis: contrôle du risque empirique, dimension de Vapnik-Chervonenkis (VC), calcul des dimensions VC (perceptron, réseaux de neurones), applications au choix de classes de règles de classification

     

    Veuillez patienter