202
Chapitre 7
Nous construirons plusieurs estimateurs et discuterons de leurs mérites respectifs, sur les plans théorique et computationnel. La construction de l’estimateur le plus subtil relèvera de l’apprentissage ciblé, au croisement du machine learning (nous conserverons l’expression anglaise plutôt que d’adopter l’une de ses traductions françaises, apprentissage automatique ou apprentissage machine) et du semi-paramétrique, la théorie statistique de l’inférence fondée sur les modèles semi-paramétriques.
7.1.2
Le package tlrider
Diverses notions seront illustrées et computationnellement incarnées grâce au package tlrider développé spécifiquement dans le langage R [R Core Team, 2020]1 . Le package peut être installé en exécutant le code suivant : #> devtools::install_github("achambaz/tlride/tlrider") D’autres packages sont également requis, dont tidyverse [Wickham et Grolemund, 2016] et caret [Kuhn, 2020]. En supposant que ceux-ci sont installés aussi, nous les chargerons puis nous limiterons aussi l’affichage des nombres à trois décimales en exécutant le code suivant : #> #> #> #>
library(tidyverse) library(caret) library(tlrider) options(digits=3)
7.1.3
Plan
Relevant toujours de l’introduction, la section 7.1.4 lève le rideau sur le package tlrider et, en particulier, sur la loi synthétique qui servira à illustrer numériquement les développements théoriques à venir. La section 7.2 introduit le paramètre d’intérêt, en commente la nature et argumente qu’il est bénéfique de le considérer comme la valeur prise par une fonctionnelle statistique Ψ lorsqu’évaluée en la loi de l’expérience d’intérêt. Les sections 7.3 et 7.4 discutent des notions de fluctuation, de régularité et de double robustesse attachées à Ψ, et de quelques unes de leurs implications statistiques. La section 7.5 ouvre le bal des sections consacrées au développement d’estimateurs de plus en plus sophistiqués et performants. La section 7.6 discute une stratégie inférentielle simple supposant que l’on connaît a priori un certain trait de la loi de l’expérience. La section 7.7 introduit la notion de paramètres de nuisance associés à Ψ et propose une formalisation et une pratique algorithmique de leur apprentissage. La section 7.8 présente et commente les stratégies inférentielles inverse 1 Les expériences étant aléatoires, certains résultats obtenus en exécutant ces codes d’exemple pourront différer de ceux présents dans ce chapitre.