Skip to content

Commit

Permalink
Built site for gh-pages
Browse files Browse the repository at this point in the history
  • Loading branch information
Quarto GHA Workflow Runner committed Jan 15, 2025
1 parent d3e9202 commit 157a491
Show file tree
Hide file tree
Showing 5 changed files with 17 additions and 17 deletions.
2 changes: 1 addition & 1 deletion .nojekyll
Original file line number Diff line number Diff line change
@@ -1 +1 @@
a15b06a7
5b1288e5
2 changes: 1 addition & 1 deletion chapters/chapter3/3-guide_usage_GB.html
Original file line number Diff line number Diff line change
Expand Up @@ -495,7 +495,7 @@ <h2 data-number="1.2" class="anchored" data-anchor-id="sec-hyperparam-gb"><span
</section>
<section id="sec-procedure-training-gb" class="level2" data-number="1.3">
<h2 data-number="1.3" class="anchored" data-anchor-id="sec-procedure-training-gb"><span class="header-section-number">1.3</span> Comment entraîner un algorithme de <em>gradient boosting</em>?</h2>
<p>Proposer une procédure pour l’optimisation des hyperparamètres s’avère plus délicat pour le <em>gradient boosting</em> que pour les forêts aléatoires, pour deux raisons. D’une part, les algorithmes de <em>gradient boosting</em> comprennent un nombre beaucoup plus élevé d’hyperparamètres. D’autre part, la littérature méthodologique sur l’usage pratique des algorithmes de <em>gradient boosting</em> reste assez limitée et peu conclusive (en-dehors des nombreux tutoriels introductifs disponibles sur internet). Un constat semble néanmoins bien établi: <strong>contrairement aux forêts aléatoires, les valeurs par défaut des hyperparamètres des implémentations ne constituent pas un point de départ raisonnable</strong> (<span class="citation" data-cites="bentejac2021comparative">Bentéjac, Csörgő, and Martínez-Muñoz (<a href="#ref-bentejac2021comparative" role="doc-biblioref">2021</a>)</span>), en particulier pour les hyperparamètres de régularisation dont la valeur par défaut est nulle.</p>
<p>Proposer une procédure pour l’optimisation des hyperparamètres s’avère plus délicat pour le <em>gradient boosting</em> que pour les forêts aléatoires, pour deux raisons. D’une part, les algorithmes de <em>gradient boosting</em> comprennent un nombre beaucoup plus élevé d’hyperparamètres. D’autre part, la littérature méthodologique sur l’usage pratique de ces algorithmes reste assez limitée et peu conclusive (en-dehors des nombreux tutoriels introductifs disponibles sur internet). Un constat semble néanmoins bien établi: <strong>contrairement aux forêts aléatoires, les valeurs par défaut des hyperparamètres des implémentations ne constituent pas un point de départ raisonnable</strong> (<span class="citation" data-cites="bentejac2021comparative">Bentéjac, Csörgő, and Martínez-Muñoz (<a href="#ref-bentejac2021comparative" role="doc-biblioref">2021</a>)</span>), en particulier pour les hyperparamètres de régularisation dont la valeur par défaut est souvent nulle.</p>



Expand Down
Binary file modified pdf/dt_methodes_ensemblistes.pdf
Binary file not shown.
4 changes: 2 additions & 2 deletions search.json

Large diffs are not rendered by default.

26 changes: 13 additions & 13 deletions sitemap.xml
Original file line number Diff line number Diff line change
Expand Up @@ -2,54 +2,54 @@
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter3/2-guide_usage_RF.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.062Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter3/0-intro.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/4-boosting.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/2-bagging.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/0-intro.html</loc>
<lastmod>2025-01-15T18:39:43.236Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter1/1-survol.html</loc>
<lastmod>2025-01-15T18:39:43.236Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/index.html</loc>
<lastmod>2025-01-15T18:39:43.240Z</lastmod>
<lastmod>2025-01-15T18:40:46.064Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter1/2-comparaison_GB_RF.html</loc>
<lastmod>2025-01-15T18:39:43.236Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/1-CART.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/3-random_forest.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter2/ajouts_boosting.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter3/1-preparation_donnees.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.061Z</lastmod>
</url>
<url>
<loc>https://github.com/inseefrlab/DT_methodes_ensemblistes/chapters/chapter3/3-guide_usage_GB.html</loc>
<lastmod>2025-01-15T18:39:43.237Z</lastmod>
<lastmod>2025-01-15T18:40:46.062Z</lastmod>
</url>
</urlset>

0 comments on commit 157a491

Please sign in to comment.