You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Ce tutoriel a pour objectif de vous permettre de découvrir de nouveaux algorithmes de classifications supervisées. Il s'intéresse aux K plus proches voisins, à la méthode par arbres et à la méthode par de la forêt aléatoire.
63
+
Ce tutoriel a pour objectif de vous permettre de découvrir de nouveaux algorithmes de classifications supervisées. Il s'intéresse aux K plus proches voisins, à la méthode par arbres et à la méthode de la forêt aléatoire.
65
64
66
65
Ces trois méthodes vont s'ajouter à l'analyse discriminante linéaire que vous avez découverte dans le premier module du cours de SDD III. Toutes ces méthodes font partie de votre boite à outils de la classification supervisée. Employez la méthode la plus judicieuse en fonction du contexte. Il est même conseillé de les tester et de les comparer afin de proposer le classifieur le plus efficace.
67
66
@@ -78,7 +77,7 @@ Le package {mlearning} permet d'utiliser une interface similaire pour chaque mé
78
77
79
78
## Explorer les données
80
79
81
-
Les données employées dans ce tutoriel sont associées à l'article : ["Classification of Rice Varieties Using Artificial Intelligence Methods"](https://doi.org/10.18201/ijisae.2019355381). N'hésitez pas à consulter cet article pour en apprendre davantage sur ces données.
80
+
Les données employées dans ce tutoriel sont associées à l'article : ["The use of machine learning methods in classification of pumpkin seeds (Cucurbita pepo L.)"](https://doi.org/10.1007/s10722-021-01226-0). N'hésitez pas à consulter cet article pour en apprendre davantage sur ces données.
@@ -98,10 +97,9 @@ C'est à vous d'explorer ce tableau. Vous avez la possibilité de réaliser tous
98
97
99
98
## Préparer le set d'apprentissage et le test
100
99
101
-
Réalisez le set d'apprentissage et le set de test. 80% des observations vont servir à entrainer le classifieur et 20% pour évaluer le classifieur. Le tableau de données se nomme `pumpkins`. Utilisez les fonctions dédiées à la création des sets d'apprentissage et de test `initial_spit()`, `training()`, `testing()` du package {rsample}.
100
+
Réalisez le set d'apprentissage et le set de test. 80% des observations vont servir à entrainer le classifieur et 20% pour évaluer le classifieur. Le tableau de données se nomme `pumpkins`. Utilisez les fonctions dédiées à la création des sets d'apprentissage et de test `initial_spit()`, `training()`, `testing()`.
102
101
103
102
```{r split_h2, exercise = TRUE}
104
-
library(rsample)
105
103
set.seed(101121) # Générateur de nombres pseudo-aléatoires
106
104
pumpkins_split <- initial_split(___, prop = ___)
107
105
pumpkins_split
@@ -112,7 +110,6 @@ pumpkins_test <- ___(___)
112
110
```
113
111
114
112
```{r split_h2-hint-1}
115
-
library(rsample)
116
113
set.seed(101121) # Générateur de nombres pseudo-aléatoires
117
114
pumpkins_split <- initial_split(___, prop = ___)
118
115
pumpkins_split
@@ -125,7 +122,6 @@ pumpkins_test <- ___(___)
125
122
```
126
123
127
124
```{r split_h2-solution}
128
-
library(rsample)
129
125
set.seed(101121) # Générateur de nombres pseudo-aléatoires
## Attention, le prochain indice est la solution ##
164
160
```
@@ -217,15 +213,6 @@ grade_code("Bien joué ! Vous avez calculé les métriques des trois modèles. V
217
213
218
214
```{r qu_algo}
219
215
quiz(
220
-
question("Quel classifieur permet d'avoir le meilleur taux de reconnaissance global ?",
221
-
answer("Les K plus proches voisins"),
222
-
answer("Le partitionnement récursif"),
223
-
answer("La forêt aléatoire", correct = TRUE),
224
-
allow_retry = TRUE,
225
-
submit_button = "Soumettre une réponse",
226
-
try_again_button = "Resoumettre une réponse",
227
-
incorrect = "Mauvaise réponse. Recommencez et analysez les métriques des trois classifieurs.",
228
-
correct = "Bravo, c'est correct !"),
229
216
question("Quel est la valeur du taux de vrais positifs pour le groupe des Cercevelik obtenu via le classifieur utilisant les k plus proches voisins ?",
0 commit comments