Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page vous invite à répondre à une série d'exercices à choix multiples sur le contenu abordé dans l'unité "Entraînement des arbres de décision".
Question 1
Quels sont les effets du remplacement des caractéristiques numériques par leurs valeurs négatives (par exemple, en remplaçant la valeur +8 par -8) avec le séparateur numérique exact ?
Les mêmes conditions seront apprises. Seuls les enfants positifs/négatifs seront modifiés.
Magnifique.
Différentes conditions seront apprises, mais la structure globale de l'arbre de décision restera la même.
Si les fonctionnalités changent, les conditions changent également.
La structure de l'arbre de décision sera complètement différente.
La structure de l'arbre de décision sera à peu près la même. Les conditions changeront toutefois.
Question 2
Quelles sont les deux réponses qui décrivent le mieux l'effet de ne tester que la moitié (sélectionnée au hasard) des valeurs de seuil candidates dans X ?
Le gain d'information serait supérieur ou égal.
Le gain d'information serait inférieur ou égal.
Bravo !
La précision des tests de l'arbre de décision final serait alors moins bonne.
L'arbre de décision final n'aurait pas une meilleure justesse d'entraînement.
Bravo !
Question 3
Que se passerait-il si la courbe "gain d'information" par rapport au "seuil" présentait plusieurs maxima locaux ?
Il est impossible d'avoir plusieurs maxima locaux.
Plusieurs maxima locaux sont possibles.
L'algorithme sélectionnerait les maxima locaux avec la valeur de seuil la plus faible.
L'algorithme sélectionnerait la valeur maximale globale.
Bravo !
Question 4
Calculez le gain d'information de la division suivante:
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/02/25 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/02/25 (UTC)."],[[["This webpage presents a series of multiple-choice exercises focused on evaluating your understanding of decision tree training concepts."],["The exercises cover topics such as the impact of feature manipulation on decision tree structure, the effects of altering threshold selection strategies, and the implications of multiple local maxima in information gain curves."],["One question requires calculating information gain using entropy and provided data, demonstrating the practical application of decision tree principles."]]],[]]