[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"Missing the information I need"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"Too complicated / too many steps"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"Out of date"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"Translation issue"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"Samples/Code issue"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"Other"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"Easy to understand"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"Solved my problem"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"Other"
}]
Régularisation à des fins de parcimonie
Ce module porte sur les exigences particulières des modèles entraînés à l'aide de
vecteurs de caractéristiques comportant un grand nombre de dimensions.
Régularisation à des fins de parcimonie
Rappel sur les croisements de caractéristiques
Mise en garde : Les croisements de caractéristiques creuses peuvent provoquer une augmentation considérable de l'espace de caractéristiques.
Problèmes potentiels :
Le modèle peut devenir immense et nécessiter une grande quantité de RAM.
Les coefficients sont "bruités" (risque de surapprentissage).
Régularisation L1
Désir de pénaliser la norme L0 des pondérations
Optimisation non convexe NP-dure
Régularisation L1
Désir de pénaliser la norme L0 des pondérations
Optimisation non convexe NP-dure
Recours à la régularisation L1, plus souple :
Pénalisation de la somme des abs(pondérations)
Problème convexe
Méthode favorisant la parcimonie, contrairement à L2