La langue française

Surapprentissage

Sommaire

  • Définitions du mot surapprentissage
  • Étymologie de « surapprentissage »
  • Phonétique de « surapprentissage »
  • Citations contenant le mot « surapprentissage »
  • Traductions du mot « surapprentissage »

Définitions du mot surapprentissage

Wiktionnaire

Nom commun

surapprentissage \syʁ.a.pʁɑ̃.ti.saʒ\ masculin

  1. Variante orthographique de sur-apprentissage.
    • Tous les sujets qui ont eu le premier apprentissage réussissent mieux au second que le groupe contrôle ; mais s’ils ont appris une réponse explicite, il faut qu’il y ait eu surapprentissage pour qu’un effet important soit noté […] — (Philosophie, sciences humaines, volume 14, Centre national de la recherche scientifique (France), 1960)
    • La capacité prédictive des SVM est élevée. Nous verrons plus loin que le risque de biais de surapprentissage qui paraît élevé, est maitrisé par la maximisation de la marge, à condition de ne pas chercher nécessairement une séparation parfaite dans Φ(E). — (Gilbert Saporta, Probabilités, analyse des données et statistique, 2006)
Wiktionnaire - licence Creative Commons attribution partage à l’identique 3.0

Étymologie de « surapprentissage »

 composé de sur et de apprentissage.
Wiktionnaire - licence Creative Commons attribution partage à l’identique 3.0

Phonétique du mot « surapprentissage »

Mot Phonétique (Alphabet Phonétique International) Prononciation
surapprentissage syraprɑ̃tisaʒ

Citations contenant le mot « surapprentissage »

  • « Il y a une longue liste d’éditeurs qui s’efforcent de permettre à une personne sans expertise en statistique ou en code, de charger un jeu de données et de simplement sélectionner une valeur cible à prédire. Leurs outils traitent ensuite automatiquement les données, analysent leurs attributs, essayent différents algorithmes, les valident pour s’assurer qu’il n’y a pas de surapprentissage, et les classent selon leur degré de précision », explique Kjell Carlsson, analyste chez Forrester. « Certains vous donnent la possibilité de choisir un indicateur particulier de performance et parfois ils vous laissent même déployer le modèle en production ». LeMagIT, Pistes pour comparer les outils d’analytiques avancées
  • Pour Didier Gaultier, l'erreur des nouveaux venus en IA consiste à choisir un algorithme complexe en espérant obtenir en retour une précision maximale. Vladimir Vapnik l'a pourtant théorisé : la complexité d'un algorithme se fait souvent au détriment de sa robustesse, à savoir sa capacité à produire des résultats probants sur la durée. Le mathématicien russe en déduit qu'il faut adapter la complexité de l'algorithme à celle des données en entrée. Si on retient un algorithme trop complexe pour un jeu de données simples, il renverra des résultats faux. On parle alors de surapprentissage (ou overfitting). Le modèle se noie dans les détails, et perd sa capacité de généralisation. "Pour éviter ce surapprentissage, de deux choses l'une : soit on change de modèle, soit on arrête le processus de learning suffisamment tôt", conseille Aziz Cherfaoui. Et Didier Gaultier d'ajouter : "plus l'algorithme est complexe et plus la phase d'apprentissage sera longue. Un A380 a besoin d'une piste de décollage plus longue qu'un A320." , 7 conseils clés pour bâtir une IA séduisante
  • Et c'est ainsi que tu tombes dans le piège du surapprentissage. Si je te fournis une 21ème observation, il y a de grandes chances que ton modèle me fasse une prédiction pire (en termes d'erreur) que le polynôme de degré 0. Pire encore : si je refais mon étude sur 20 autres personnes, tes 20 paramètres seront totalement différents et tes prédictions n'auront rien à voir ! Alors que le modèle linéaire, lui, sera vraisemblablement peu différent2. , Des virus et des hommes - LinuxFr.org
  • Le pooling permet quant à lui de réduire la taille d’une image en n’en conservant que les pixels les plus importants. Cela a pour effet de déformer l’image en perdant le positionnement précis des pixels. Cet effet est en fait bénéfique, puisqu’il permet de limiter les risques de surapprentissage. A titre d’exemple, un système de détection des visages aura tout intérêt à apprendre qu’un visage est constitué de deux yeux, d’un nez et d’une bouche, mais il est préférable qu’il n’apprenne pas par coeur l’espacement au pixel près entre ces différents éléments du visage, puisque leur position peut varier d’une personne à l’autre. Il existe d’autres techniques que le pooling, notamment amenées par les capsule Networks, nouvelle technique qui ne sera pas abordée dans le cadre de ce tutoriel sur les réseaux convolutifs. Actu IA, Comprendre les réseaux de neurones convolutifs - Actu IA
  • Cette mémoire fabrique des images mentales durables, mais reconstruites. Donc fixer un schéma ou une carte de géographie pour les photographier est une illusion totale. La meilleure méthode est l’apprentissage multi-essais. Par exemple, vous apprenez en répétant les mots de la carte pendant une minute, puis vous reproduisez sur une feuille la réponse sans regarder le modèle ; puis vous réapprenez pour un deuxième essai pendant une minute la carte, et ainsi de suite jusqu’à reproduction parfaite. On parle de surapprentissage lorsque le critère de reproduction est plus difficile, par exemple trois essais consécutifs sans erreur. Le surapprentissage est plus sûr pour réussir, évidemment. Le Monde.fr, Optimiser sa mémoire pour bien réviser
  • Si tu fais du surapprentissage, rajouter des features ne va pas résoudre le problème, au contraire. Le sur-apprentissage peut venir soit d'un modèle trop complexe par rapport à la réalité (comme sur ton image), soit du fait que des données de train ne sont pas représentatives de l'univers (problème de sampling, donc). Dans ton cas, comme tu utilises un classifieur linéaire, c'est difficilement lui qui peut être mis en cause. De plus, sa complexité est directement liée à la dimension des features (théorie de Vapnik), et rajouter des features va amplifier le phénomène plutôt que le corriger. , Prédire la note d’un journal sur LinuxFr.org - LinuxFr.org
  • En examinant l’importance des fonctionnalités, vous pouvez choisir les fonctionnalités à supprimer, car elles ne contribuent pas assez (voire parfois rien) au processus de prévision. Ceci est important car une règle générale en apprentissage machine est que plus vous avez de fonctionnalités, plus votre modèle risque de souffrir d'un surapprentissage, et inversement. Miroir Mag, L'algorithme de forêt aléatoire: un guide complet - Miroir Mag
  • Le même processus joue pour le trouble obsessionnel-compulsif. Dans un premier temps, se développent des obsessions, le plus souvent suite à des tentatives de repousser des idées intrusives angoissantes ou culpabilisantes [9]. À la différence de la personne délirante, celle qui subit des obsessions reconnaît que ces pensées – qu’elle ne souhaite aucunement – émanent de sa propre activité mentale. Elle essaie de fuir ou d’éviter des catastrophes imaginées ou très peu probables. Elle adopte des réactions analogues à celle du rat qui appuie sur le levier dès qu’il entend le signal de douleur. Ainsi la mère, qui a peur de contaminer son enfant, évite de le toucher ou se lave les mains compulsivement avant de le toucher. La personne qui adopte un rituel compulsif n’ose pas expérimenter l’absence de cette « protection » pour tester la réalité de sa croyance. Son comportement la sécurise (seulement de façon très passagère), il réduit l’angoisse, ce qui constitue un puissant facteur de répétition et de renforcement. Au fil du temps, la réaction est vécue comme une contrainte de plus en plus impérieuse. Elle illustre ce que les psychologues appellent la « loi de fréquence » et le « surapprentissage » : une réaction suivie d’un effet appétitif a tendance à devenir de plus en plus forte à mesure qu’elle se répète. Après un certain nombre de répétitions, la situation induit une réaction automatisée qui peut être difficile à contrôler. Afis Science - Association française pour l’information scientifique, Pourquoi il faut parfois tolérer des émotions pénibles - Afis Science - Association française pour l’information scientifique

Traductions du mot « surapprentissage »

Langue Traduction
Anglais overfitting
Espagnol sobreajuste
Italien overfitting
Allemand überanpassung
Chinois 过度拟合
Arabe المفرط
Portugais sobreajuste
Russe переобучения
Japonais 過適合
Basque overfitting
Corse overfitting
Source : Google Translate API
Partager