Surapprentissage

Le surapprentissage se produit lorsqu'un modèle d'IA apprend trop bien les données d'entraînement, y compris le bruit, les erreurs ou les motifs aléatoires qui ne sont pas réellement importants. En conséquence, le modèle fonctionne très bien sur les données sur lesquelles il a été entraîné mais a des difficultés lorsqu'il est confronté à de nouvelles données inconnues. C'est comme un étudiant qui mémorise chaque mot d'un manuel sans vraiment comprendre le sujet et échoue à l'examen lorsque les questions sont formulées différemment.

Pour éviter le surapprentissage, les développeurs utilisent des techniques comme la simplification du modèle, l'ajout de données d'entraînement plus diversifiées, ou l'utilisation de ce que l'on appelle la régularisation. L'objectif est de créer un modèle qui apprend les motifs généraux des données, et non pas uniquement les réponses par cœur. Un modèle bien équilibré doit bien fonctionner à la fois sur les données d'entraînement et les données du monde réel.

Comparaison 0