Overfitting

L'overfitting est l'optimisation incorrecte d'un modèle d'intelligence artificielle (IA), où la recherche de précision va trop loin et peut entraîner des faux positifs. Le surajustement s'oppose au sous-ajustement, qui peut également entraîner des inexactitudes. Le sous-ajustement et le surajustement sont souvent appelés sous-formation ou sous-entraînement. L'overfitting et le underfitting peuvent tous deux ruiner la précision et la prévisibilité des modèles en conduisant à des tendances qui ne correspondent pas à la réalité. Le surajustement peut entraîner des faux positifs susceptibles d'affecter la précision des prédictions de l'IA. Le surajustement peut conduire à des données manquantes en raison d'un modèle trop spécifique. Un modèle surajusté peut faire des erreurs dans des données non vues qui reflètent celles faites à partir de ses données d'entraînement. Le modèle peut commencer à faire des prédictions incorrectes à partir de données non vues précédemment, plutôt que de mémoriser les résultats. Par exemple, une chasse à l'IA recherche le chiffre 1 dans des données manuscrites. En fonction de la clarté de l'écriture, un faux positif pourrait consister à regrouper certains 7 comme des 1, ce qui serait un surajustement. Inversement, une omission qui pourrait en résulter pourrait être l'incapacité à reconnaître les 1 dans certains styles d'écriture, ce qui constituerait une sous-adaptation. Le surentraînement peut conduire à un surajustement. Les données d'apprentissage qui ne sont pas appropriées ou trop bruyantes peuvent entraîner un surajustement.