Définition - Que signifie l'algorithme de descente de gradient?
L'algorithme de descente de gradient est une stratégie qui permet d'affiner les opérations d'apprentissage automatique. L'algorithme de descente de gradient vise à ajuster les poids d'entrée des neurones dans les réseaux de neurones artificiels et à trouver des minima locaux ou des minima globaux afin d'optimiser un problème.
L'algorithme de descente de gradient est également connu simplement sous le nom de descente de gradient.
Definir Tech explique l'algorithme de descente de gradient
Pour comprendre le fonctionnement de la descente de gradient, pensez d'abord à un graphique de valeurs prédites à côté d'un graphique de valeurs réelles qui peuvent ne pas être conformes à un chemin strictement prévisible. La descente de gradient consiste à réduire l'erreur de prédiction ou l'écart entre les valeurs théoriques et les valeurs réelles observées, ou dans l'apprentissage automatique, l'ensemble d'apprentissage, en ajustant les poids d'entrée. L'algorithme calcule le gradient ou le changement et réduit progressivement cet écart prédictif pour affiner la sortie du système d'apprentissage automatique. La descente de gradient est un moyen populaire d'affiner les résultats des ANN à mesure que nous explorons ce qu'ils peuvent faire dans toutes sortes de domaines logiciels.