Unité linéaire rectifiée (relu)

Définition - Que signifie l'unité linéaire rectifiée (ReLU)?

L'unité linéaire rectifiée (ReLU) est l'une des fonctions d'activation les plus courantes dans les modèles d'apprentissage automatique. En tant que composant d'un neurone artificiel dans les réseaux de neurones artificiels (ANN), la fonction d'activation est chargée de traiter les entrées pondérées et d'aider à fournir une sortie.

Definir Tech explique l'unité linéaire rectifiée (ReLU)

Avec le ReLU comme fonction d'activation, la fonction renvoie des valeurs positives, mais ne renvoie pas de valeurs négatives, renvoyant zéro si une entrée négative s'applique.

Les experts expliquent comment ReLU fonctionne sur les effets d'interaction avec les entrées et tient compte des résultats non linéaires.

En général, ReLU fonctionne avec des principes tels que la descente de gradient pour fournir un modèle pour une fonction d'activation fonctionnelle dans un réseau neuronal. En outre, les ingénieurs affinent le travail algorithmique des programmes d'apprentissage automatique et développent des couches de neurones dans les RNA pour aider à faire converger ou résoudre des problèmes spécifiques abordés par les technologies.

Les alternatives à ReLU incluent les fonctions sigmoïde et tanh.