Définition - Que signifie la mémoire à long terme (LSTM)?
Les unités ou blocs de mémoire à long terme (LSTM) font partie d'une structure de réseau neuronal récurrent. Les réseaux de neurones récurrents sont conçus pour utiliser certains types de processus de mémoire artificielle qui peuvent aider ces programmes d'intelligence artificielle à imiter plus efficacement la pensée humaine.
Definir Tech explique la mémoire à long terme (LSTM)
Le réseau neuronal récurrent utilise de longs blocs de mémoire à court terme pour fournir le contexte de la façon dont le programme reçoit les entrées et crée des sorties. Le bloc de mémoire à court terme long est une unité complexe avec divers composants tels que des entrées pondérées, des fonctions d'activation, des entrées de blocs précédents et des sorties éventuelles.
L'unité est appelée un bloc de mémoire à long terme car le programme utilise une structure fondée sur des processus de mémoire à court terme pour créer une mémoire à plus long terme. Ces systèmes sont souvent utilisés, par exemple, dans le traitement du langage naturel. Le réseau neuronal récurrent utilise les blocs de mémoire à court terme pour prendre un mot ou un phonème particulier et l'évaluer dans le contexte des autres dans une chaîne, où la mémoire peut être utile pour trier et catégoriser ces types d'entrées. En général, LSTM est un concept accepté et commun dans les réseaux de neurones récurrents pionniers.