Définition - Que signifie l'algorithme d'apprentissage?
Un algorithme d'apprentissage est un algorithme utilisé dans l'apprentissage automatique pour aider la technologie à imiter le processus d'apprentissage humain. Combinés à des technologies telles que les réseaux de neurones, les algorithmes d'apprentissage créent des programmes d'apprentissage complexes et sophistiqués.
Definir Tech explique l'algorithme d'apprentissage
La régression logique, la régression linéaire, les arbres de décision et les forêts aléatoires sont tous des exemples d'algorithmes d'apprentissage. Les algorithmes tels que «le plus proche voisin» impliquent également la manière dont ces algorithmes sont utilisés pour affecter la prise de décision et l'apprentissage dans les programmes d'apprentissage automatique. En général, tous ces algorithmes ont en commun leur capacité à extrapoler à partir de données de test ou d'apprentissage pour faire des projections ou construire des modèles dans le monde réel. Considérez ces algorithmes comme des outils pour «rassembler des points de données» à partir d'une masse de données brutes ou d'un arrière-plan relativement non étiqueté.
Lorsque les algorithmes d'apprentissage sont utiles dans l'apprentissage automatique supervisé et non supervisé, ils sont utilisés de différentes manières dans chaque type de discipline. L'apprentissage automatique supervisé bénéficie du fait d'avoir déjà des données étiquetées et isolées, de sorte que les algorithmes d'apprentissage utilisés seront différents à certains égards. L'essentiel est que les ingénieurs associent ces algorithmes d'apprentissage comme éléments constitutifs d'une technologie ou d'un programme particulier qui cherche à mieux comprendre les ensembles de données qu'il digère.