K-plus proche voisin (k-nn)

Définition - Que signifie K-Nearest Neighbor (K-NN)?

Un algorithme k-plus proche-voisin, souvent abrégé k-nn, est une approche de la classification des données qui estime la probabilité qu'un point de données soit membre d'un groupe ou de l'autre en fonction du groupe dans lequel se trouvent les points de données les plus proches. .

Le k-plus proche-voisin est un exemple d'algorithme «d'apprentissage paresseux», ce qui signifie qu'il ne construit pas de modèle à l'aide de l'ensemble d'apprentissage tant qu'une requête sur l'ensemble de données n'est pas effectuée.

Definir Tech explique K-Nearest Neighbor (K-NN)

Un k-plus proche-voisin est un algorithme de classification de données qui tente de déterminer dans quel groupe se trouve un point de données en examinant les points de données qui l'entourent.

Un algorithme, en regardant un point sur une grille, essayant de déterminer si un point est dans le groupe A ou B, regarde les états des points qui sont proches de lui. La plage est déterminée arbitrairement, mais le but est de prélever un échantillon des données. Si la majorité des points sont dans le groupe A, alors il est probable que le point de données en question sera A plutôt que B, et vice versa.

Le k-plus proche-voisin est un exemple d'algorithme "paresseux" car il ne génère pas de modèle de l'ensemble de données au préalable. Les seuls calculs qu'il effectue sont lorsqu'il est demandé d'interroger les voisins du point de données. Cela rend k-nn très facile à implémenter pour l'exploration de données.