Discusión sobre el artículo "Aprendizaje automático y Data Science (Parte 9): Algoritmo de k vecinos más próximos (KNN)"

 

Artículo publicado Aprendizaje automático y Data Science (Parte 9): Algoritmo de k vecinos más próximos (KNN):

Se trata de un algoritmo perezoso que no aprende a partir de una muestra de entrenamiento, sino que almacena todas las observaciones disponibles y clasifica los datos en cuanto recibe una nueva muestra. A pesar de su sencillez, este método se usa en muchas aplicaciones del mundo real.

El algoritmo de k vecinos más próximos es un clasificador de aprendizaje no paramétrico supervisado que clasifica datos o predice su pertenencia a clases basándose en la proximidad. El algoritmo se usa principalmente para problemas de clasificación, pero también puede utilizarse para problemas de regresión. Con frecuencia se utiliza para realizar clasificaciones usando como base el supuesto de que varios puntos similares de un conjunto de datos pueden ser adyacentes. El método de k vecinos más próximos es uno de los algoritmos más sencillos del aprendizaje automático supervisado. En este artículo construiremos nuestro propio algoritmo de clasificación.


Algoritmo KNN

Fuente de la imagen: skicit-learn.org

Algunas observaciones:

  1. A menudo se usa como clasificador, pero también puede utilizarse para la regresión.
  2. El KNN es un algoritmo no paramétrico, lo cual significa que no hace suposiciones sobre los datos brutos.
  3. A menudo se denomina algoritmo de aprendizaje perezoso porque no aprende partiendo de una muestra de entrenamiento. El método almacena todos los datos y los usa posteriormente.
  4. El algoritmo KNN presupone la similitud entre los nuevos datos y el conjunto de datos disponible, y a partir de ahí, coloca los nuevos datos en una categoría con los datos más similares.

Autor: Omega J Msigwa