Discusión sobre el artículo "Aprendizaje automático y Data Science (Parte 9): Algoritmo de k vecinos más próximos (KNN)"
¡Enhorabuena por el artículo! Estoy mirando hacia atrás en las actualizaciones.
Saludos!
Lo siento si me equivoco con mi suposición, pero creo que
Creo que debería eliminar el elemento del vector con un índice específico, pero no elimina nada, porque no pasa nada con el vector original y la función no devuelve nada.
¿Estoy equivocado?
Lo siento si me equivoco con mi suposición, pero creo que
void CKNNNearestNeighbors::VectorRemoveIndex(vector &v, ulong index) { vector new_v(v.Size()-1); for (ulong i=0, count = 0; i<v.Size(); i++) if (i == index) { new_v[count] = new_v[i]; count++; } }es inútil. El código se toma en el archivo KNN_neareast_neighbors.mqh.
Creo que debería eliminar el elemento del vector con un índice específico, pero no elimina nada, porque no pasa nada con el vector original y la función no devuelve nada.
¿Estoy equivocado?

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Aprendizaje automático y Data Science (Parte 9): Algoritmo de k vecinos más próximos (KNN):
Se trata de un algoritmo perezoso que no aprende a partir de una muestra de entrenamiento, sino que almacena todas las observaciones disponibles y clasifica los datos en cuanto recibe una nueva muestra. A pesar de su sencillez, este método se usa en muchas aplicaciones del mundo real.
Fuente de la imagen: skicit-learn.org
Algunas observaciones:
Autor: Omega J Msigwa