¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 57

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Por qué estás tan sensible
Tanto uno como otro en vez de leer literatura especial sobre el tema, usan el chat de gpt y consideran su enfoque de estudio como profundo :-O
La maldita Generación Pepsi ))))
Tanto uno como otro en vez de leer literatura especial sobre el tema, usa el chat de gpt y considera su enfoque para estudiar en profundidad :-O
Pepsi puta generación ))))
Divertido. El punto de reemplazar el BB por defecto es obtener los valores antes?
El propósito de reemplazar el estándar no era para comprobar la calidad de la red neuronal, y el propósito = para conocer el principio y el final de la planitud de antemano.
Sobre la formación...
Hace un par de años me encontré con esta expresión en un sitio común (no técnico): bases de datos basadas en redes neuronales. En general, estuve de acuerdo con este término para mí.
Yo mismo hago árboles - una base de datos basada en árboles también es aplicable. 1 hoja en un árbol = 1 fila en una base de datos. Diferencias:
Ventajas de los árboles sobre las bases de datos: generalización y búsqueda rápida de la hoja deseada - no es necesario recorrer un millón de filas, se puede llegar a la hoja a través de varias divisiones.
La agrupación también generaliza. Kmeans - por proximidad de los ejemplos al centro del cluster, otros métodos de forma diferente.
En resumen: aprendizaje arbóreo = es memorizar/grabar ejemplos, igual que una base de datos. Si detienes la división/aprendizaje antes de la memorización más precisa posible,memorizas con generalización.Las redes neuronales son más difíciles de entender y comprender, pero en esencia también son una base de datos, aunque no tan obvias como las hojas y los clusters.
Por supuesto, Andrew quiere plantear que el aprendizaje es optimización. No, es memorización. Pero la optimización también está presente. Se puede optimizar a través de variaciones con profundidad de aprendizaje, métodos de división, etc. Cada paso de la optimización entrenará un modelo diferente. Pero aprender no es optimizar. Es memorización.
Sobre la formación...
Hace un par de años me encontré con esta expresión en un sitio común (no técnico): bases de datos basadas en redes neuronales. En general, estuve de acuerdo con este término para mí.
Yo mismo hago árboles - una base de datos basada en árboles también es aplicable. 1 hoja en un árbol = 1 fila en una base de datos. Diferencias:
Ventajas de los árboles sobre las bases de datos: generalización y búsqueda rápida de la hoja deseada - no es necesario recorrer un millón de filas, se puede llegar a la hoja a través de varias divisiones.
La agrupación también generaliza. Kmeans - por proximidad de los ejemplos al centro del cluster, otros métodos de forma diferente.
En resumen: aprendizaje arbóreo = es memorizar/grabar ejemplos, igual que una base de datos. Si detienes la división/aprendizaje antes de la memorización más precisa posible,memorizas con generalización.Las redes neuronales son más difíciles de entender y comprender, pero en esencia también son una base de datos, aunque no tan obvias como las hojas y los clusters.
Por supuesto, Andrew quiere plantear que el aprendizaje es optimización. No, es memorización. Pero la optimización también está presente. Se puede optimizar a través de variaciones con profundidad de aprendizaje, métodos de división, etc. Cada paso de la optimización entrenará un modelo diferente. Pero aprender no es optimizar. Es memorización.
Sobreaprender es memorizar. Memorización y generalización: más cerca del aprendizaje :)
La generalización es más bien un subaprendizaje. Es decir, has memorizado, pero no con absoluta precisión (también has involucrado a tus vecinos en ello...). Casi como un escolar con un aprobado alto)))
Pero si memorizamos algo definido por una ley (por ejemplo la ley de Ohm), no habrá sobreaprendizaje, es más fácil que haya infraaprendizaje si hay pocos ejemplos y un número infinito de ellos.
En el caso del trading, donde los patrones son casi inexistentes y ruidosos, una memorización absolutamente precisa junto con ruido dará lugar a una pérdida.Por alguna razón a esto se le ha llamado sobreaprendizaje. La memorización precisa no es perjudicial en sí misma, como en el caso del aprendizaje de patrones. Pero memorizar ruido/basura no es útil.