¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 57

 
😁
 
Ivan Butko #:

¿Por qué estás tan sensible



Yo diría predecible.
Es como echarle agua a alguien que está dormido y seguro que se mea encima....
 
bueno.
si el aprendizaje es un proceso dirigido a aprender algún sistema de un tema determinado, entonces ¿cuál debe ser el resultado? es necesario evaluar de alguna manera el resultado, lo bueno que es.
 

Tanto uno como otro en vez de leer literatura especial sobre el tema, usan el chat de gpt y consideran su enfoque de estudio como profundo :-O

La maldita Generación Pepsi ))))

 
mytarmailS #:

Tanto uno como otro en vez de leer literatura especial sobre el tema, usa el chat de gpt y considera su enfoque para estudiar en profundidad :-O

Pepsi puta generación ))))

La pepsi sabe mejor que la cola, eso no me importa.

Aunque cuando me hicieron la prueba con los ojos cerrados no distinguía una de otra

Seguro que entonces me dieron dos colas.
 
Si seguimos con esta fascinante conversación, los que echan agua se volverán a cagar encima, ya es tradición 😁 Al fin y al cabo, alguien les enseñó esto, si no, cómo lo iban a saber.

Se llama sobreoptimización: ilusiones. Cuando parece que has aprendido algo, pero luego sigue sin funcionar :)

En lugar de aprender, aprendes de memoria. Porque el proceso de aprendizaje incluye la práctica.
 
Andrey Dik #:

Divertido. El punto de reemplazar el BB por defecto es obtener los valores antes?

El propósito de reemplazar el estándar no era para comprobar la calidad de la red neuronal, y el propósito = para conocer el principio y el final de la planitud de antemano.

 

Sobre la formación...


Hace un par de años me encontré con esta expresión en un sitio común (no técnico): bases de datos basadas en redes neuronales. En general, estuve de acuerdo con este término para mí.



Yo mismo hago árboles - una base de datos basada en árboles también es aplicable. 1 hoja en un árbol = 1 fila en una base de datos. Diferencias:



1 fila en la base de datos contiene sólo 1 ejemplo de los datos almacenados en la base de datos. 1 hoja contiene:



1) 1 ejemplo y todos los ejemplos exactamente iguales (al dividir el árbol lo más posible hasta la última diferencia) o

2) 1 ejemplo y exactamente los mismos ejemplos + los ejemplos más parecidos si la división se detiene antes.
Esto se denomina generalización de ejemplos. Los ejemplos similares son definidos de forma diferente por los distintos algoritmos a la hora de seleccionar las divisiones del árbol.

Ventajas de los árboles sobre las bases de datos: generalización y búsqueda rápida de la hoja deseada - no es necesario recorrer un millón de filas, se puede llegar a la hoja a través de varias divisiones.

La agrupación también generaliza. Kmeans - por proximidad de los ejemplos al centro del cluster, otros métodos de forma diferente.

Las redes neuronales son más difíciles de entender y comprender, pero en esencia también son una base de datos, aunque no tan obvias como las hojas y los clusters.

En resumen: aprendizaje arbóreo = es memorizar/grabar ejemplos, igual que una base de datos. Si detienes la división/aprendizaje antes de la memorización más precisa posible,memorizas con generalización.

Por supuesto, Andrew quiere plantear que el aprendizaje es optimización. No, es memorización. Pero la optimización también está presente. Se puede optimizar a través de variaciones con profundidad de aprendizaje, métodos de división, etc. Cada paso de la optimización entrenará un modelo diferente. Pero aprender no es optimizar. Es memorización.
 
Forester #:

Sobre la formación...


Hace un par de años me encontré con esta expresión en un sitio común (no técnico): bases de datos basadas en redes neuronales. En general, estuve de acuerdo con este término para mí.



Yo mismo hago árboles - una base de datos basada en árboles también es aplicable. 1 hoja en un árbol = 1 fila en una base de datos. Diferencias:



1 fila en la base de datos contiene sólo 1 ejemplo de los datos almacenados en la base de datos. 1 hoja contiene:

1) 1 ejemplo y todos los ejemplos exactamente iguales (al dividir el árbol lo más posible hasta la última diferencia)

2) 1 ejemplo y exactamente los mismos ejemplos + los ejemplos más parecidos si la división se detiene antes.
Esto se denomina generalización de ejemplos. Los ejemplos similares son definidos de forma diferente por los distintos algoritmos a la hora de seleccionar las divisiones del árbol.

Ventajas de los árboles sobre las bases de datos: generalización y búsqueda rápida de la hoja deseada - no es necesario recorrer un millón de filas, se puede llegar a la hoja a través de varias divisiones.

La agrupación también generaliza. Kmeans - por proximidad de los ejemplos al centro del cluster, otros métodos de forma diferente.

Las redes neuronales son más difíciles de entender y comprender, pero en esencia también son una base de datos, aunque no tan obvias como las hojas y los clusters.

En resumen: aprendizaje arbóreo = es memorizar/grabar ejemplos, igual que una base de datos. Si detienes la división/aprendizaje antes de la memorización más precisa posible,memorizas con generalización.

Por supuesto, Andrew quiere plantear que el aprendizaje es optimización. No, es memorización. Pero la optimización también está presente. Se puede optimizar a través de variaciones con profundidad de aprendizaje, métodos de división, etc. Cada paso de la optimización entrenará un modelo diferente. Pero aprender no es optimizar. Es memorización.
El reentrenamiento es memorización. La memorización y la generalización están más cerca del aprendizaje :)
 
Maxim Dmitrievsky #:
Sobreaprender es memorizar. Memorización y generalización: más cerca del aprendizaje :)

La generalización es más bien un subaprendizaje. Es decir, has memorizado, pero no con absoluta precisión (también has involucrado a tus vecinos en ello...). Casi como un escolar con un aprobado alto)))

Pero si memorizamos algo definido por una ley (por ejemplo la ley de Ohm), no habrá sobreaprendizaje, es más fácil que haya infraaprendizaje si hay pocos ejemplos y un número infinito de ellos.

En el caso del trading, donde los patrones son casi inexistentes y ruidosos, una memorización absolutamente precisa junto con ruido dará lugar a una pérdida.
Por alguna razón a esto se le ha llamado sobreaprendizaje. La memorización precisa no es perjudicial en sí misma, como en el caso del aprendizaje de patrones. Pero memorizar ruido/basura no es útil.