Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3295

 
Andrey Dik #:

No, no estamos hablando de eso.
La acumulación de información heterogénea sólo impide que encuentre conexiones, y surgen muchas contradicciones.
Pero sólo hasta cierto nivel, a cierto nivel hay tanta información que basta para formar un monolito, los propios rompecabezas que faltan empiezan a restablecerse.

se puede poner una analogía como ejemplo: si se pule una superficie plana de dos barras hechas de metales diferentes, cuanto menor sea la rugosidad, mejor se deslizarán las barras una sobre otra. si se siguen puliendo las superficies, las barras se pegarán entre sí, las moléculas empezarán a penetrar unas en otras desde las dos barras, es decir, no se produce una mayor reducción de las fuerzas de fricción, sino al contrario, ¡un crecimiento a saltos!

lo más probable es que sea contradictorio, pero la idea está clara.

Estoy de acuerdo

pero no habrá crecimiento repentino porque:

- no todo el mundo es tan terco como para no detenerse en el desarrollo alcanzado de la inteligencia.

- empiezan a formarse secretos comerciales y precios elevados, lo que a su vez reduce la oferta y la demanda

Su pensamiento está en su propio gráfico al principio: poca cantidad con mucha calidad.

para alta calidad se descarta una cantidad excesiva de información
 
Maxim Dmitrievsky #:
No lo sabes, por lo visto. Si no, no te preguntarías qué tiene que ver la aproximación.

¿Con qué propósito has metido tu optimización en la discusión?

¿Te das cuenta de que son cosas distintas?

He respondido a tu pregunta, ¿por qué te repites?

Mi post iba dirigido al post de Sanych, que mencionaba a FF torcida.

¿Puedes entender eso?

y tampoco puedes entender que el aprendizaje de cualquier tipo no es posible sin la optimización, son cosas inseparables.

 
Andrey Dik #:

He respondido a tu pregunta, ¿por qué te repites?

mi post iba dirigido al post de Sanych, que mencionaba el FF torcido.

¿puedes entenderlo?

y tampoco puedes entender que el aprendizaje en cualquiera de sus formas no es posible sin la optimización, son cosas inseparables.

El escribió correctamente que no tenemos el concepto de extremos. Tenemos criterios de aproximación y estabilidad sobre nuevos datos, que son los componentes del error del modelo.
 
Renat Akhtyamov #:

Probablemente sea contradictorio, pero capto la idea.

Estoy de acuerdo.

pero no habrá crecimiento repentino porque:

- no todo el mundo es tan terco como para no detenerse en el desarrollo alcanzado de la inteligencia.

- empiezan a formarse secretos comerciales y precios elevados, lo que a su vez reduce la oferta y la demanda

Su pensamiento está en su propio gráfico al principio.

Puse el ejemplo de las barras pulidas, hay un salto en las fuerzas de fricción.

Con la información, por supuesto, no habrá salto, pero una transición suave.

 
Maxim Dmitrievsky #:
Escribió correctamente que no tenemos el concepto de extremos. Tenemos criterios de aproximación y estabilidad sobre nuevos datos, que son los componentes del error del modelo.

¿Se mejoran los criterios de aproximación y estabilidad de forma iterativa o no?

¿O es como en el cuento de hadas, cuando un hombre rico estuvo tumbado en la cocina durante 30 años y de repente se levantó y fue a patearle el culo a todo el mundo? En 10 días, el lubricante de las articulaciones inmóviles desaparece, así que el hombre rico no podrá patear a nadie, pero no podrá levantarse en 10 días.

No, lo haces iterativamente, mejorando las puntuaciones, es un proceso de optimización.

 
Andrey Dik #:

criterios de aproximación y estabilidad ¿mejora iterativamente o no?

No, lo haces iterativamente, mejorando las estimaciones, es un proceso de optimización.

¿Qué significa esto? Cuando se aumenta el grado del polinomio, ¿qué ocurre?
 
Maxim Dmitrievsky #:
¿Qué significa eso?

¿ha olvidado ya su pregunta?
Se deduce que haces optimización siempre, aunque creas que no.
tus criterios son FFs que mejoras por métodos de optimización.
 
Andrey Dik #:

¿ha olvidado ya su pregunta?
se deduce que siempre haces optimización, aunque creas que no.
Tus criterios son FFs que mejoras con métodos de optimización.
No tengo ninguna pregunta. Escribí por qué un gran número de características da malos resultados en la inferencia causal.

Estás escribiendo cosas que se abstraen de eso.
 
Maxim Dmitrievsky #:
No tengo ninguna pregunta. Escribí por qué un gran número de características da malos resultados en la inferencia causal.

y te dije que es sólo tu hipótesis "a medida que aumenta el número de características, los resultados serán peores".

y expuse mi hipótesis. nadie aquí en MO ha tratado de probar esto todavía debido al costo de la experimentación. pero te recuerdo, algunas personas lo hicieron para GPT, hubo un salto en la calidad de las conexiones de información heterogénea hasta el punto en que fue posible crear nuevas conexiones e inferencias.

 
Andrey Dik #:

y te escribí que es sólo tu hipótesis "a medida que aumenten los rasgos, los resultados serán peores".

Yo expuse mi hipótesis. nadie aquí en MO ha intentado probarla todavía debido al coste de los experimentos. pero te recuerdo, algunas personas lo hicieron para GPT, hubo un salto en la calidad de las conexiones de información heterogénea hasta tal punto que se hizo posible crear nuevas conexiones y conclusiones.

Te escribí que esta es tu hipótesis, yo no hipotetizo. Está rigurosamente demostrado.

No compares dedo con dedo, los grandes modelos lingüísticos se entrenan exactamente igual. Y no tienes ni idea de cuál es el error de aprendizaje.

¿Alguna otra pregunta?