Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3296

 
Maxim Dmitrievsky #:
Te escribí que esta es tu hipótesis, yo no hipotetizo. Está estrictamente demostrado.

¿Alguna otra pregunta?

Lo que has dicho NO está demostrado, es un juicio empírico, por lo tanto tu afirmación es una hipótesis.

No tengo ninguna pregunta para ti.

 
Andrey Dik #:

lo que has dicho NO está demostrado, son juicios empíricos, por lo que tu afirmación es una hipótesis.

No tenía ninguna pregunta para ti.

Está demostrado. Que no sepas que está demostrado no significa que no lo esté. Una vez más, doy un enlace a la compensación baes-varianza.

Y no me hagas hablar de lo que está demostrado y lo que no. Hay Gurús más serios por ahí.
 
Maxim Dmitrievsky #:

No compares dedo con dedo, los grandes modelos lingüísticos se entrenan exactamente igual. Y no tienes ni idea del error de aprendizaje que hay.

¿Qué dedo con dedo?

Exactamente, los grandes modelos de lenguaje se entrenan exactamente de la misma manera, y utilizan algoritmos de optimización (puedes preguntarle a GPT con qué algoritmos se entrenó, hace unos meses contestó sin ambigüedades, ahora se lo toma con humor, pero me limitaré a decir que ADAM es uno de ellos). y no tengo ni idea de qué tipo de error de aprendizaje hay, igual que tú no tienes ni idea. Los autores son buenos sólo porque fueron capaces de construir criterios de evaluación para un modelo grande, lo cual es muy difícil, porque no basta con recoger información, es necesario ser capaz de evaluar correctamente la calidad de la formación (como ya he dicho, la construcción de criterios de evaluación no es menos importante).

 
Maxim Dmitrievsky #:

Y no me hagas hablar de lo que está probado y lo que no. Hay Profesores más serios.

Te gusta medirte. No te estoy enseñando, deberías entender estas cosas si te crees superprofesional.

 
Andrey Dik #:

Te gusta medirte. No te estoy enseñando, deberías entender estas cosas si crees que eres un superprofesional.

Eres tú el que se cree que soy un superprofesional y te sales del tema. No me gusta el blabbering, una papilla de argumentos inconexos, salpicados de trucos psicológicos como citar autoridades. Si te da pereza leer las pruebas, no puedo ayudarte más.
 
Maxim Dmitrievsky #:
Tú eres el que piensa que soy un superprofesional y que escribo off-topic. No me gusta el blablabla, una papilla de argumentos inconexos, salpicados de trucos psicológicos, como referencias a autoridades. Si te da pereza leer las pruebas, no puedo ayudarte más.

¿Qué autoridades he citado? Creo que sueles alardear de referencias a autoridades y sus artículos.
No soy un experto en MO, pero sé mucho sobre optimización. Y como MO no existe en ninguna parte sin optimización, puedo participar en cualquier discusión aquí sin dudarlo.
 
Andrey Dik #:

¿A qué autoridades me he referido? Creo que sueles alardear de referencias a autoridades y sus artículos.
No soy un experto en MO, pero sé mucho sobre optimización. Y como no hay MO sin optimización, puedo participar en cualquier debate aquí sin dudarlo.
Has citado GPT como una especie de prueba de algo que no entiendes. Escribes por escribir. No hay ningún mensaje con sentido. No me interesa la optimización, esa es la 3ª pregunta. No he escrito sobre la optimización y no he preguntado sobre ella. Si el aprendizaje incluye la optimización, no significa que el aprendizaje sea optimización. La conversación no iba de eso en absoluto.

Simplemente no entendiste sobre lo que escribí y empezaste a escribir sobre lo enfermo que está más cerca de ti.
 
Maxim Dmitrievsky #:
Has citado GPT como una especie de prueba de no se qué. Sólo escribes por escribir. No hay ningún mensaje con sentido. No me interesa la optimización, esa es la 3ª pregunta. No he escrito sobre la optimización y no he preguntado sobre ella. Si el aprendizaje incluye la optimización, no significa que el aprendizaje sea optimización. La conversación no iba de eso.

Tú no escribiste sobre optimización, así que ¿por qué estás husmeando?
No te he escrito a ti.
Y, el aprendizaje es un caso especial de optimización, recuérdalo.
¡Ya ves, no escribió! ¿Eh, así que ahora tengo que pedir permiso para escribir sobre qué escribir y sobre qué no escribir? Cálmate ya.
 
Andrey Dik #:

no escribiste sobre optimización, ¿por qué husmeas entonces?
No te he escrito a ti.
Y, el aprendizaje es un caso especial de optimización, recuérdalo de una vez.
Sanych escribió todo correctamente. Todo comenzó con mi mensaje. Usted entró en los escombros mal.

Resultó que escribir sobre nada.
 
Andrey Dik #:
No puedo dejar de compartir la impresionante noticia (tan acertada para mí), se ha encontrado un algoritmo aún más potente que el SSG.

Esto sí que es bueno.