Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3350

 

La metodología de las predicciones conformes también se hace eco de kozul, al menos en cuanto a la ponderación de la probabilidad inversa. No he seguido leyendo. Muchas definiciones :)

Y la definición de resultados potenciales se utiliza de la misma manera. Pero ya está más claro para el caso de clasificación binaria. Es decir, no se introduce ningún tritment o variable instrumental.

GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
  • valeman
  • github.com
A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries. - GitHub - valeman/awesome-conformal-predicti...
 
Mis dos últimos artículos, a un nivel sencillo y sin matices, describen más o menos todos estos planteamientos. Digamos que no los describen, pero se acercan. Ahora estoy comprobando los detalles de lo que han investigado. Por ejemplo, la conformidad inductiva de la transductiva sólo difiere en uno o dos clasificadores, por separado para cada etiqueta de clase. Este último es mejor (más preciso) en la estimación posterior. Y he utilizado el método inductivo. Otra cosa es reentrenar los modelos añadiendo y descartando cada muestra, para una estimación más precisa. Es muy caro, pero algo eficiente. Pero se pueden tomar clasificadores simples y rápidos. Que también escribí sobre el entrenamiento en tocones.

No veo ningún aplauso por mi brillantez



 

Hola.

Estoy probando diferentes formas.

Y el algoritmo NN+GA está dando sus frutos. Mucho más estable.

 
Alexander Ivanov #:

¡Hola!

Estoy probando diferentes maneras.

Y el algoritmo NN+GA está dando sus frutos. Mucho más estable.

¿Estás diciendo que eres más genial que yo?
 

unalectura nocturna con vodka, venado y pepino.

desarrollando el tema y tratando de enlazar en mi cabeza enfoques de diferentes disciplinas MOSH.

A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
  • arxiv.org
Black-box machine learning models are now routinely used in high-risk settings, like medical diagnostics, which demand uncertainty quantification to avoid consequential model failures. Conformal prediction is a user-friendly paradigm for creating statistically rigorous uncertainty sets/intervals for the predictions of such models. Critically, the sets are valid in a distribution-free sense: they possess explicit, non-asymptotic guarantees even without distributional assumptions or model assumptions. One can use conformal prediction with any pre-trained model, such as a neural network, to produce sets that are guaranteed to contain the ground truth with a user-specified probability, such as 90%. It is easy-to-understand, easy-to-use, and general, applying naturally to problems arising in the fields of computer vision, natural language processing, deep reinforcement learning, and so on. This hands-on introduction is aimed to provide the reader a working understanding of conformal...
 
Maxim Dmitrievsky #:

unalectura para una noche de vodka, venado y pepino.

desarrollando el tema y tratando de enlazar en mi cabeza enfoques de diferentes disciplinas MOSH.

Buen provecho y una leve resaca)

Parece ser muy similar a la previsión probabilística, aunque escriben que son cosas diferentes. Por lo que he entendido hasta ahora, la conformal se centra más en la clasificación, y la probabilística en la regresión.

 
Maxim Dmitrievsky #:
Recuerdo que en algún sitio comparaste el beneficio máximo entre dts. Y en un gráfico en particular, ¿qué algoritmo utilizó para obtener el máximo beneficio? A través de la optimización o hay un algoritmo estricto.

Y de una sola pasada. En algún sitio del foro.

 
Aleksey Nikolayev #:

Disfrute de su comida y tenga una leve resaca)

Parece ser muy similar a la previsión prob abilística, aunque escriben que son cosas diferentes. Por lo que he entendido hasta ahora, la conformal está más especializada para la clasificación, y la probabilística para la regresión.

Gracias :) sí, parecido. Escriben que no importa clasificación o regresión. La forma de obtener estimaciones para las predicciones mediante comparación en la red de validación está clara (en el caso de "Inductivo", es decir, la forma más rápida y sencilla). "Transductivo" también está más o menos claro, pero es muy lento porque requiere entrenar tantos modelos como ejemplos haya en la muestra. También hay variantes intermedias como CV, que de hecho hice yo mismo.

Del artículo no entendí muy bien cómo se entrenan los modelos finales, qué se sustituye dónde. De nuevo a través de la corrección de los pesos del modelo, su calibración (ponderación de la muestra) o algo así, como en kozula. O los marcadores más probables se sustituyen en el modelo después de la evaluación. Acabo de utilizar el segundo modelo para este fin, que prohíbe el comercio en los malos ejemplos.

 
Maxim Dmitrievsky #:

unalectura para una noche de vodka, venado y pepino.

desarrollando el tema y tratando de enlazar en mi cabeza enfoques de diferentes disciplinas MOSH.

para la medicina.

donde los gráficos se arrastran entre dos líneas paralelas,

que no es nada comparado con los mercados financieros.

---

Me fumé el descenso por gradiente el fin de semana.

Puedes hacerlo sin el I.O.D. en un santiamén.

es decir, acercándose al extremo:

x0-x1

x0-x2

x0-x3

etc.

Algo de eso hay, por supuesto.

 
Renat Akhtyamov #:

para la medicina.

donde los gráficos se arrastran entre dos líneas paralelas,

que no es nada comparado con los mercados financieros.

---

descenso por gradiente fumado durante el fin de semana.

puedes hacerlo sin el MoD en un santiamén.

Es decir, una aproximación al extremo:

x0-x1

x0-x2

x0-x3

etc.

hay algo en ello, por supuesto.

Es un banchi. Tienes que adaptarlo a tus propias tareas.