Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2315

 
Maxim Dmitrievsky:
realmente lo explica de tal manera que es más fácil preguntarle a Napoleón en un manicomio

En la física cuántica no hay predicciones, hay cálculos de incertidumbres, o probabilidades))

 
Valeriy Yastremskiy:

En la física cuántica no hay predicciones, hay cálculos de incertidumbres, o probabilidades))

El ámbito de aplicación parece haber sido tocado, pero no revelado en absoluto. En lugar de ello algunas gachas de babushkas comenzaron

 
Maxim Dmitrievsky:

el alcance de la aplicación parecía ser tocado, pero no fue revelado en absoluto. En su lugar, una especie de papilla balbuceante comenzó

Del galimatías actual sobre IA y casi IA en la ciencia menos de una centésima de porcentaje....

¿De acuerdo?

 
Valeriy Yastremskiy:

De las tonterías de hoy en día sobre y alrededor de la IA, menos de una centésima parte entrará en la ciencia....

¿De acuerdo?

depende de qué ciencia)

hay trucos interesantes de la reconversión, pero no los divulgaron, y donde más leer sobre ello no he encontrado todavía
 
Maxim Dmitrievsky:

depende de qué ciencia )

hay trucos interesantes de la reconversión, pero no los divulgaron, y donde leer sobre ello no pude encontrar

la ciencia es el conocimiento que se utiliza. sea cual sea el nombre de la ciencia))))

 
Maxim Dmitrievsky:

predecir la incertidumbre es algo interesante


Tienen un enlace a un artículo allí - a primera vista sólo el habitual Bayesiano más distribuciones normales.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
Aleksey Nikolayev:

Tienen un enlace a un artículo allí - a primera vista sólo parece Bayes normal más distribuciones normales.

sólo que no he averiguado qué botón pulsar para obtener mejores resultados en la clasificación

para la regresión sólo un ejemplo

Tengo que el muestreo por gradiente máximo se utiliza por defecto (como una nueva característica)

o es simplemente por defecto y no necesito hacer nada

Por cierto, el catbust es muy chulo en cuanto a la reconversión... es muy difícil conseguir que se reconvierta. Si el conjunto de datos es una mierda... ...aprenderá mal y no recordará todas las opciones.
 

Por ahora estoy viendo otro video.


 
Valeriy Yastremskiy:

la ciencia es el conocimiento que se utiliza. no importa el nombre de la ciencia es))))

todo está bien allí con el conocimiento, es sólo campos de aplicación que necesitan ser mirado.

El algoritmo de refuerzo en sí mismo sigue siendo muy bueno. Si hubiera unos buenos altavoces en el estudio.
 
Maxim Dmitrievsky:

el conocimiento no tiene nada de malo, sólo hay que ver los ámbitos de aplicación

El algoritmo de refuerzo en sí mismo sigue siendo muy bueno. Si hubiera más altavoces normales en el estudio

(por ejemplo, si eres un hombre de negocios y sabes algo)))) Sin conocimiento, no hay conocimiento)) En la etapa intermedia, todo puede suceder, los tiempos de cambio suelen ser como el SB))