Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3380

 
Aleksey Nikolayev #:

En MO, la función de adecuación se utiliza para entrenar el modelo (selección de parámetros) a través de la optimización. Para evaluar el modelo resultante se utiliza(n) una(s) métrica(s). A menudo, la métrica NO coincide con la función de aptitud. Desde un punto de vista matemático, esto significa que el MO está resolviendo un problema de optimización MULTICRITERIAL en lugar del habitual de criterio único.

Otra diferencia significativa con respecto a la optimización convencional es la frecuente ausencia de un conjunto fijo de parámetros de optimización. Incluso en el caso de un árbol regular, esto ya es así. Desde un punto de vista matemático, esto conduce a un problema de optimización en el ESPACIO FUNCIONAL en lugar del habitual en el espacio numérico.

Ambos puntos hacen que los problemas de MO sean irreductibles a la optimización convencional.

Gracias por la detallada explicación. Aún así, había algún contexto para plantear el tema de FF. Aquí lo tienes.

Foro sobre trading, sistemas automatizados de trading y prueba de estrategias de trading

Aprendizaje automático en el trading: teoría, modelos, práctica y algo-trading

Maxim Dmitrievsky, 2024.01.10 19:27

Bueno a través de re-optimización con un cheque en OOS se puede encontrar :) que es el caso más simple de un lobo hacia adelante O validación cruzada con un pliegue.
 
Andrey Dik #:

Existe toda una clase aparte de algoritmos de optimización multicriterio. Pero, si se entienden bien, los multicriterios se reducen a condiciones de contorno adicionales y evaluaciones independientes.

El espacio funcional también requiere evaluación. Todo requiere siempre una evaluación.

Las características que he mencionado funcionan simultáneamente, no una por una, así que no sé qué tipo de límites vas a construir en los espacios funcionales.

Sería más útil si todos los participantes del hilo estuvieran familiarizados con los fundamentos del MO moderno. Un libro de texto de SHAD sería una buena opción.

Учебник по машинному обучению
Учебник по машинному обучению
  • education.yandex.ru
Онлайн-учебник по машинному обучению от ШАД — для тех, кто не боится математики и хочет разобраться в технологиях ML.
 
Aleksey Nikolayev #:

Las características que he mencionado no funcionan una por una, sino simultáneamente, así que no sé qué tipo de límites vas a construir en espacios funcionales.

Sí, estamos hablando del trabajo simultáneo de componentes separados en espacios multifuncionales. Ambos componentes pueden evaluarse por separado en un espacio multifuncional y todos juntos -mediante metaevaluaciones, o de otro modo- mediante evaluaciones integrales. Uno no interfiere con el otro. Todas las etapas del MO requieren evaluaciones, para ello existen muchas métricas especiales, cuya maximización es la esencia de la optimización.

 
Aleksey Nikolayev #:

1) En MO, la función de adecuación se utiliza para entrenar el modelo(selección de parámetros) mediante optimización. Se utiliza( n) una(s) métrica(s) para evaluar el modelo resultante. A menudo, la métrica NO coincide con la función de aptitud. Desde un punto de vista matemático, esto significa que el MO está resolviendo un problema de optimización MULTICRITERIAL en lugar del habitual de criterio único.

2) Otra diferencia significativa respecto a la optimización convencional es la frecuente ausencia de un conjunto fijo de parámetros de optimización. Incluso en el caso de un árbol regular, esto ya es así. Desde un punto de vista matemático, esto conduce a un problema de optimización en el ESPACIO FUNCIONAL en lugar del habitual en el espacio numérico.

Ambos puntos hacen que los problemas de MO sean irreductibles a la optimización convencional.

1)

¿Cuál es la contradicción?

selección de parámetros == búsqueda de parámetros en el algoritmo de optimización

estimación métrica del modelo == FF con estimación akurasi por ejemplo.

¿ Con qué no está de acuerdo ?


2)

¿Puede explicar con más detalle cuál es el problema? Por ejemplo, no veo

 
fxsaber #:

Gracias por la explicación detallada. Todavía quedaba algo de contexto para plantear el tema de FF. Aquí lo tienes.

Vi tu pregunta, pero no puedo decir nada inteligible al respecto.

Y yo no soy un muy buen traductor de la lengua de Maxim)

 
Andrey Dik #:

Sí, estamos hablando del trabajo simultáneo de componentes individuales en espacios multifuncionales. Ambos componentes pueden evaluarse por separado en un espacio multifuncional y todos juntos -mediante metaevaluaciones, o de otro modo- mediante evaluaciones integrales. Uno no interfiere con el otro. Todas las etapas del MO requieren evaluaciones, para ello existen muchas métricas especiales, cuya maximización es la esencia de la optimización.

Por favor, proporcione referencias, si no es difícil (artículos, libros).
 
Aleksey Nikolayev #:

Vi tu pregunta, pero no puedo decir nada inteligible al respecto.

Y yo no soy un muy buen traductor de la lengua de Maxim).

No se trata de la traducción.

Foro sobre el comercio, los sistemas automatizados de comercio y probar estrategias de negociación

Aprendizaje automático en el trading: teoría, modelos, práctica y algo-trading

fxsaber, 2024.01.10 19:43

Supongamos que se hacen 100 pasos - tenemos 100 conjuntos de entradas. Si formamos el conjunto promedio de acuerdo con el principio"cada entrada es igual a la media de la entrada correspondiente 100 conjuntos", es poco probable que este conjunto va a pasar bien todo el intervalo inicial.

Está claro que un centenar de conjuntos dependen de FF.

 
Aleksey Nikolayev #:
Proporcione referencias, si no es difícil (artículos, libros).

Guardé varios cientos de libros sobre redes neuronales, MO, optimización, matemáticas en el archivo. He dado un enlace al archivo. El archivo estaba disponible para todos en la nube durante varios años, por el momento no apoyo este archivo, la nube con el archivo no existe ahora.

A.P. Karpenko tiene muchos libros sobre estos temas, buenos libros son de Simon D.

 
fxsaber #:

No se trata de traducir.

Está claro que los cien conjuntos dependen del FF.

El FF es el mismo, ¿no?
 
Aleksey Nikolayev #:
Traer enlaces, si no es difícil (artículos, libros).

Foro sobre negociación, sistemas automatizados de negociación y ensayo de estrategias de negociación.

Literatura útil.

Andrey Dik, 2010.07.24 22:26

Redes neuronales, algoritmos genéticos

A case study on using neural networks to perform technical.pdf
Christian L. Dunis Modelling and Trading EURUSD.pdf
ED PONSI Forex Patterns and Proabilities.pdf
Gorban A.N. Neuroinformática. What are we, where are we going, how to measure our way.pdf
Haykin S. Kalman filtering and neural networks.djvu
Jonsson F. Markus. Búsqueda de la trayectoria óptima para vehículos en mapas digitalizados de terreno real. Parte 1.doc
Jonsson F. Markus. Búsqueda de la trayectoria óptima para vehículos en mapas digitalizados de terreno real. Parte 2.doc
Kondratenko V.V. Using Recurrent Neural Networks To Forecasting of Forex.pdf
Krose B. An introduction to Neural networks. 1996.djvu
Long, Parks Neural Network Modeling.djvu
Neural_Network_Trend_Predictor_Manual.pdf
Simon D. Training radial basis neural networks with the extended Kalman filter
ToshibaNeuronChip.pdf
Barskii A.B. Neural Networks Recognition, Control, Decision Making. 2004.pdf
Berkinblit M.B. Neural Networks 1993.djvu
Bastens D. Neural Networks and Financial Markets. Decision making in trading operations.djvu
Vapnik V.N. Restauración de dependencias en datos empíricos. 1997.djvu
Vezhnevets A. Non-Standard Neural Network Architectures.pdf
Voronovsky G.K. Genetic Algorithms, Artificial Neural Networks and Problems of Virtual Reality.pdf
Voronovsky G.K. Genetic Algorithms, Artificial Neural Networks and Problems of Virtual Reality.pdf
Galushkin A.I. Theory of Neural Networks. Libro 1 2000.djvu
Goldstein B.S. Redes Intelectuales. 2000.djvu
Gorban A.N. Generalised approximation theorem and deduction possibilities of neural networks.pdf
Gorbunova E.O. Algorithmic universality of kinetic machine Kirdin.pdf
Gorbunova E.O. Methods of neuroinformatics. Finiteness and determinacy of simple programmes for the Kirdin kinetic machine.pdf
Jain Anil K. Introduction to artificial neural networks.pdf
Dorrer M.G. Intuitive prediction by neural networks of relations in a group.pdf
Dorrer M.G. Methods of neuroinformatics. Approximation of multidimensional functions by a semi-layer predictor with arbitrary converters.pdf
Dubrovich V.I. Subbotin S.A. Algorithm of accelerated learning of perseptrons.pdf
Ezhov A. Shumsky S. Neurocomputing and its applications in economy and business.djvu
Zhukov L.A. Use of neural network technologies for carrying out educational and research works.pdf
Zaentsev I.V. Neural networks basic models. 1999.pdf
Zakharov V.N. Khoroshevskiy V.F. Artificial Intelligence. Volume 3. Software and hardware 1990.djvu
Callan R. Basic concepts of neural networks.djvu
Kgur P.G. Neural networks and neurocomputers.pdf
Komashinsky V.I. Neural networks and their application in control and communication systems 2003.pdf
Committee NN.pdf
Korotkiy S. Hopfield and Hamming neural networks.pdf
Korotkiy S. Neural networks. Algoritmo de retropropagación.pdf
Korotkiy S. Redes neuronales. Learning without a teacher.pdf
Korotkiy S. Redes neuronales. Fundamentals.pdf
Krisilov V.A. Kondartiuk A.V. Transformation of input data of neural networks in order to improve distinguishability.pdf
Krisilov V.A. Oleshko D.N. Methods of acceleration of training of neural networks.doc
Krisilov V.A. Chumichkin K.V. Aceleración del entrenamiento de redes neuronales debido a la simplificación adaptativa de la muestra de entrenamiento.pdf
Krislov V.A. Representación de datos iniciales en tareas de previsión de redes neuronales.pdf
Kruglov V.V. Lógica difusa y redes neuronales artificiales.djvu
Kruglov, Borisov - Artificial Neural Networks. Teoría y práctica, 2002.djvu
Kruglov, Borisov - Artificial Neural Networks. Theory and practice, 2002.txt
Liu B. Theory and practice of undefined programming 2005.djvu
McCulloch W., Pitts W. Logical calculus of ideas relating to neural activity.pdf
Markel J.D. Predicción lineal del habla. 1980.djvu
Mirkes E.M. Neurocomputer. Proyecto de norma. 1998.pdf
Modified Genetic Algorithm for Optimisation Problems in Control.pdf
Nabhan T.N. Zomaya A. On problems of creation of neural network structures for optimisation of functioning.pdf
Napalkov A. В., Pragina L.L. - Human Brain and Artificial Intelligence.docx
Oleshko D.N. Improving the Quality and Speed of Neural Networks Training in the Task of Predicting the Behaviour of Time Series.doc
Oleshko D.N. Improving the Quality and Speed of Neural Networks Training.doc
Ostrovsky S. Neural Networks for Information Processing 2000.djvu
Pavlidis T. Algorithms of Machine Graphics and Image Processing.djvu
Penrose R. The New Mind of the King. Sobre ordenadores, pensamiento y las leyes de la física. 2003.djvu
Pitenko A.A. Use of neural network technologies in solving analytical tasks in GIS.pdf
Rutkovskaya D. Neural Networks Genetic Algorithms and Fuzzy Systems.djvu
Senashova M.Yu. Neural Networks Errors. Cálculo de errores de pesos de sinapsis. 1998.pdf
Subbotin S.A. Neurocybernetics in USSR-CIS - Analytical review of inventions and patents.pdf
Tarasenko R.A. Choice of size of situation description at formation of training sample for neural networks in tasks of forecasting of time series.doc
Tarasenko R.A. Preliminary estimation of quality of training sample for neural networks in tasks of forecasting of time series.doc
Terekhov S.A. Technological aspects of training of neural network machines. 2006.pdf
feasibility-INVEST.gif
Tyumentsev Y.V. Intelligent Autonomous Systems - Challenge to Information Technologies.pdf
Wosserman F. Neurocomputer Engineering.doc
Wosserman F. Neurocomputer Engineering. Teoría y práctica.doc
Haykin S. Neural networks - full course.djvu
Tsaregorodtsev V.G. Production of semi-empirical knowledge from data tables by means of trained artificial neural networks.pdf