Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 427

 
Mihail Marchukajtes:

Não importa, em princípio. Não há previsão de potência aí....

É como olhar para o capital próprio e dividir o lucro por sorteio.

E quanto melhor for a previsão, maior será o SR

 
Aliosha:

Então o que a previsão tem a ver com isso, é como olhar para a equidade com os olhos e dividir o lucro pelo drawdown, é mais ou menos SR

E quanto melhor for a previsão, maior será o SR.


E, neste caso. Bem, então sim. Concordo completamente....

 
SanSanych Fomenko:

Você pode me dizer, você escreveu aqui https://www.mql5.com/ru/blogs/post/160258 que RF é o melhor classificador entre os propostos, eu concordo com isso. E quanto à terceira geração diplerning (com autoencoders), você teve algum teste comparativo?

Нужны ли нам сотни классификаторов для решения проблем классификации реального мира?
  • 2014.11.13
  • СанСаныч Фоменко
  • www.mql5.com
В статье оценивается доступные сегодня 179 классификаторов, принадлежащих к 17 семействам (дискриминантный анализ, Байес, нейронные сети, машины векторов поддержки SVM , деревья решений, основанные на...
 
Aliosha:



Sobre o GARCH tanto quanto sei é um modelo linear para prever a volatilidade, não prevê a direção do mercado, ou estou errado?

GARCH é um modelo de volatilidade, ele prevê a direção e o tamanho da próxima vela. O prazo pode ser diferente: M5, M30, D1, qualquer. Mas normalmente é uma TF rasa até a negociação de alta freqüência.

Eu acho o GARCH atraente porque para usá-lo eu preciso analisar a citação inicial para ter provas de que o GARCH treinado se comportará da mesma maneira na história e no futuro.

A idéia é lutar contra a não-estacionariedade (média variável e desvio variável da média), que é considerada o principal mal para o desempenho futuro do Expert Advisor.

O modelo em si tem três componentes:

Inicialmente, os incrementos de preço são calculados. Depois são escritas fórmulas para este incremento:

1. Para o comportamento da média

2. para o comportamento de desvio da média (volatilidade). Existem muitas variantes, incluindo exponencial e limiar (quero dizer a linearidade do modelo)

3. a lei de distribuição da média.


Se foi possível escolher "corretamente" os parâmetros de todas estas partes, então o resíduo deve ser normalmente distribuído, o que é uma garantia do comportamento do modelo no futuro, semelhante aos dados históricos.


Algo assim, de forma muito aproximada.

 
Maxim Dmitrievsky:

Você pode me dizer, você escreveu aqui https://www.mql5.com/ru/blogs/post/160258 que RF é o melhor classificador entre os propostos, eu concordo com isso. E quanto ao diplinking de terceira geração (com codificadores automáticos), você já fez algum teste comparativo?

Ouvi dizer que o diplinking é um pouco diferente, é tudo uma busca automática de características SIMPLES, em estruturas hierárquicas, como imagens ou texto, onde os cantos e linhas são figuras simples com formas mais complexas e assim por diante. Quanto às séries cronológicas, não é bem a mesma coisa. Então se a rede neural de convolução profunda encontra gatos e rostos em imagens, isso não significa que ela irá prever friamente o mercado, além de toda a "profundidade" ser uma enorme chatice para os usuários, é uma enorme chatice mesmo para aqueles que recriaram toda a rede do zero em C++ por 10 vezes, muitos parâmetros são muito instáveis, os resultados são aleatórios. Você tem que lidar com isso por muitos anos. Mas não é o meu IMHO, nunca o experimentei e provavelmente não o farei.

 
Aliosha:

Não é um mau resultado, é fantástico, tenho a certeza que nem o Renascimento tem nada disso com os seus terabytes de dados por dia. Olha para o live-score em números.ai e pensa porque é que eles têm pelo menos 45% de taxa de erro(logloss~0.69) e tu tens 30%.

Mas o que você diz é verdade, você criou sua função de alvo sintético, que está funcionalmente ligada a características de uma forma inteligente (obviamente não óbvia para você) e você tem uma varredura tão boa em Lorn e teste e tudo parece certo... Mas por que você ainda não é um bilionário, embora você poderia facilmente tornar-se um em cerca de um ano se você tivesse 30% de erro na previsão da próxima cor da vela, porque você prevê não futuro, mas passado misturado com futuro através do indicador. Tente prever um futuro puro retornado e tudo se encaixará.

Você disse muito senhor, mas não disse nada de substância, enquanto se ofereceu imediatamente para mostrar, não para gritar a todos o que está errado com ZZ e o que é necessário.

 
Lista de livros, vídeos e cursos sobre aprendizagem de máquinas e matemática, tudo em russo. Uma seleção grande e de alta qualidade. Quase todos os pdf's dos livros são pesquisáveis no Google.
https://ru.stackoverflow.com/a/683632/1084
Книги и учебные ресурсы по машинному обучению
Книги и учебные ресурсы по машинному обучению
  • ru.stackoverflow.com
Для тех, кто хочет на русском языке почитать: Хараламбос Марманис, Дмитрий Бабенко Алгоритмы интеллектуального Интернета. Передовые методики сбора, анализа и обработки данных источник К. В. Воронцов. Математические методы обучения по прецедентам (теория обучения машин) источник Мерков А.Б. Введение в методы статистического обучения...
 
Zhenya:

Ouvi dizer que o diplanning é um pouco diferente, é tudo uma busca automática de características SIMPLES, em estruturas hierárquicas, como imagens ou texto, onde as bordas têm cantos e linhas com formas simples que são mais complexas e assim por diante. Quanto às séries cronológicas, não é bem a mesma coisa. Então se a rede neural de convolução profunda encontra gatos e rostos em imagens, isso não significa que ela irá prever friamente o mercado, além de toda a "profundidade" ser uma enorme chatice para os usuários, é uma enorme chatice mesmo para aqueles que recriaram toda a rede do zero em C++ por 10 vezes, muitos parâmetros são muito instáveis, os resultados são aleatórios. Você tem que lidar com isso por muitos anos. Mas não é o meu IMHO, nunca o experimentei e provavelmente nunca o farei.

Não é tão mau como se diz.

Não é muito difícil, comece com estes poucos artigos(1, 2, 3, 4). Não vai funcionar tudo ao mesmo tempo e não vai fazer sentido, mas vai ser útil.

Boa sorte.

 
Gianni:

Ouvi dizer que o diplanning é um pouco diferente, é tudo uma busca automática de características SIMPLES, em estruturas hierárquicas como imagens ou texto, onde as bordas são cantos e linhas com formas simples, mais complexas e assim por diante. Quanto às séries cronológicas, não é bem a mesma coisa. Então se a rede neural de convolução profunda encontra gatos e rostos em imagens, isso não significa que ela irá prever friamente o mercado, além de toda a "profundidade" ser uma enorme chatice para os usuários, é uma enorme chatice mesmo para aqueles que recriaram toda a rede do zero em C++ por 10 vezes, muitos parâmetros são muito instáveis, os resultados são aleatórios. Você tem que lidar com isso por muitos anos. Mas não é o meu IMHO, nunca o experimentei e provavelmente nunca o farei.

Vejo, penso que na prática ninguém aqui comparou :) Vou procurar informações, que no final não se deixem enganar se se verificar que o diplantismo não dá vantagens sobre os bosques. E como a parte componente existe um MLP, pode muito bem ser que não...

A propósito, qualquer coisa com mais de 2 camadas é chamada diplerning, MLP com 2 camadas ocultas também é diplerning. Eu estava me referindo às redes profundas, que Vladimir descreveu no artigo no link acima.

Embora eles digam que os preditores são mais importantes, como os modelos funcionam da mesma forma... mas isto é teoria, na prática acontece que a selecção de modelos também é muito importante, por exemplo, um compromisso entre velocidade e qualidade, porque NS é normalmente longo...

Na prática, a mistura P-MT5 através de uma libu é muito lenta e não conveniente, eu preciso de um nativo sem nenhum software ou conexão direta com o servidor P do MT5, mas um nativo é melhor. Eu quero reescrever a rede neural que preciso no mql com C++ e é tudo.

ah, esqueci-me de adicionar IMHO

 

Ahem... ahem... tenho estado a ponderar, a ponderar...

Há muitos modelos, desde clássicos como ARMA/GARCH até avanços completos como CNN/LSTM, em algum lugar no meio do MLP\RF\XGB preferido de todos e assim por diante. Mas como unificar tudo? Para que, por exemplo, pudéssemos trocar / vender modelos treinados em formato universal, legíveis em qualquer lugar sem bibliotecas e treinamentos especiais, que tentaram passar a alguém algo não trivial modelo provavelmente entender o que eu quero dizer)))

E então percebi que o número.ai - resolveu este problema! O que eles realmente lhes enviam não é apenas previsões, mas um modelo estúpido pronto, provado com precisão suficiente. Na verdade deveria ser assim, caso contrário, como você pode obter ficções do futuro de antemão para dar uma resposta a elas, as ficções estão em tempo real, você não pode conhecê-las de antemão. Mas se preenchermos o espaço N-dimensional com uma grade de pontos, então um novo ponto, o(s) mais próximo(s) da grade, que são procurados instantaneamente como um elemento de matriz por índice. E qualquer modelo simples e complicado pode ser enrolado em tal modelo, facilmente transferido e utilizado sem revelar os seus segredos.

Respeito ao número.ai, a ideia é super!

Proponho-me a pensar como pode ser usado na nossa miserável comunidade))))