Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2539

 
Ceptro #:

A minha opinião é apenas Open ou tiques.

Bem, isso é uma questão de opinião. Em termos de certeza de tempo de fechamento é o mais exato.

 

E eu ficaria grato se alguém respondesse. Acabei de começar a ler este tópico. Estou com cerca de 100 páginas. Interessante, graças aos autores do período inicial. É como um diário. Erros, descobertas, desilusões, alegrias de sucesso, esperanças frustradas... Um romance, no bom sentido da palavra. Aprendi algo novo, lembrei-me de algo antigo, ri-me (não sem isto). O dia-a-dia de um garimpeiro como ele é. A minha pergunta é simples, nesta aprendizagem da máquina, a "máquina" permanecerá uma caixa negra? Já o alimentámos com inputs/precipientes e queremos obter uma resposta? Já procuraram "coragem" de quê e como cozinha...? Talvez tenham tentado traduzir a máquina para a linguagem MQL que encontram aqui?

Provavelmente vou terminar o fio, está a correr bem até agora, mas gostaria de ter spoilers)

 
Andrei Trukhanovich #:

Bem, isso é uma questão de opinião. Em termos de certeza de tempo o fechamento é o mais preciso

em termos de incerteza no candelabro, sabemos exactamente a hora ou o preço... para fechar a hora, para abrir o preço :-)

figurativamente, quando de 15.58 até 16.03 não há carrapatos (e esta é uma situação normal, há momentos típicos de tais buracos), então feche sabe a hora 16.00 mas o preço errado, e para abrir a hora errada é o preço correto/ relevante

 
Ceptro #:

E agradecia que alguém respondesse. Acabei de começar a ler este tópico. Estou com cerca de 100 páginas. Interessante, graças aos autores do período inicial. É como um diário. Erros, descobertas, decepções, alegrias de sucesso, esperanças frustradas... Um romance, no bom sentido da palavra. Aprendi algo novo, lembrei-me de algo antigo, ri-me (não sem isto). O dia-a-dia de um garimpeiro como ele é. A minha pergunta é simples, nesta aprendizagem da máquina, a "máquina" permanecerá uma caixa negra? Alimentaste-o com inputs/precipientes e queres ter uma resposta para o dia? Olhaste para a "coragem" de quê e como os Rrrr cozinham...? Talvez tenham tentado traduzir a máquina para a linguagem MQL que encontram aqui?

Provavelmente vou terminar o fio, está indo bem até agora, mas gostaria de alguns spoilers)

Para alcançar o esclarecimento comece com um ramo na Onyx e só depois comece este *sarcasmo


Ler livros

 

Eu acho que a filosofia aqui é simples:

(H+L)/Fechar. ou seja, fechar. como o mais justo (equilíbrio) no momento(!) atual, H/Fechar+L/Fechar, como a soma das frações no intervalo de tempo, com um total de + ou - ou seja, o resultado do momento acima/abaixo... imho


Ceptro #:

. A minha pergunta é simples, nesta aprendizagem da máquina, a "máquina" permanecerá uma caixa negra? Você o alimenta com entradas/previsões e quer obter uma resposta para o dia?

...e a resposta é um pouco simples.
Maxim Kuznetsov #:

Em teoria, sim, mas onde está o vector de pesos ou transformação de coordenadas frente+reverso?

O MNC é quase um método universal, o que posso dizer... Quero dizer, é abstracto, mas para funcionar, é preciso a física do processo.

.. VMNC - MNC ponderado (escalas, por exemplo, dispersão)... em geral, parece-me que tudo o que é brilhante deve ser simples...

Renat Akhtyamov #:

não sabem o que estão a cozinhar

preditores para MO provavelmente (as escalas estão envolvidas)

Suspeito que eles inventam uma função como

preço = a1*y1+a2*y2+...aN*yN

um truque lógico em princípio

é interessante o que vai resultar

apenas se você o dividir em segmentos, provavelmente você precisa multiplicar cada parte por algo relacionado ao ângulo também

polinomial - para análise multivariada (e a sua fórmula - linear!!! - a propósito, o coeficiente a no seu y [embora x] seja o ângulo) - ... para fator único - apenas uma equação típica de linha reta (y=kx+bias)...

e aqui começa a parte mais interessante da diferenciação - a ordem do polinômio (= número de suas curvas-1 e propagação do sinal desde o início do treinamento até o final) -- você certamente não deve se deixar levar, mas se a realidade é tal que dy/dx=a^3x (não uma dependência linear) e acima. -- então acho que não há muito a fazer aqui -- pegue a derivada do que está lá (acho que vi em algum lugar recomendações para diferenciação em função de diferenças de 1s e 2s => escolher o grau de polinômio -- não consigo encontrar)... OU considere o CDF e descarte os persentis extremos... imho para encontrar o meio... OU para explorá-los como sinais na análise do desvio da média... imho... É assim que Maxim Dmitrievsky o coloca em termos de ML

+ e o problema de um gradiente amortecido ou aumentado também está sempre na agenda... Acho que é aqui que a ponderação adequada vem a calhar... Embora a filosofia da ponderação possa ser diferente para os adeptos da "liberdade de escolher pesos"... Odeio lutadores da liberdade em russo (por isso começam a distorcer correlações reais e relações causa-efeito também nas fórmulas) -- a diferenciação certa (ou seja, variáveis certas) dará pesos certos, e a arquitectura certa da NN ajudará a trazer significado dos pesos para o resultado da aprendizagem... imho

p.s.

de qualquer forma, para mim as fracções H e L de perto inspiram mais confiança do que apenas fechar... - esse é o ponto aqui - para colocar as escalas corretamente na caixa preta (é por isso que é importante o que está na entrada e o que está fora) - para não ficar excessivamente alto/baixa dispersão... e para não perder gradiente significativo na fase de aprendizagem - e como Mikhail Mishanin já disse (antes que o fio afunde nas enchentes e brigas) - "deixar o mais importante sobreviver e evoluir".

no NN - quase como no Titanik

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2017.07.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Eu troco com um polinómio como este e não me preocupo.

double decision = -0.07651082803761469 * sigmoid(x1 + x2 + x3) -0.04311207233300622 * sigmoid(x1 + x3 + x4) -0.05386865347421374 * sigmoid(x0 + x1 + x5) -0.00827465962899799 sigmoid(x1 + x2 + x4 + x5) -0.10576034451547747 * sigmoid(x4 + x6) -0.10960470278870797 * sigmoid(x0 + x2 + x3 + x5 + x6) -0.07378595451557275 * sigmoid(x0 + x1 + x2 + x4 + x5 + x6)  + 0.12026124486704332 * sigmoid(x7)  -0.06493964309873379 * sigmoid(x0 + x1 + x4 + x5 + x7)  -0.019388523137606112 * sigmoid(x1 + x2 + x4 + x5 + x7)  + 0.11097666707952629 * sigmoid(x4 + x6 + x7)  -0.0850998961499252 * sigmoid(x2 + x5 + x6 + x7)  -0.07273316247296563 * sigmoid(x0 + x4 + x8)  -0.2787231204565592 * sigmoid(x1 + x3 + x5 + x8)  -0.05990910736573329 * sigmoid(x0 + x1 + x4 + x6 + x8)  -0.0678407759220267 * sigmoid(x0 + x1 + x5 + x6 + x8)  -0.009089263426671367 * sigmoid(x0 + x2 + x3 + x4 + x7 + x8)  -0.10259720462275745 * sigmoid(1.0 + x3 + x4 + x8);
Como eu disse antes, o polinômio em si não é tão importante quanto o método para obtê-lo. Mas todos ficam surdos quando não conseguem entender uma simples frase...
 
JeeyCi # :

Eu ainda tenho mais confiança nas acções H e L próximas do que nas próximas...

Eu mesmo vou acrescentar/refutar:

e aqui novamente o mesmo problema - as recomendaçõesaqui- frações podem não ser uma panaceia, mas a faixa dinâmica pode não ser de forma alguma "diferença de período entre 2 fechamentos".

Khristian Piligrim #:

É claro que é muito importante para um desempenho estável e uma previsão eficaz para treinar correctamente o modelo, e para isso é necessário, antes de mais nada, formar correctamente os dados de entrada. Para este fim eu primeiro escalei os dados de entrada por analogia com o que fiz no meu artigo "The Principle of Superposition and Interference in Financial Instruments" e depois mudei a grade de escalonamento para que os dados estivessem sempre na mesma faixa dinâmica, não importa como o mercado mudou, eu rejeitei os métodos tradicionais de normalização, eles distorcem os dados em demasia. Na fase seguinte tentei assegurar que o vector em relação ao qual o treino foi feito fosse totalmente coberto pelas variáveis de entrada, na fig. 1. - pobre sobreposição, na Fig. 2. - é muito melhor e, portanto, a precisão do treinamento será significativamente maior (a linha preta é o vetor, relativamente ao qual o treinamento é conduzido, as outras linhas são os sinais de entrada).

ou seja, normalização padrão sobre variância e não particularmente adequada... (

? talvez, no coeficiente de racionamento para os dados recebidos adicionar também WMA, ou simplesmente por peso - afinal, ele reflete a dinâmica (embora com um atraso)

p.s.

1) mas talvez "faixa dinâmica" seja dolorosamente simples - o ponto de intersecção de 2 MA - é importante acertar os períodos... só os OTFs olham para 50 e 200... mas para a análise de dados grandes, períodos de MA mais favoráveis podem ser encontrados pela memória da rede neural (se outros fatores relacionados forem levados em conta)... imho

2) embora pessoalmente me pareça que "faixa dinâmica" é o período em que o preço ainda era normalmente distribuído de nível para nível (acho que se poderia dizer cluster -- fez um mark-up e novamente trabalhou/classificou por pesos/características/memória já definidos no mercado antes -- antes da chegada de novos OTF)... mas como explorar essa lógica no racionamento de entrada - eu ainda não sei (exceto para fazer todos os mesmos dy/dx além de apenas t-estatísticas)... É mau, claro, que o testador de estratégias não seleccione as características (índices) em si, e a optimização só é possível pelo que lhe é dado (e longe de ser informação de fonte limpa)... - Por isso as pessoas têm de ir ao ML

Piligrimus - нейросетевой индикатор.
Piligrimus - нейросетевой индикатор.
  • 2009.05.29
  • www.mql5.com
Между делом, сделал сегодня черновой вариант индикатора на формализованной неронной сети...
 
Tens uma mina de ouro e não consegues ver por baixo dos pés.
 
BillionerClub #:
Você tem uma mina de ouro e não consegue ver por baixo dos pés

É evidente que a SVM permite a separação linear de dependências não lineares (mas a redução da dimensionalidade tem de ser ajustada de alguma forma - tem as suas próprias nuances)... mas antes de mais a análise multivariada (com saída de regressão múltipla polinomial) é mais ou menos assim para mim, quando todos os factores se influenciam mutuamente, e não sei como é que a biblioteca faz a sua extracção de características (e há muitas nuances nas estatísticas) ... E em segundo lugar, para apanhar os hiperparâmetros correctos para SVM em python - também precisa de conhecer a biblioteca de alguma forma... muitos estão a pisar por aqui (a biblioteca é decente) - desde que as nuances que descrevi no processo de modelagem com esta biblioteca não gerem um modelo sobre/subformado, sobreformado ou subformado...

para compreender esta biblioteca, se a vires pela primeira vez, terás de olhar debaixo dos pés durante muito tempo...

a parte "dourada" é discutível... Ainda estou céptico quanto a não ser capaz de manter as tendências e saltar delas cedo por causa do robô... Mas também não quero sofrer desvantagens quando o robô não reparou em algo... por isso só um modelo estatístico de qualidade valeria o seu peso em ouro mesmo antes do ML... para tentar aumentar a probabilidade de 50/50... imho

StandardScaler with make_pipeline
StandardScaler with make_pipeline
  • 2018.04.21
  • april
  • stackoverflow.com
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
 
JeeyCi #:

OU considerar o CDF e descartar os persentis extremos... imho para encontrar o do meio... ou explorá-los

probabilidade de caudas em PDF(que de fato é derivado do CDF, ou seja, PDF é um PDF diferencial): 1-P(a<=X<=b) , onde [-infinidade,a] e [b,+infinidade] são caudas de distribuição