Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 738

 

A fundação do Michael está bem. Um bom exemplo para aqueles que procuram um lugar para começar.

Ele tem alguns bons indicadores, acho que até da bolsa, que já é melhor do que o mashka e rsishka padrão. Então ele não só enfia tudo isso na rede neural, mas também avalia os indicadores por vários meios e seleciona os mais adequados para a previsão. Então o neurônio é treinado, mas não um simples, mas um com controle de excesso de equipamento incorporado. E toda esta estratégia é testada no testador usando o roll-forward.

SanSanych já descreveu tal esquema no início deste tópico, finalmente alguém decidiu usá-lo. Caso contrário, muitos comerciantes podem querer colocar mais indicadores na neurônica sem pensar.

Eu também pré-processaria indicadores através de tratamento ou carpete. E uma neuronka mais adequada com kfold. E eu tomaria mais exemplos para o treino, concordo com outros críticos.

 

Eu sei, irmãos!!! Vou dizer-vos a todos de uma vez... Todos dançam à medida da sua educação, mas é o resultado final que resolve a nossa disputa. O resultado, por assim dizer. Estou a ganhar até agora, porque o depósito está a crescer. Eu sei que a minha abordagem é uma das correctas.

A propósito, eu uso o vtreat para selecionar preditores importantes + truques com o shuffling.

Isto será discutido em detalhe no artigo sobre BOO.

 
Mihail Marchukajtes:

Eu sei, irmãos!!! Vou dizer-vos a todos de uma vez... Todos dançam à medida da sua educação, mas é o resultado final que resolve a nossa disputa. O resultado final, por assim dizer. Estou a ganhar até agora, porque o depósito está a crescer. Eu sei que a minha abordagem é uma das correctas.

A propósito, eu uso o vtreat para selecionar preditores importantes + truques com o shuffling.

O artigo sobre BO vai falar sobre isso em detalhes.

Acima você escreveu sobre informação mútua. O que é que isso tem a ver?

 
SanSanych Fomenko:

Você escreveu acima sobre informação mútua. O que é que isso tem a ver?

O critério decisivo na escolha do modelo a utilizar. Prepara o ditset. Você treina 10 vezes. Obtemos 10 modelos com os mesmos resultados de treinamento (como exemplo) onde o número de erros de treinamento é o mesmo para todos os modelos. Depois guardamos os resultados dos modelos na secção de treino não em formato binário, mas em formato dable. O resultado do cálculo polinomial é inicialmente calculado em dable......

Depois calculamos VI de polinómios em relação à produção. Os modelos de trabalho são considerados como tendo VI superior à entropia de saída ou simplesmente mais do que 0,7 aproximadamente....

Escolha um modelo com alto índice de OI, mas não superior a 0,95. Embora ainda não o tenha verificado.... IMHO

 

Quanto a aumentar a amostra de treinamento. Sim, pode ser aumentada, mas irá diminuir a qualidade da rede, o que leva a uma diminuição das transacções. A rede começa a funcionar por mais tempo, mas o número de "Não Sabe" aumenta e acontece que a rede funciona com menos frequência. Com esta abordagem é necessário treinar vários modelos e executá-los em paralelo.


Ainda mais, o período de treino é-me agora ditado pelo vtreat.R. Que com os meus dados de entrada me oferece conjuntos de entradas para diferentes comprimentos de amostra. Eu escolho o período máximo de aprendizagem com o número máximo de variáveis de entrada que ele escolhe.... E, estranhamente, ele gira de 20 a 50 amostras. Aparentemente, as minhas entradas são assim. Que posso eu fazer...

 

Mihail Marchukajtes:

...

Um critério decisivo para a escolha do modelo a utilizar

...

Vou tentar traduzir isso em MO:

Embora o modelo seja um modelo de classificação, ele pode retornar o resultado não apenas em binário 0 e 1, mas também a probabilidade de associação em uma classe (um número fracionário de 0 a 1). Portanto, o modelo pode ser estimado não apenas com métricas de classificação, mas também com métricas de regressão. Não sei por que a informação mútua foi escolhida, mas se correlaciona bem com o MOC, então está tudo bem.

Em R pode ser calculado da seguinte forma
biblioteca(entropia)
mi.plugin(rbind(alvo,previsão))
Aqui quanto menor o resultado, melhor.

 
Não tenho a certeza do que é:

Claro, mas em estatística o erro (variação) é proporcional a 1/sqrt(N) onde N é o número de observações, aqui tudo depende da variação inicial, quanto mais for, mais observações são necessárias para encaixar o erro no quantil de 5%.

"Procure alguém que se beneficie com isso" ((c) Lenin)

Apenas ferramentas inúteis ou mesmo prejudiciais são mostradas publicamente e vendidas, por razões óbvias, esta verdade trivial deve ser sempre tida em conta, altotrading não é um webdesign ou alguma outra franquia, é um roubo funcional directo de dinheiro do mercado, tudo o que é aberto e facilmente acessível, muito menos publicitado, a priori não pode ser útil neste contexto, lixo ou fraude, ambiente tão agressivo e competitivo que temos.

Sim, bem, a taxa de vitória de 5 percentis e uma infinidade de ferramentas disponíveis publicamente é um Klondike.

E recentemente tive que fazer um componente de rede neural personalizado, que o testou três ordens de magnitude melhor do que o astuto DNN de TensorFlow.

E o mais importante, não havia nenhuma matemática complicada ou tecnologias complicadas, mas sim uma solução simples, embora original.

Neste contexto, a adesão de Mikhail ao design da Reshetov não me surpreende em nada.

 
Eunão sei:

É isso que quero dizer, só isso. Se eu tirar 40 amostras através da minha infra-estrutura, também não posso garantir o resultado, e 4.000 pontos é muito pouco. A menos, claro, que estejamos a falar de estratégias de combate, e não de estratégias de artigos.

Eu aderi à seguinte regra - um EA sobre novos dados não funcionará para mais de 10% das barras treinadas. Se eu tiver treinado em 4000 barras, significa que este EA não funcionará por mais de 400 barras. Por exemplo, se eu quiser trocar uma semana no m15, preciso de pelo menos 4800 (4*24*5*10, 10 semanas) barras de história para treinar.

Algum dia o MT5 introduzirá fios paralelos em experts para poder otimizar o Expert Advisor em segundo plano e então será possível realizar experimentos interessantes com um número extremamente baixo de barras e talvez eu seja capaz de fazê-lo com 40 barras. Embora provavelmente não seja capaz de o fazer. Mesmo que eu tenha menos de 1000 amostras, o resultado da neurônica se inclina para a tendência e, assim que ela muda, é ruim.

 
Mihail Marchukajtes:

Quanto a aumentar a amostra de treinamento. Sim, pode ser aumentado, mas irá diminuir a qualidade da rede, o que leva a uma diminuição das transacções. A rede começa a funcionar por mais tempo, mas o número de "Não Sabe" aumenta e acontece que a rede funciona com menos frequência. Com esta abordagem é necessário treinar vários modelos e executá-los em paralelo.


Ainda mais, o período de treino é-me agora ditado pelo vtreat.R. Que com os meus dados de entrada me oferece conjuntos de entradas para diferentes comprimentos de amostra. Eu escolho o período máximo de aprendizagem com o número máximo de variáveis de entrada que ele escolhe.... E, estranhamente, ele gira de 20 a 50 amostras. Aparentemente, as minhas entradas são assim. O que pode fazer...

Não a qualidade da rede diminuirá, mas haverá menos sobre-vestimentos e o seu modelo aparecerá em toda a sua glória e pobreza.

O meu neurónio Reshetov opta por 3 meses para mais de 1000 negócios em 3 ficções inteligentes, e funciona a zero em real. E outros neurónios optimizam ainda melhor. Não sei porque continuas a dizer tantas tolices com os teus 100 ofícios, és tão estúpido, és tão estúpido ou queres provar alguma coisa a alguém?
 

hmm... boa tarde!)

A palavra "curwafitter" é algo neural?