Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1810

 
Evgeny Dyuka:

Sim! É assim que as coisas são e nada mais.

Eu não concordo, mas não vou impor nada...

 
mytarmailS:

Eu não concordo, mas não vou impor nada...

Você pode passar 3 dias com instrumentos visualmente diferentes. Em qualquer caso, primeiro examinamos a série e tiramos conclusões. E é sempre melhor encontrar um entendimento no teste do que corrigir uma perda no verdadeiro).

 
Valeriy Yastremskiy:

É melhor testar sem emoções)))) Mais uma razão para negociar)))))))

Francamente falando, o tema dos palpiteiros não é abordado. Assim como a lógica dos modelos, quais devem ser aplicados quando, e qual é o critério para a sua seleção.

As recomendações sobre como preparar os dados não têm nada a ver com o resultado. Embora sem ele, não podemos começar)))))

Os modelos lógicos, os critérios de selecção e a preparação dos dados são questões chave, ninguém pode dar-lhe uma solução de trabalho. Se o conseguires expor, não funciona.

Não importa se é bom ou não em termos humanos, você só tem que admitir que estas são as regras do tópico em que nos sentamos.

 
Valeriy Yastremskiy:

É melhor testar sem emoções)))) Mais uma razão para negociar)))))))

Francamente falando, o tema dos palpiteiros não é abordado. Assim como a lógica dos modelos, quais devem ser aplicados quando, e qual é o critério para a sua seleção.

As recomendações sobre como preparar os dados não têm nada a ver com o resultado. Embora sem ele, não está a começar a)))))

Não divulgado não está aqui, está ao presente estado de coisas, infelizmente. Nenhum trabalho ou conclusões, como determinar qual modelo é melhor para uma determinada série, a não ser para comparar resultados).

 
Evgeny Dyuka:

A lógica dos modelos, os critérios de selecção e a preparação dos dados são questões chave, ninguém dará uma solução de trabalho. Se estiver disposto, não funciona.


Bem, provavelmente não é bem assim. É que existem métodos matemáticos e anteriormente a sua aplicação não estava disponível para todos, agora está disponível. Mas não há outra solução a não ser olhar e escolher e tentar. A máxima plausibilidade é um método, mas é subjetivo e o problema está na subjetividade da escolha dos parâmetros significativos para a análise.

É melhor discutir lógicas, modelos e preditores com características e lógica da sua aplicação.

Não importa se funciona ou não. Está provado que não está a 100%. E mesmo um será suficiente para falhar)))) O principal é a mão!!!!! Ou a cauda)))))

 
mytarmailS:

por favor...

200 ou 300 em valores absolutos.

Em que gamas estás interessado?


Ou talvez estudar um pouco de R? ;)


5 linhas de código e você conseguiu o que queria

Eu acho que você precisa olhar para o equilíbrio dos erros (+1 entrada correta e -1 entrada errada), ou pelo menos normalizar o equilíbrio para reduzir os outliers.

R é uma tarefa muito difícil para mim, não parece MQL, e eu estou longe de ser um programador. E eu nem sequer sou programador, e não tenho uma ajuda adequada.


Eu vi que você está interessado na eficiência da amostragem. Também estou interessado neste tópico, especialmente quero entender se é possível fazer a divisão melhor do que eu. Eu posso fazer uma amostra onde os valores preditores sem e com deseleção, assim você pode verificar a eficiência do pacote, ou seja, se ele pode aprender melhor após uma amostragem artificial do que após a minha lógica, então o pacote é mais eficiente do que humano.

 
Aleksey Vyazmikin:

Eu acho que você precisa olhar para o saldo de erros (+1 entrada correta e -1 entrada errada), ou pelo menos normalizar o saldo a fim de reduzir os outliers.

R é uma tarefa muito difícil para mim, não parece MQL, e eu estou longe de ser um programador. E eu nem sequer sou programador, e não tenho uma ajuda adequada.


Eu vi que você está interessado na eficiência da amostragem. Também estou interessado neste tópico, especialmente quero entender se é possível fazer a divisão melhor do que eu. Eu posso fazer uma amostra de valores preditores sem e com deseleção, para que você possa verificar a eficiência do pacote, ou seja, se ele pode aprender melhor após uma amostragem artificial do que após a minha lógica, então o pacote é mais eficiente do que um humano.

Eu também não sou programador, além disso, comecei a estudar C#, não entendi nada e desisti, depois tentei R e tudo correu bem :)


A discrição certamente não lhe dará nenhum ganho de qualidade; além disso, é mais provável que desça, o principal é não ganhar muito.

Eu preciso dele para converter variáveis numéricas com um intervalo de milhares de divisões em variáveis categóricas, que terão, digamos, apenas 20 níveis.

Preciso dele para gerar regras que irão repetir .....

Para que preciso dele? As florestas trabalham por princípio de votação, a probabilidade de saída é a soma dos votos das árvores, às vezes o algoritmo mostra alta probabilidade mas a previsão é má e às vezes tem alta probabilidade e boa previsão, então vejo que se eu souber exatamente quais regras estão envolvidas na votação neste momento eu posso distinguir as regras honestas e as ruidosas...

 
mytarmailS:

Eu também não sou programador, na verdade até comecei de estudar C#, não entendi nada e desisti, depois tentei R e tudo correu bem :)


A discrição certamente não lhe dará nenhum ganho de qualidade; além disso, é mais provável que desça, o principal é não ganhar muito.

Eu preciso dele para converter variáveis numéricas com um intervalo de milhares de divisões em variáveis categóricas, que terão, digamos, apenas 20 níveis.

Preciso dele para gerar regras que irão repetir .....

Para que preciso dele? As florestas trabalham no princípio da votação, a probabilidade de saída é a soma dos votos em árvore, às vezes o algoritmo mostra alta probabilidade mas a previsão é má e às vezes tem alta probabilidade e boa previsão, se eu sei exatamente quais regras estão envolvidas na votação então eu posso distinguir regras honestas e ruidosas...

No meu caso, a discretização melhora o resultado, e sim, os meus preditores estão mais próximos da categorização, quase todos eles, com valores entre 2 e 20.

Na verdade, para estimar um modelo como este, você precisa verificar a similaridade nos pontos de ativação das folhas envolvidas na votação, e remover/despesar as folhas que são constantemente ativadas em pontos de amostra similares. Tais árvores barulhentas se encaixarão bem na história, por causa do excesso de memória.

Idealmente cada folha deveria conter o significado e a vizinha deveria acrescentar-lhe algo diferente, mas descrevendo algo diferente, por exemplo, uma determinou que temos uma bola à nossa frente, outra determinou a sua cor - por isso classificou a bola pertencente a um determinado tipo de jogo. Simplificado.

Decomponha a floresta em folhas com índices de árvores e veja a ativação de cada folha na amostra, depois descarte os detritos.
 
mytarmailS:

Vladimir, poderia me dizer como em R é possível ensinar AMO não por exemplo classificação ou regressão, mas algo mais vago ...

Não sei como deve ser e que valores deve assumir; não é importante para mim, tudo o que posso fazer é descrever uma função líder e deixar a AMO maximizar um critério de liderança na função líder criada por ela mesma.

Ou é apenas um problema de otimização e não tem nada a ver com AMO?


1. qualquer modelo requer otimização dos hiperparâmetros. Com os valores por defeito definidos, o resultado não será o melhor. Ao optimizar, defina o critério que é importante para si. Em todos os exemplos da literatura, estes critérios são métricas estatísticas (Acc, F1, etc.). No nosso caso, estes critérios nem sempre conduzem ao resultado esperado na negociação (por estranho que pareça). Por exemplo, uso a recompensa média por barra durante um determinado período de tempo (geralmente 1 semana) como critério de otimização e indicador do desempenho do modelo. Se não for inferior ao valor mínimo (por exemplo, 5 pontos de 4 sinais), então continuamos a trabalhar. Se tiver caído, então terminaremos o modelo com dados frescos. A optimização é apenas Bayesiana, dá variantes.

O modelo deve ser continuamente melhorado no processo, levando em conta a mudança das condições de mercado. É uma grande ilusão que você possa treinar um modelo sobre uma enorme variedade de dados passados e depois usá-lo por um longo tempo sem se reciclar.

2. Sintetizando alguma função, eu não sei de que tipo - isto é uma coisa de fazer ou não saber o quê. Existem vários pacotes que implementam a programação genética. Os nomes exatos não estão disponíveis no momento. Mas esta é uma secção muito complicada. Tente .

3. Discretização. O principal objetivo da amostragem é tornar a relação preditor-alvo tão linear quanto possível. Isto, claro, resulta em perda de informação. Mas, em alguns casos, dá resultados bastante bons.

Boa sorte.

Генетическое программирование - Genetic programming - qwe.wiki
Генетическое программирование - Genetic programming - qwe.wiki
  • ru.qwe.wiki
В области искусственного интеллекта , генетическое программирование ( ГП ) представляет собой метод , посредством которого компьютерные программы кодируются в виде набора генов, которые затем модифицированных (эволюционировали) с использованием эволюционного алгоритма (часто генетический алгоритм , «GA») - это применение ( например...
 
A discretização é um disparate, a regularização pode ser utilizada. Acrescentar ao modelo enquanto trocamos também é um disparate, não vai funcionar