Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 632

 
Maxim Dmitrievsky:

Tenho estado a pensar em re-informação lerning, por isso encontrei este artigo interessante e estou a tentar comprá-lo e talvez adicioná-lo ao bot

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Só que ele tem algum tipo de droga no final só aprende a comprar por alguma razão

Eu tenho a mesma situação - o classificador NS muitas vezes fica atolado em uma classe. As aulas precisam de ser alinhadas. Mas eu tenho 95% de uma classe e 5% da outra. *20 volume de filas não é desejável.
Isto é mais ou menos o mesmo que naquele artigo e eu percebo isso.

Acho que vou mudar para regressão/previsão para experimentar e ver o que vai acontecer...

 
Maxim Dmitrievsky:

Eu tenho me perguntado sobre o lerning da re-informação, então eu encontrei um artigo interessante e estou tentando comprá-lo e talvez adicioná-lo ao bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Estou tentando comprar um bot, mas ele é um pouco tonto, só aprende a comprar no final por alguma razão.

Bem, ele mesmo explicou lá que está tudo bem, porque há uma clara tendência de alta lá. Um comentador lá também diz que o seu agente prefere manter uma posição longa. Sim, e o próprio autor fala sobre a pequena extensão da história. Ele também não usou a gama no código para ajustar o valor do prêmio ao longo do tempo.

E em geral o artigo é útil porque ele dá referências a duas boas bibliotecas no código.
Um para carregar dados de mercado diferentes, o outro para aplicar em dados indicadores diferentes. Tirei-o para mim.


https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/

 
elibrarius:

Eu tenho a mesma situação - o classificador NS vai muitas vezes para a mesma classe. As aulas precisam de ser alinhadas. Mas eu tenho 95% de uma classe e 5% da outra. *20 volume de filas não é desejável.
Isto é mais ou menos o mesmo que naquele artigo e eu recebo.

Estou a pensar mudar para regressão/previsão para experimentar e ver o que acontece...

Eu também enfrento esta situação.
A selecção de características, a regularização e muitas desistências, tornam o modelo mais estável. Tudo sem alinhamento, puro fluxo em série cronológica.

Tenho andado a mexer muito com as aulas por alguma razão. No meu caso (ml-assistant), a persistência do sinal é um único número [-1,1]. Ou seja, em teoria pode-se construir imediatamente uma regressão (que também sai bastante bem), mas a previsão é menos "legível" aí.
Para classificar, precisamos dividi-los em classes, e a idéia de softmax é igualar a soma das classes a 1,0. Mas no final acabou por ser mais correcto apenas dividi-los em relação a zero, o próprio modelo normaliza a soma das classes para 1, independentemente do alvo.

Mas quando eu adiciono uma terceira classe de passe, por alguma razão é uma constante sobretreinamento. Talvez eu não esteja a prepará-lo correctamente. =)

 
elibrarius:

Eu tenho a mesma situação - o classificador NS muitas vezes vai para uma classe. As classes precisam de ser igualizadas. Mas eu tenho 95% de uma classe e 5% da outra. *20 volume de filas não é desejável.
Isto é mais ou menos o mesmo que naquele artigo e eu recebo.

Estou pensando em mudar para regressão/previsão - para experimentar e ver o que acontece...

De uma amostra de 10-12k: ~800 são classe 1, os restantes são classe 0. Essa é a realidade).

Li em um livro inteligente que a relação quantitativa de aulas em uma sequência de treinamento deve estar próxima da realidade.

 
Yuriy Asaulenko:

De uma amostra de 10-12.000: ~800 são classe 1, os restantes são classe 0. Esta é a realidade).

Li em um livro inteligente que a relação quantitativa de aulas em uma sequência de treinamento deve estar próxima da realidade.

e outros livros inteligentes dizem que as aulas têm de ser equilibradas/combinadas.

Ou seja, em forex, não temos idéia sobre a população, e é lógico que o número de elementos nas classes deve ser aproximadamente igual.

 
Olá a todos!!! Alguém pode explicar claramente o significado de entropia negativa? Em termos simples......
 

Apenas um vídeo interessante sobre aleatoriedade de um homem inteligente.


 
Mihail Marchukajtes:
Olá a todos!!! Alguém pode explicar o significado de entropia negativa? Em termos simples......

Aqui está o que as pessoas inteligentes escrevem:

"Non-entropy θ corresponde a algum valor "estrutural". que é determinado pela quantidade característica da memória passada. Quando θ é grande, surgem estruturas hierárquicas complexas em uma ampla gama, quando θ é pequeno, surgem estruturas em uma pequena gama, e quando θ → 0, ou seja, sem informações sobre o passado, há uma transição marginal para os processos Markovianos".

Na verdade, este é o valor que caracteriza o não-markovianity do processo. Como eu trabalho com distribuições de probabilidade, descobri que esta coisa é responsável pelo tipo de "caudas" das distribuições.
 
Mihail Marchukajtes:
Olá a todos!!! Alguém pode explicar o significado de entropia negativa? Em termos simples......

Entropia é uma medida de desordem ou caos, não-entropia (entropia negativa) é uma medida de decência e grau de auto-organização. Um açúcar não dissolvido em um sistema de copo tem entropia mínima, uma vez completamente dissolvido - o sistema tem entropia máxima. Para devolver o sistema ao seu estado inicial, a entropia tem de ser importada do exterior - para criar uma condição de cristalização. No caso da NS, o sistema deve absorver constantemente novas informações do exterior e se livrar de informações desnecessárias, caso contrário, um aumento da entropia levará à sua morte.

 
Yousufkhodja Sultonov:

Entropia é uma medida de desordem ou caos, não-entropia (entropia negativa) é uma medida de ordenação e grau de auto-organização. Um açúcar não dissolvido em um sistema de copo tem entropia mínima, após a dissolução completa, o sistema tem entropia máxima. Para devolver o sistema ao seu estado inicial, a entropia tem de ser importada do exterior - para criar uma condição de cristalização. No caso da NS, o sistema deve constantemente absorver novas informações do exterior e se livrar de informações desnecessárias, caso contrário, um aumento da entropia levará à sua morte.

Excelente comentário. Exactamente.