Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 594

 
Alexander_K2:

Não consigo dormir - fiz uma pequena leitura na internet. Eu gostei deste:

"O fato de que os aumentos são utilizados não é tão ruim em geral, a maioria dos preços logarítmicos são alimentados com o insumo, os aumentos são um passo à frente, embora ambos sejam adequados.

Conheço pessoas que puxaram o graal da NS, mas esses caras são tão fechados para a comunicação e até dicas sobre o que fazem, sou um novato, então definitivamente não tenho chance. Eu sei apenas que tudo é complicado, não é Vels, nem Metatrader e até mesmo S#, e C++ e MatLab com alguns chips que decodificam e interpretam dados vindos de caliders, acabou que esta é uma e a mesma metodologia, eu ouvi e me assustei, eles estão trabalhando com o tio que costumava moer terabytes por dia no CERN procurando por novas partículas no caos quântico.

Isso é engraçado. Mantenho a minha opinião - é necessário alimentar os mais puros, como uma lágrima, aumentos de preço para o insumo NS. São os incrementos que são a chave para tudo. Eles formam a base da solução para este problema. Na verdade, no Forex seguimos um processo pseudo-estacionário de movimento de um pacote wave ( função de densidade de probabilidade) desses incrementos. E nada mais. (Eu já escrevi este parágrafo :)))


É notável pela biografia de B.Fritzke que em 2001 ele terminou sua carreira de cientista na Universidade do Ruhr (Bochum, Alemanha) devido a uma oferta de emprego na Bolsa de Valores Alemã (Deutsche Bӧrse) . Não vou esconder que este facto serviu como um incentivo adicional para escolher o seu algoritmo como base para escrever este artigo.

https://www.mql5.com/ru/articles/163

em geral, estou espantado... sentado ao meu computador à noite... porque não escrevo um er... gás neural em crescimento... por exemplo...

BLEEP, surpreende-me como as pessoas são inteligentes.

Растущий нейронный газ - реализация на языке программирования MQL5
Растущий нейронный газ - реализация на языке программирования MQL5
  • 2010.09.24
  • Alexey Subbotin
  • www.mql5.com
В 90-х годах прошлого века исследователи искусственных нейросетей пришли к выводу о необходимости развития нового класса этих вычислительных механизмов, особенностью которого было бы отсутствие фиксированной топологии слоев сети. Это означает, что количество и расположение искусственных нейронов в пространстве признаков не задается заранее, а...
 
Maxim Dmitrievsky:

...que está a jogar forex com ela mesma...

...bem, o Yuri já escreveu sobre isso...

Que tipo de neurónio pode fazer isso? Eu de alguma forma perdi essas mensagens.

 
Dr. Trader:

Que tipo de neurônica pode fazer isso? Eu de alguma forma perdi essas mensagens.


Bem, o reforço da aprendizagem em geral, mas pode haver variações no

q-learning, por exemplo.

Não está incluído na seção de neurodinâmica ... porque é treinado de uma maneira diferente, mas a topologia e os pesos dos neurônios não mudam após o treinamento.

 
Yuriy Asaulenko:
Está ligado. Mas você é todo sobre MCL, sim MCL. Estou a falar a sério. Não é bom, desde que estejamos envolvidos em DM. Imho.
Primeiro, eu não, e Maxim sobre o MCL, que na verdade é o que eu escrevi que não foi.
Em segundo lugar, eu próprio tenho o MCL apenas como uma interface, o que significa que, se necessário, posso alterar as interfaces sem alterar o sistema de análise.
 

Todos falam sobre o que alimentar o input. Na minha opinião, o que alimentar a produção é igualmente importante. Se você alimentar o ziguezague, a rede não é treinada em nenhuma entrada. Se você equilibrar as aulas. Ou seja, se removermos a maioria dos inputs que não mostram reversões, o resultado também não retém a água. Se definirmos o preço médio de uma barra superior ou inferior ao da barra anterior como outputs. Recebemos exactamente 50% das respostas correctas. O que também não é bom. O que mais podemos inventar?

 

Olá, já acabaste o robô? Com a IA.

é hora de testá-lo ))

 

Pensamento interessante https://monographies.ru/en/book/section?id=2465.

Ao modelar redes neurais com funções de ativação de neurônios lineares, é possível construir um algoritmo que garante a obtenção de um erro de aprendizagem mínimo absoluto. Para redes neurais com funções de ativação não-linear, geralmente não é possível garantir que se atinja um mínimo global da função de erro.
...............

No caso de um modelo de rede linear e uma função de erro como soma dos quadrados, tal superfície (da função de erro) seria um parabolóide, que tem um único mínimo, o que torna relativamente fácil encontrar tal mínimo.

No caso de um modelo não linear, a superfície de erro tem uma estrutura muito mais complexa e tem uma série de propriedades desfavoráveis, em particular, pode ter mínimos locais, áreas planas, pontos de sela e ravinas longas e estreitas.

Talvez devêssemos usar mais neurónios para funções de activação não lineares? A fim de suavizar todas estas irregularidades.

 
Grigoriy Chaunin:

Todos falam sobre o que alimentar o input. Na minha opinião, o que alimentar a produção é igualmente importante.


Quando se entra num edifício chamado "Estatísticas", diz"Lixo dentro, lixo fora" por cima da entrada.



 
SanSanych Fomenko:

Quando se entra num edifício chamado "Estatísticas", diz"Lixo dentro, lixo fora" por cima da entrada.

))

 
Aleksey Terentev:
Primeiro, não sou eu, mas Maxim sobre MCL, e é por isso que escrevi que não funcionou.
Em segundo lugar, eu próprio tenho o MCL apenas como interface, por isso, se necessário, posso alterar as interfaces sem alterar o sistema de análise.
Desculpa, pensei mesmo que estava a responder ao Maxim.