O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 98

 
Maxim Dmitrievsky:

Não têm de ser estritamente periódicas, mas não têm de ser barulhentas. O quadro é probabilístico, não rigoroso. A janela deslizante destina-se ao indicador de entropia assim como o número de características para treino, podem ser optimizados.

Se as amostras forem inconsistentes não receberá nada, é por isso que existem tantos 50\50 erros. E um laço não pode ser contraditório, ou existe ou não existe, sob qualquer forma. Se adicionarmos muitos loops diferentes, eles não se contradizem uns aos outros.

Ciclo]-Não ciclo é um conceito relativo dentro da métrica da entropia.

E como se mede o grau de entropia dos dados?

 
Maxim Romanov:

E como se mede o grau de entropia dos dados?

acima é um link para o meu wiki e Alexander's no Hubr

 
kapelmann:

Certamente não olhei através de todos eles, mas todos aqueles "com fontes em MQL" todos sem as próprias redes neurais, mas essencialmente um exercício em OOP sob a forma de invólucros para várias bibliotecas ou para o mesmo NeuroPro, francamente falando depois de uma dúzia de artigos lidos, todos parecem iguais, por vezes até parece que OOP para robots de stock é mais prejudicial do que útil, IMHO OOP para projectos a partir de 100 mil linhas começa a mostrar vantagens, e quando três funções se envolvem em cinco classes e mesmo com herança é ridículo.


PS: por favor não me ensine a pesquisar na Internet, dê ligações específicas ao CÓDIGO ABERTO das redes neurais, não Vopers, não reescrevendo livros e artigos.

Estes dois parágrafos contradizem-se um ao outro. Qualquer pessoa que saiba procurar na Internet (em particular neste site) encontrará rapidamente implementações de tipos básicos de NS em MQL puro sem quaisquer dependências e invólucros.

 

É impossível fazer uma matriz normal em MQL sem muletas. De que tipo de NS estamos a falar com tão reduzidas capacidades linguísticas?

Muitas pessoas aqui não conseguem sequer reproduzir a fórmula do MLP.

 

Os retornados da série original são tomados, e a média e variância são removidas. Nesta base, os retornados da distribuição normal são gerados e são restaurados à distribuição original.

A entropia foi medida em ambas as séries. Na grande maioria dos casos é a mesma coisa, ou seja, as citações são SB.

E por retornos a diferença é como deveria ser (a entropia é mais elevada ao acaso):

Parece não haver sensibilidade suficiente para a fila nua. Pergunto-me se os vossos NSs têm "sensibilidade" suficiente. Duvidoso.

E aqui está um takeaway de Bitcoin (deve ser ainda menos eficiente, supostamente). E de facto.

Especialmente em H4.

 
Roffild:

É impossível fazer uma matriz normal em MQL sem muletas. De que tipo de NS estamos a falar com tão reduzidas capacidades linguísticas?

Muitas pessoas aqui não conseguem sequer reproduzir a fórmula do MLP.

Caiu da lua, ou do forno quando era criança?

 
Maxim Dmitrievsky:

Os retornados da série original são tomados, e a média e variância são removidas. Nesta base, os retornados da distribuição normal são gerados e são restaurados à distribuição original.

A entropia foi medida em ambas as séries. Na grande maioria dos casos é a mesma coisa, ou seja, as citações são SB.

E nos retornos a diferença é como deveria ser (a entropia é mais elevada nos randoms):

Parece não haver sensibilidade suficiente para a fila nua. Pergunto-me se os vossos NSs têm "sensibilidade" suficiente. Duvidoso.

E aqui está um takeaway de Bitcoin (deve ser ainda menos eficiente, supostamente). E de facto.

Especialmente em H4.

Boa!

E a própria entropia em janelas de tempo deslizantes, como se comporta?

Obviamente, se realizarmos estudos com janelas de tempo em movimento de múltiplos de 1 hora (em dados de um minuto são 60, 120, 180, ...), então devemos identificar aquelas janelas onde a entropia é mínima em média.

Estas são as amostras com que se deve trabalhar - tenho a certeza de que a NS encontrará aí regularidades.

 
Грааль:

Existe um Alglib portado (https://www.mql5.com/en/code/11077).

A iniciativa joo estava condenada à infâmia, e não porque as pessoas não são cooperantes, mas porque é uma ideia fútil.

Está bem, obrigado, estou a estudar o assunto.

Alexander_K:

Patamushta aqui não é um verdadeiro líder com conhecimento, de modo que as alas não passariam por opções, e ouvi-lo-iam como crianças.

Quando li este fio, lágrimas correram pelas minhas bochechas senis - como eles imploraram a alguns pingentes para tomarem o leme, mas ele próprio está sem pistas e .... É isso, estamos lixados.

Um ramo vergonhoso e instrutivo.

Os eslavos precisam de um líder, pai, severo mas justo, está nos genes, é lógico que os eslavos o sintam e peçam a outras raças (anglo-saxões, judeus, árabes...) para os comandar, faz sentido, os eslavos não toleram o seu líder, a menos que ele seja mistificado ao nível de profeta ou ungido por Deus.

 
Maxim Dmitrievsky:

Mais tarde, escreveu um jpredictor autónomo em java, com 2 redes neurais (mlp e svm, mais especificamente) com selecção automática de características

Tanto quanto sei "jpredictor" ainda tem o mesmo neurónio treinado por optimização de parâmetros, a saída do jpredictor é pesos para um neurónio, o que obviamente não é algo de que se possa orgulhar.

 
Maxim Dmitrievsky:

A entropia é medida em ambas as filas. É esmagadoramente a mesma coisa, ou seja, as citações são SB.

o nível de lógica é espantoso ))