Etiqueta de mercado ou boas maneiras em um campo minado - página 83

 
paralocus писал(а) >>

A partição ideal de um tick BP com limiar H, deve ser considerada a partição onde existe o número mínimo de ombros consecutivos de uma única cor de uma série de transações.

Se a distribuição da linha resultante das transações é tal que mais de 50% dos ombros consecutivos têm cores diferentes, então por que NS em tudo?

É isso mesmo. De fato, o caso que você expressou corresponde a um mercado ineficiente no qual se pode e deve ganhar dinheiro! Se traçarmos a série de transações (RT) isoladamente do tempo terminal (apenas a contagem regressiva da série), o efeito é mais óbvio:

Exatamente tais áreas (e elas procuram o mesmo para estratégias H+/-) são pescadas por TC com base em construções Kagi descritas na dissertação de Pastukhov. Mas existe um problema relacionado à baixa rentabilidade (em comparação com as comissões de corretagem) de tal TS. Está ligado ao fato de que a estratégia clássica utiliza a propriedade mais simples e acessível da formação Kagi - a inversão do PT, mas existem outras regularidades... isso é o que a NS deve ser capaz de identificar!

 
Neutron >> :

há outros padrões... é isso que a NS deve ser capaz de detectar!

Podemos entrar em mais detalhes sobre este ponto? Não consigo pensar em mais nada, exceto no comprimento dos ombros (se você pensar em NS e kagi)

Portanto, estou meio perplexo:

Suponha que haja um NS treinado com um número de: +1,-1,+1,-1,-1,-1,-1,-1,-1.... (ou seja, entradas binárias). Neste caso, posso adivinhar com cerca de 80% de precisão a partir do triplo do que aprenderá. A não-linearidade da NS é irrelevante.

 

Eu gostaria tanto quanto você de saber as respostas a algumas perguntas!

Vamos ver como funciona um NS binário. Suponhamos que tenhamos um vetor de treinamento. Tudo o que tal NS pode fazer com ele para minimizar o erro de saída é calcular as probabilidades de resultados para todas as combinações possíveis de entrada. Para maior clareza, deixe-nos ter três entradas, então todas as combinações de entradas são reduzidas aos seguintes padrões (para beleza iremos de +/-1 a 0/1):

000

001

010

011

100

101

110

111

Deixe o vetor de treinamento P ser várias vezes maior que o número de entradas d, então o NS simplesmente calculará a probabilidade p de cair 1 em cada padrão (a probabilidade para zero é 1-p). Mas podemos fazer isso sem NS! Há aqui uma sutileza. Nomeadamente, o que você fará quando o vetor de treinamento não contiver nenhuma combinação? O que você atribuirá na realidade a este padrão? - Nada! Você terá que aumentar o comprimento do vetor P até encontrá-lo (o padrão). E não é um fato que você tenha dados suficientes disponíveis, ou mesmo que tenha, não é um fato que você não consiga sair da duração ideal do aprendizado. Você entende o que quero dizer? É aqui que entra em jogo a vantagem da NS. Acontece que ele não precisa de todo o treinamento (para todas as ocasiões), mas é capaz de generalizar o conhecimento disponível com a máxima confiabilidade de generalização! Em outras palavras, ele reconstrói o resultado mais provável para um padrão por si só, mesmo que não estivesse lá antes no programa de treinamento. É como um adulto - não precisamos de um precedente para tomar uma decisão nesta ou naquela situação.

Assim, tomará uma decisão projetando os dados disponíveis (entrada) em uma certa hiper-superfície que constrói no espaço de recursos durante seu treinamento. Esta superfície é multidimensional (por número de entradas) e pode ser um plano, ou uma superfície de ordem superior (parabolóide, hiperbolóide para três dimensões, etc.). A presença de não-linearidade, permite topologias de superfície complexas, e não importa que a entrada seja binária, o que importa é que ela seja projetada em uma superfície não trivial.

Portanto, acho que a não-linearidade, mesmo com uma entrada binária, desempenha um papel.

 
Sim, eu entendo. Há uma idéia. Precisamos calcular a probabilidade de que o módulo de projeção da próxima alavancagem de uma série de transações no eixo Y seja n>1 spread. Em seguida, calcule o tamanho do suborno como um MO de comprimento de alavanca e o mesmo será a parada. Receio que isso seja tudo o que as estatísticas podem dar, mas é +.
 

Estou um pouco confuso sobre o cálculo de erro para a camada oculta com FA não-linear. Você pode, por favor, verificar se estou tomando o erro da camada oculta corretamente?

Aqui estou confuso pelo fato de que o erro na saída da camada oculta é igual ao valor da microcorreção da sinapse da camada de saída correspondente

 

Não, não está tudo bem!

1. Encontre a saída NS - OUT. Você tem esse direito.

2. Calcular o erro do NS: dOUT=x-OUT. Conhecendo este erro, encontre o valor dos pesos de correção do neurônio de saída. Isto também é correto.

3. o mesmo erro está na saída de cada i-ésimo neurônio da camada oculta (input), recalcule-o para o input pela fórmula: dIn[i]=dOUT*(1-out[i]^2), onde out[i] é a saída do i-ésimo neurônio da camada oculta. Conhecendo o erro trazido à entrada de cada neurônio(dIn[i]), você encontra o valor dos pesos de correção na camada de entrada.

 

Eu estava dando 100 - 120 épocas por uma única camada. Para uma camada de duas camadas, provavelmente não é suficiente? Ainda não dá bons resultados com o kotier(relógio).


 
paralocus писал(а) >>

Alguma coisa nela no kotier(relógio) não está dando bons resultados até agora.

Espera algo diferente?

 
Neutron >> :

Você esperava algo diferente?

Sinceramente, sim. Quer dizer, a coisa de camada única estava funcionando. Você está certo, no entanto, deve parar com os prazos para sempre.

 
paralocus писал(а) >>

Eu estava dando 100 - 120 épocas por uma única camada. Para uma camada de duas camadas, provavelmente não é suficiente? Ainda não está dando bons resultados no kotier (trabalho de relógio).

Pensei que tinha dito isso sobre a camada única...

Eu tenho uma camada dupla na capela, consistentemente dando a<=0,05, e uma camada única em torno de zero.