Etiqueta de mercado ou boas maneiras em um campo minado - página 83
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
A partição ideal de um tick BP com limiar H, deve ser considerada a partição onde existe o número mínimo de ombros consecutivos de uma única cor de uma série de transações.
Se a distribuição da linha resultante das transações é tal que mais de 50% dos ombros consecutivos têm cores diferentes, então por que NS em tudo?
É isso mesmo. De fato, o caso que você expressou corresponde a um mercado ineficiente no qual se pode e deve ganhar dinheiro! Se traçarmos a série de transações (RT) isoladamente do tempo terminal (apenas a contagem regressiva da série), o efeito é mais óbvio:
Exatamente tais áreas (e elas procuram o mesmo para estratégias H+/-) são pescadas por TC com base em construções Kagi descritas na dissertação de Pastukhov. Mas existe um problema relacionado à baixa rentabilidade (em comparação com as comissões de corretagem) de tal TS. Está ligado ao fato de que a estratégia clássica utiliza a propriedade mais simples e acessível da formação Kagi - a inversão do PT, mas existem outras regularidades... isso é o que a NS deve ser capaz de identificar!
há outros padrões... é isso que a NS deve ser capaz de detectar!
Podemos entrar em mais detalhes sobre este ponto? Não consigo pensar em mais nada, exceto no comprimento dos ombros (se você pensar em NS e kagi)
Portanto, estou meio perplexo:
Suponha que haja um NS treinado com um número de: +1,-1,+1,-1,-1,-1,-1,-1,-1.... (ou seja, entradas binárias). Neste caso, posso adivinhar com cerca de 80% de precisão a partir do triplo do que aprenderá. A não-linearidade da NS é irrelevante.
Eu gostaria tanto quanto você de saber as respostas a algumas perguntas!
Vamos ver como funciona um NS binário. Suponhamos que tenhamos um vetor de treinamento. Tudo o que tal NS pode fazer com ele para minimizar o erro de saída é calcular as probabilidades de resultados para todas as combinações possíveis de entrada. Para maior clareza, deixe-nos ter três entradas, então todas as combinações de entradas são reduzidas aos seguintes padrões (para beleza iremos de +/-1 a 0/1):
000
001
010
011
100
101
110
111
Deixe o vetor de treinamento P ser várias vezes maior que o número de entradas d, então o NS simplesmente calculará a probabilidade p de cair 1 em cada padrão (a probabilidade para zero é 1-p). Mas podemos fazer isso sem NS! Há aqui uma sutileza. Nomeadamente, o que você fará quando o vetor de treinamento não contiver nenhuma combinação? O que você atribuirá na realidade a este padrão? - Nada! Você terá que aumentar o comprimento do vetor P até encontrá-lo (o padrão). E não é um fato que você tenha dados suficientes disponíveis, ou mesmo que tenha, não é um fato que você não consiga sair da duração ideal do aprendizado. Você entende o que quero dizer? É aqui que entra em jogo a vantagem da NS. Acontece que ele não precisa de todo o treinamento (para todas as ocasiões), mas é capaz de generalizar o conhecimento disponível com a máxima confiabilidade de generalização! Em outras palavras, ele reconstrói o resultado mais provável para um padrão por si só, mesmo que não estivesse lá antes no programa de treinamento. É como um adulto - não precisamos de um precedente para tomar uma decisão nesta ou naquela situação.
Assim, tomará uma decisão projetando os dados disponíveis (entrada) em uma certa hiper-superfície que constrói no espaço de recursos durante seu treinamento. Esta superfície é multidimensional (por número de entradas) e pode ser um plano, ou uma superfície de ordem superior (parabolóide, hiperbolóide para três dimensões, etc.). A presença de não-linearidade, permite topologias de superfície complexas, e não importa que a entrada seja binária, o que importa é que ela seja projetada em uma superfície não trivial.
Portanto, acho que a não-linearidade, mesmo com uma entrada binária, desempenha um papel.
Estou um pouco confuso sobre o cálculo de erro para a camada oculta com FA não-linear. Você pode, por favor, verificar se estou tomando o erro da camada oculta corretamente?
Aqui estou confuso pelo fato de que o erro na saída da camada oculta é igual ao valor da microcorreção da sinapse da camada de saída correspondente
Não, não está tudo bem!
1. Encontre a saída NS - OUT. Você tem esse direito.
2. Calcular o erro do NS: dOUT=x-OUT. Conhecendo este erro, encontre o valor dos pesos de correção do neurônio de saída. Isto também é correto.
3. o mesmo erro está na saída de cada i-ésimo neurônio da camada oculta (input), recalcule-o para o input pela fórmula: dIn[i]=dOUT*(1-out[i]^2), onde out[i] é a saída do i-ésimo neurônio da camada oculta. Conhecendo o erro trazido à entrada de cada neurônio(dIn[i]), você encontra o valor dos pesos de correção na camada de entrada.
Eu estava dando 100 - 120 épocas por uma única camada. Para uma camada de duas camadas, provavelmente não é suficiente? Ainda não dá bons resultados com o kotier(relógio).
Alguma coisa nela no kotier(relógio) não está dando bons resultados até agora.
Espera algo diferente?
Você esperava algo diferente?
Sinceramente, sim. Quer dizer, a coisa de camada única estava funcionando. Você está certo, no entanto, deve parar com os prazos para sempre.
Eu estava dando 100 - 120 épocas por uma única camada. Para uma camada de duas camadas, provavelmente não é suficiente? Ainda não está dando bons resultados no kotier (trabalho de relógio).
Pensei que tinha dito isso sobre a camada única...
Eu tenho uma camada dupla na capela, consistentemente dando a<=0,05, e uma camada única em torno de zero.