Como formar os valores de entrada para os NS corretamente. - página 24

 
Reshetov писал (а) >>

E finalmente, para aqueles nerds que pensam que as capacidades de interpolação da NS são necessárias para o comércio, eu posso fornecer um contra-argumento concreto. Basta pegar qualquer indicador ou oscilador redesenhado e você terá uma interpolação incrível na história sem nenhuma rede neural e sem arquiteturas complicadas. É claro que os comerciantes evitam redesenhar os índices porque o que é adequado para interpolação ou aproximação não é adequado para extrapolação em condições de não-estacionaridade.

Isso é um absurdo... O que um indicador de redesenho tem a ver com interpolação e previsões futuras??

 
Reshetov писал (а) >>

E finalmente, para aqueles nerds que pensam que as capacidades de interpolação da NS são necessárias para o comércio, eu posso fornecer um contra-argumento concreto. Basta pegar qualquer indicador ou oscilador redesenhado e você terá uma interpolação incrível na história sem nenhuma rede neural e sem arquiteturas complicadas. É claro que os comerciantes evitam redesenhar os índices porque o que é adequado para interpolação ou aproximação não é adequado para extrapolação em condições de não-estacionaridade.

Você simplesmente não entende bem o que está sendo aproximado. Há um vetor de entrada X da dimensão N e um vetor de saída Y da dimensão M. NS estabelece relação entre eles, ou seja, aproxima-se da dependência Y = F(X). Y pode ser qualquer coisa, mesmo com vento triplo, NS não se importa, resolve exatamente o problema da aproximação F(X) na amostra de treinamento.

 

O REDESENHO É O ÓPIO DO POVO!!! ))))

 
Mathemat писал (а) >>
Eu até reforçaria este conselho: dividir por 10. Por alguma razão, vem à mente o fio sobre a ressonância estocástica. O treinamento da malha até a extremidade pode conduzir a função alvo a um mínimo profundo, ou seja, a um estado estável. Estados estáveis não são nada típicos dos mercados financeiros. Eles são quase estáveis, ou seja, estão prontos para se transformar em um desastre (tendência) a qualquer momento sob a influência de até mesmo um leve "ruído". Mas isto é apenas pensamento filosófico...

Na minha opinião, há um mal-entendido sobre a natureza do estado das NS, que pode ser descrito como "supertreinamento" e "subtreinamento". Estes termos referem-se a características que relacionam a duração da amostra de treinamento, o número de parâmetros livres (sinapses) de um determinado NS, e a magnitude do erro de generalização no conjunto de teste. Se o comprimento da amostra for comparável ao número de pesos ajustáveis (no limite menor ou igual), então na amostra de treinamento teremos qualquer correspondência exata da resposta NS com os vetores de entrada, mas na amostra de teste teremos um completo disparate! Este é um exemplo de uma rede supertreinada. Se a duração da amostra de treinamento for muito longa (quanto tempo é uma pergunta separada), teremos uma má combinação na amostra de treinamento (no limite, determinaremos apenas a média da amostra). Na amostra de teste, teremos a mesma coisa - a média.

Como pode ser visto, o número de épocas de treinamento está fora de questão. Além disso, para alcançar um mínimo global (aprender NS), precisamos de todas as soluções possíveis do sistema redefinido de equações não lineares (o que NS faz), escolher aquela que nos dará o menor erro cumulativo (satisfará TODAS as equações do sistema, pelo menos). Esta condição é evidentemente satisfeita pela solução (pesos encontrados de sinapses) que tende aos limites - obtidos quando o número de épocas de treinamento tende ao infinito.

Portanto, não se deve confundir sobretreinamento ou subtreinamento de NS com o número de épocas de treinamento - este último deve ser sempre razoavelmente grande (o número exato deve ser determinado experimentalmente).

Encontrei uma discussão sobre o "problema da parada antecipada" na literatura, mas minha impressão é que os autores não entendem bem a natureza do que estão escrevendo sobre. De fato, se pegarmos uma situação em que a duração da amostra de treinamento seja menor que a ideal, então no processo de treinamento uma situação ocorrerá, quando o erro no conjunto de testes primeiro diminuirá e depois, com o aumento do número de épocas de treinamento, começará novamente a crescer... Bem, essa é outra história, camaradas!

 

Vou me aposentar agora que já se reuniram aqui NN grandees suficientes. Minha opinião é insignificante, pois sou um amador em redes nervosas.

Eu nem sequer falei sobre a proporção de insumos para graus de liberdade, assumindo que seja pelo menos 10, como recomendado pela teoria. Eu só disse sobre o momento em que a TF na seção de verificação passa pelo mínimo. Parece ter sido claramente descrito por Shumsky, se não estou enganado.

 
Mathemat писал (а) >>

Vou me aposentar agora que já se reuniram aqui NN grandees suficientes. Minha opinião é insignificante, pois sou um amador em redes nervosas.

Eu nem sequer falei sobre a proporção de insumos para graus de liberdade, assumindo que seja pelo menos 10, como recomendado pela teoria. Eu só disse sobre o momento em que a TF na seção de verificação passa pelo mínimo. Parece ser descrito muito vividamente por Shumsky também, se não estou enganado.

Grands in maths wouldn't hurt also, please don't be deterred :) . Acho que outros se juntarão ao pedido.

 
Mathemat писал (а) >>
Eu reforçaria ainda mais este conselho: dividir por 10. Por alguma razão, vem à mente um ramo sobre ressonância estocástica. O treinamento da malha até a extremidade pode conduzir a função alvo a um mínimo profundo, ou seja, a um estado estável. Estados estáveis não são nada típicos dos mercados financeiros. Eles são quase estáveis, ou seja, estão prontos para se transformar em um desastre (tendência) a qualquer momento sob a influência de até mesmo um leve "ruído". Mas são apenas reflexões filosóficas...

Bem, eu quero dizer a mesma coisa. É que o termo "estado estável" tem sido usado ao invés do popular termo "estado estável". Em ambos os termos, significa que os dados estatísticos (de ajuste) são próximos de probabilísticos. Mas qualquer pessoa que tenha lidado com instrumentos financeiros sabe muito bem que as estatísticas não são aplicáveis a eles devido à não-estacionariedade.


Apenas empiricamente, eu acho que a grade precisa ser requalificada em cerca de um terço. Mais uma vez, porém, depende da adequação dos insumos. É possível que outros precisem, empiricamente, ser treinados apenas em 10%.

 
Reshetov писал (а) >>

Bem, isso é o que eu quero dizer também. É que o termo "estado estável" tem sido usado ao invés do popular termo "estável". Em ambos os termos, significa que os dados estatísticos (de ajuste) são próximos de probabilísticos. Mas qualquer pessoa que tenha lidado com instrumentos financeiros sabe muito bem que as estatísticas não são aplicáveis a eles devido à não-estacionariedade.


Apenas empiricamente, eu acho que a grade precisa ser requalificada em cerca de um terço. Mais uma vez, porém, depende da adequação dos insumos. É possível que outros precisem, empiricamente, de apenas 10% de treinamento.


De acordo com Haikin, pode haver uma discrepância entre os resultados do treinamento completo no treinamento e na amostra de teste somente se o número de padrões não for suficientemente alto.

Se houver padrões suficientes, o treinamento completo produz melhores resultados para a amostra de teste do que para o ponto de parada inicial, como mencionado acima.

A partir de minha experiência, tenho a tendência de acreditar nestes resultados.



Quanto à rede neural linear, se ela conseguiu obter resultados positivos com um grau de confiança suficiente, só pode haver uma conclusão: uma rede neural é inútil.

 
TheXpert писал (а) >>

Isso é um absurdo... O que o redesenho do indicador tem a ver com interpolação e previsões futuras?

Caro Senhor, onde eu afirmei que a interpolação está relacionada com o futuro? Vá ver um oculista e leia os posts com atenção, em vez de atirar as expressões ao redor. Tenho relatado e reiterado para os particularmente dotados que a extrapolação é necessária para o futuro.


Meu posto foi em resposta ao posto do rip:


------------------ Citação ------------------------


rip 14.07.2008 00:01
Reshetov escreveu (a) >>

Certo. A arquitetura, com entradas adequadas, não é mais um problema. Pode-se dizer: as entradas são tudo, a arquitetura não é nada.


Aqui, os senhores pegaram as entradas normais e obtiveram resultados adequados com a MTS "Sombo" :

Em certa medida, concordo com você. Mas a arquitetura de rede desempenha um grande papel... por exemplo, as redes RBF-networks são muito melhores para resolver algumas tarefas de interpolação.

 
TheXpert писал (а) >>

Segundo Heikin, uma discrepância nos resultados de um treinamento completo em uma amostra de treinamento e teste só pode ocorrer se o número de padrões não for suficientemente grande.

Sr. Nerd, pessoas normais têm seus próprios cérebros e experiência, enquanto os nerds citam outros nerds porque não há cérebros próprios e não pode haver.


Haykin muito provavelmente treinou a rede em um ambiente estacionário, daí suas conclusões. Em ambiente não estacionário, a rede pode não aprender nada se lhe forem dados muitos padrões porque, por exemplo, no comércio, hoje em dia um padrão aponta para comprar e na próxima vez aponta para vender. Porque qualquer entrada tem alguma probabilidade de sinais falsos.