Usando inteligência artificial na MTS - página 21

 
Mak:
IMHO, não vale a pena andar a vapor com redes :)

Aprender NS está na verdade otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Então você entende "supertreinamento" como "subtreinamento"? parece-me que são antônimos =) esclareça por favor.
 
Melhor classificar as malhas do que interpolar as malhas.
Eu não li sobre isso, por favor explique a diferença entre eles, se você puder, dê um exemplo de como cada um deles funciona, você pode usar termos genéricos =)
 
Mak:
Aleksey24:

Pergunta para os matemáticos:

A idéia de aplicar uma distribuição normal multivariada dos parâmetros a serem otimizados é igual ao princípio das redes neurais?

Por favor, explique isso claramente.

É uma pergunta estranha a ser feita.
Explique a pergunta.


EXPLAINAR:

Agora penso que é necessário comercializar não com parâmetros ajustados específicos, mas com o espectro de cada parâmetro no sistema.
A maneira mais fácil é colocar vários EAs idênticos, mas com diferentes conjuntos de parâmetros - em diferentes faixas do espectro de parâmetros.
Cada um desses Conselheiros Especialistas deve receber uma certa % do depósito, mas todos eles devem ser iguais ao valor percentual do depósito, quando comercializados usando apenas um Conselheiro Especialista (sem espectro).
Então, se na média móvel três Conselheiros Especialistas abrem três posições, respectivamente no início do movimento no meio e no final.

Ainda não posso decidir como usar esta idéia em uma EA para testes.

Perguntei ao Posh sobre este problema, mas ainda não obtive resposta.

A tarefa de distribuição normal multivariada (gaussiana) e redes neurais do tipo aX+bY+...=Z são as mesmas (para negociação), ou estou confuso e confuso na minha cabeça?
 
Aleksey24:
Mak:
Aleksey24:

Pergunta para os matemáticos:

A idéia de aplicar uma distribuição normal multivariada dos parâmetros a serem otimizados é igual ao princípio das redes neurais?

Por favor, explique isso claramente.

É uma pergunta estranha a ser feita.
Explique a pergunta.


EXPLAINAR:

Agora penso que é necessário comercializar não com parâmetros ajustados específicos, mas com o espectro de cada parâmetro no sistema.
A maneira mais fácil é colocar vários EAs idênticos, mas com diferentes conjuntos de parâmetros - em diferentes faixas do espectro de parâmetros.
Cada um desses Conselheiros Especialistas deve receber uma certa % do depósito, mas todos eles devem ser iguais ao valor percentual do depósito, quando comercializados usando apenas um Conselheiro Especialista (sem espectro).
Então, se na média móvel três Conselheiros Especialistas abrem três posições, respectivamente no início do movimento no meio e no final.

Ainda não posso decidir como usar esta idéia em uma EA para testes.

Perguntei ao Posh sobre este problema, mas ainda não obtive resposta.

O problema da distribuição normal multivariada (Gaussiana) e das redes neurais do tipo aX+bY+...=Z são os mesmos (para negociação), ou estou confuso e confuso na minha cabeça?
Você está falando de algo complicado com espectros! Aqui estão os recursos sobre o assunto da ANN que eu costumava estudar:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - está no wiki e está tudo nos traços gerais.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - há um artigo sobre a ANN, e no meio do artigo há uma discussão sobre de onde é e do que se trata, com diagramas e fórmulas.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - este é um link para "Fundamentals of Artificial Neural Networks", um bom site, há uma "árvore" inteira sobre o tema das ANNs - não apenas o que eu escrevi.
 
Obrigado pelos links, vou dar uma olhada.
Mas sobre os "espectros", você está errado.
Eu não sou um proFessor, é claro - mas há um ponto racional aí.
 
Pessoal, ninguém me respondeu, é necessário pensar através do algoritmo de esquecer, ou é, afinal, uma propriedade natural da ANN?
 
lucifuge:
Pessoal, ninguém me respondeu, é necessário pensar através do algoritmo de esquecer, ou é, afinal, uma propriedade natural da ANN?

Se você limitar seu treinamento a um número finito de barras (ou não barras, o que quer que seja usado), o esquecimento será um processo natural. O mercado está mudando, e o que funcionou há cinco anos pode não funcionar agora. Mas já surgiram novas condições, e se você não ensinar, isso vai passar.
Cabe a todos decidir.
 
Mathemat:
Mak, você está claramente exagerando alguma coisa. Em vez de excedê-la centenas ou milhares de vezes, como você diz, pela teoria ANN 10 é suficiente. E os critérios de reciclagem (encaixe) são conhecidos: é um erro mínimo global na área de testes.

Outra coisa é a arquitetura de rede. Melhor classificar as malhas do que interpolar as malhas.
Talvez - Eu sou cético em relação à NS.
Bem, sim, nas estatísticas acredita-se que se pode tirar algumas conclusões se o número de amostras for 10 vezes o número de parâmetros desconhecidos. Mas os erros ao fazer isso estão no limite da razoabilidade.

Mas você deve concordar que NS é essencialmente apenas uma função de algum tipo de vetor de entradas e conjunto de pesos.
Este conjunto de pesos contém de centenas (nos casos mais simples) a dezenas e centenas de milhares de parâmetros (pesos).
O aprendizado de NS não é outra coisa senão otimizar esta função por estas centenas - centenas de milhares de parâmetros.
Todos sabem o que acontece em tais casos.
É por isso que sou um cético ...
 
lucifuge:
Mak:
IMHO, não vale a pena vaporizar com redes :)

Aprender NS está realmente otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Então você entende "supertreinamento" como "subtreinamento"? parece-me que são antônimos =) esclareça por favor.
Por supertreinamento quero dizer o que é chamado de CurveFitting.
Ela ocorre quando há muitos parâmetros de otimização e poucos dados.
 
Mak:
lucifúgio:
Mak:
IMHO, não vale a pena vaporizar com redes :)

Aprender NS está realmente otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Então você quer dizer "sobretreinado" como "subtreinado"? Esses são antônimos =) esclareça, por favor.
Por supertreinamento quero dizer o que é chamado de CurveFitting.
Ela ocorre quando há muitos parâmetros de otimização e poucos dados.

Mas isto levanta a questão do tamanho da rede. O que uma rede pode armazenar depende de seu tamanho e de sua arquitetura. Se você colocar demasiadas amostras para serem treinadas que a rede não consegue lembrar, isso causará o efeito de aprendizado excessivo - a rede deixará de reconhecer o que sabe.