O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 36

 
TheXpert:

EMNIP, o cognitron representa algo semelhante.

À espera da sequela :)

O mesmo que o cognitron de Fukishima. HMAX e cognitron descrevem a funcionalidade das diferentes camadas do córtex visual muito de perto.
 
TheXpert:

Precisamos de informações sobre

-Descida de gradiente conjugado

-BFGS

No meu tempo estudei em detalhe quase todos os métodos de formação de redes de propagação directa. Tenho a certeza que o método Levenberg-Marcadt é o melhor(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm) das descidas por declive. Encontra sempre melhores mínimos do que todos os tipos de BACKPROPs e RPROPs e ainda mais rápido. O que eu postei no BPNN (algum tipo de RPROP) é brincadeira de criança comparado com LM. A BFGS é mais demorada e o resultado não é melhor do que LM.
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
  • en.wikipedia.org
The LMA interpolates between the Gauss–Newton algorithm (GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds a solution even if it starts very far off the final minimum. For well-behaved functions and reasonable starting parameters, the LMA tends to be a bit slower than the GNA...
 

Vou agora tentar apresentar a minha ideia de construir redes neurais para a análise do padrão de preços. Aqueles que leram as minhas palestras 2 e 3 vão compreender imediatamente. A idéia é classificar os padrões de preços por Compra, Venda ou Espera. O preço a um determinado período de tempo (digamos 100 barras) é filtrado por uma camada de neurónios S1 simples. Os pesos de entrada destes neurónios descrevem as características de impulso dos filtros. No exemplo do córtex visual, estes pesos descreveram segmentos rectos de inclinação e comprimento variáveis no espaço bidimensional da imagem. Nas cotações temos também um espaço bidimensional: tempo e preço. Podemos assumir que os pesos do filtro S1 descrevem dois segmentos rectos no espaço tempo-preço: para cima e para baixo. O ângulo de inclinação depende do comprimento de cada filtro. Estes comprimentos podem ser pré-seleccionados, por exemplo, 4, 8, 16, 32 barras. Cada filtro é uma linha reta, normalizada para que a soma de todos os valores seja zero e a soma dos quadrados seja 1 (ou outra normalização). Na camada seguinte, vamos chamá-la S2, padrões mais complexos são formados a partir de seções da camada S1, e assim por diante. A saída dessa transformação de múltiplas camadas de cotações, temos um código numérico que descreve o padrão atual, os códigos de padrões que são semelhantes entre si mas esticados no tempo e preço de maneiras diferentes são os mesmos. Estes códigos são alimentados para as entradas da Máquina Vetorial de Suporte (SVM) que é treinada para identificar as condições de Compra, Venda ou Manutenção em padrões históricos. O problema aqui é determinar a forma dos filtros nas camadas S1, S2, etc. Eu escolhi seções retas e combinações delas por simplicidade. A propósito, no modelo de córtex visual HMAX, todas as formas de filtros espaciais são pré-seleccionadas com base em experiências biológicas. Precisamos de encontrar um algoritmo para detectar automaticamente estes filtros. Tais algoritmos já foram desenvolvidos para a camada visual V1 (von der Malsburg, Linsker, Miller, LISSOM, Olshausen). Podemos pedi-los emprestados para a nossa tarefa de classificar os padrões de preços.

 
gpwr:
No meu tempo estudei em detalhe quase todos os métodos de formação de redes de propagação directa. Tenho a certeza de que da descida por declive, o método Levenberg-Marcadt é o melhor(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm). Encontra sempre melhores mínimos do que todos os tipos de BACKPROPs e RPROPs e ainda mais rápido. O que eu postei no BPNN (algum tipo de RPROP) é brincadeira de criança comparado com LM. A BFGS é mais demorada e o resultado não é melhor do que LM.

Eu concordo! Na NeuroSolutions, por exemplo, o método Levenberg-Marcadt converge onde os outros métodos se situam nos mínimos locais,

Contudo, a LM requer recursos computacionais significativos. O tempo por passe é maior

 
gpwr:

...

Cada filtro é uma linha reta normalizada para que a soma de todos os valores seja zero e a soma dos quadrados seja 1 (ou outra normalização).

...

Não tenho provas agora, mas a minha intuição diz-me que esta dupla condição é inconsistente,

a soma é 0 e a soma dos quadrados é 1

será cumprido para um número muito restrito de escolhas. Se eu estiver errado, por favor, pontapeia-me.

 
Urain:

Não tenho provas agora, mas a minha intuição diz-me que esta dupla condição é contraditória,

a soma é 0 e a soma dos quadrados é 1

será executado para um número muito restrito de escolhas. Se eu estiver errado, por favor, pontapeia-me.

Não, não é contraditório. Por exemplo, um filtro de 2 bar com valores de -0,707 e +0,707 satisfaz as condições de normalização. A vantagem da primeira condição (soma dos quadrados igual a zero) é que não precisamos de remover a média das aspas. A segunda condição (soma dos quadrados igual a zero) permite limitar a soma do preço1*filtro1+preço2*filtro2 (esta é a saída do nosso filtro) dentro de algum intervalo. O problema agora é definir valores de filtro (filtro1,filtro2,...,filtroN) de comprimento arbitrário N. É possível escolher uma linha reta esticada entre -filterMAX e +filterMAX, mas isso seria uma simplificação. Com maior precisão o filtro será semelhante ao componente principal das cotações (PCA). Mas isto não seria eficiente. É mais perspectiva se procurar a forma do filtro como componentes independentes das cotações (ICA) impondo uma condição de número mínimo desses componentes (condição de esparsidade). Mais tarde vou expor a palestra 4 onde vou explicar tudo.
 
TheXpert:

Entendido. Mas ligado especificamente à NN. Estará ligado à NN.

Temo que seja algo como "AWVREMGVTWNN" :) Receio que não seja como "AWVREMGVTWNN" :), o principal é saber o essencial.

Solução Meta Neuro ?
 
Meta Neuro Motor (MNE)
 
gpwr:
Meta Neuro Motor (MNE)

Meta EngiNeuro (MEN) (c)

o que nos torna engenheiros :)

 
Fixe. Eu gosto disso.