O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 35

 
desenha-se um construtor e depois vê-se pela composição o que lhe chamar...
 
Mischek:
Idealmente, deve ressoar ( é amigável ) com o logotipo do methaquot

MetaPerceptiva ;) (Percepção Percipiente)

há até uma idéia para o logotipo :) -- O nome do robô que fareja uma flor é uma peça sobre a ambiguidade da palavra Perceptivo. Quanto mais incomum o robô for, melhor :)

________

Simples e saborosamente Neural. ou TheNeural :)

________

eXtenção de Redes Neurais (NNX).

________

Redes Neurais Xpert (NNXpert) :))))

________

Kit de ferramentas para redes neurais (NNToolkit)

________

Ferramentas de Redes Neurais (NNTools)

 
TheXpert:

Eu sou a favor da eXtenção de Redes Neurais (NNX).

especialmente esta parte do Neural NetseXtension (NNX) porque nós vamos foder tudo bem.

Não é melhor transformar em Neural Universal eXtension (NUX) quase LINUX

 
Sim, teremos de fazer uma votação mais tarde ou atirar as opções para os Metakvots.
 
gpwr:
Se a questão é para mim, na literatura, as redes que descrevi são chamadas redes neurais hierárquicas.

EMNIP, o cognitron é algo semelhante.

À espera da sequela :)

 
TheXpert:
Sim, devemos ter uma votação ou atirar opções para Metakvotam depois.

Porquê a pressa, em princípio também devemos considerar em nome do produto a possibilidade de trocar com outras neuro embalagens e a geração de um conselheiro final pronto a usar.

O produto é mais do que NN. No processo, ele pode evoluir para outra coisa útil.

 
Mischek:

O produto é maior que o NN.

Entendido. Mas ligado especificamente à NN. Será amarrado com mais precisão.

Receio que vamos ter algo como "AWVREMGVTWNN" :) O principal é transmitir a essência, as nuances não são tão importantes.

 

Informações sobre

-Descida de gradiente conjugado

-BFGS

 

Método de gradiente conjugado (wiki)

-BFGS (wiki)


Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

Palestra 3. O modelo HMAX

Para compreender os detalhes da transformação biológica da informação visual vamos olhar para o popular modelo de reconhecimento de objectos HMAX ("Modelo Hierárquico e X"). Este modelo foi criado por pesquisadores do MIT liderados por Tomaso Poggio no final dos anos 90. A descrição e o código do modelo podem ser encontrados aqui

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

Com algumas pequenas modificações, o HMAX faz um trabalho muito melhor do que as redes neuronais clássicas no reconhecimento facial. Esta foto descreve muito bem o modelo:

A primeira camada do modelo (S1) consiste em filtros de secções curtas e rectas de quatro inclinações diferentes (vertical, horizontal, inclinação de 45 graus e inclinação de 135 graus - mostrados em vermelho, amarelo, verde e azul), cada uma de 16 em tamanho, de modo a que cada secção da imagem de entrada seja "coberta" por 4 x 16 filtros. Cada filtro é um neurônio com uma saída igual à soma dos pixels da imagem em alguma área da imagem multiplicada pelos pesos de entrada deste neurônio. Estes pesos de entrada são descritos pela função Gabor. Aqui está um exemplo destes filtros (pesos):

A segunda camada do modelo (C1) consiste em neurónios complexos. Cada neurônio complexo seleciona a ativação máxima (saída) dos neurônios S1 que filtram seções da mesma inclinação em diferentes partes da imagem e em duas dimensões adjacentes. Assim, este complexo neurônio tem invariância para a posição e tamanho dos segmentos elementares, o que é explicado abaixo:

Os neurônios da terceira camada do modelo (S2) recebem inputs dos neurônios C1. Como resultado obtemos filtros de formas mais complexas (denotados P1, P2,...) que são compostos por segmentos elementares. Para cada figura temos 4 conjuntos de filtros de diferentes tamanhos. Os filtros dentro de cada conjunto diferem na sua posição espacial ("olhando" para diferentes partes da imagem).

Neurônios da quarta camada do modelo (C2) escolhem a ativação máxima dos neurônios S2 que estão filtrando a mesma figura, mas de tamanhos e arranjo espacial diferentes. O resultado são filtros de formas mais complexas que são invariantes à sua posição e tamanho.

Referências:

T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. no Pattern, Agosto de 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf