O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 35
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Idealmente, deve ressoar ( é amigável ) com o logotipo do methaquot
MetaPerceptiva ;) (Percepção Percipiente)
há até uma idéia para o logotipo :) -- O nome do robô que fareja uma flor é uma peça sobre a ambiguidade da palavra Perceptivo. Quanto mais incomum o robô for, melhor :)
________
Simples e saborosamente Neural. ou TheNeural :)
________
eXtenção de Redes Neurais (NNX).
________
Redes Neurais Xpert (NNXpert) :))))
________
Kit de ferramentas para redes neurais (NNToolkit)
________
Ferramentas de Redes Neurais (NNTools)
Eu sou a favor da eXtenção de Redes Neurais (NNX).
especialmente esta parte do Neural NetseXtension (NNX) porque nós vamos foder tudo bem.
Não é melhor transformar em Neural Universal eXtension (NUX) quase LINUX
Se a questão é para mim, na literatura, as redes que descrevi são chamadas redes neurais hierárquicas.
EMNIP, o cognitron é algo semelhante.
À espera da sequela :)
Sim, devemos ter uma votação ou atirar opções para Metakvotam depois.
Porquê a pressa, em princípio também devemos considerar em nome do produto a possibilidade de trocar com outras neuro embalagens e a geração de um conselheiro final pronto a usar.
O produto é mais do que NN. No processo, ele pode evoluir para outra coisa útil.
O produto é maior que o NN.
Entendido. Mas ligado especificamente à NN. Será amarrado com mais precisão.
Receio que vamos ter algo como "AWVREMGVTWNN" :) O principal é transmitir a essência, as nuances não são tão importantes.
Informações sobre
-Descida de gradiente conjugado
-BFGS
Método de gradiente conjugado (wiki)
-BFGS (wiki)
Palestra 3. O modelo HMAX
Para compreender os detalhes da transformação biológica da informação visual vamos olhar para o popular modelo de reconhecimento de objectos HMAX ("Modelo Hierárquico e X"). Este modelo foi criado por pesquisadores do MIT liderados por Tomaso Poggio no final dos anos 90. A descrição e o código do modelo podem ser encontrados aqui
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
Com algumas pequenas modificações, o HMAX faz um trabalho muito melhor do que as redes neuronais clássicas no reconhecimento facial. Esta foto descreve muito bem o modelo:
A primeira camada do modelo (S1) consiste em filtros de secções curtas e rectas de quatro inclinações diferentes (vertical, horizontal, inclinação de 45 graus e inclinação de 135 graus - mostrados em vermelho, amarelo, verde e azul), cada uma de 16 em tamanho, de modo a que cada secção da imagem de entrada seja "coberta" por 4 x 16 filtros. Cada filtro é um neurônio com uma saída igual à soma dos pixels da imagem em alguma área da imagem multiplicada pelos pesos de entrada deste neurônio. Estes pesos de entrada são descritos pela função Gabor. Aqui está um exemplo destes filtros (pesos):
A segunda camada do modelo (C1) consiste em neurónios complexos. Cada neurônio complexo seleciona a ativação máxima (saída) dos neurônios S1 que filtram seções da mesma inclinação em diferentes partes da imagem e em duas dimensões adjacentes. Assim, este complexo neurônio tem invariância para a posição e tamanho dos segmentos elementares, o que é explicado abaixo:
Os neurônios da terceira camada do modelo (S2) recebem inputs dos neurônios C1. Como resultado obtemos filtros de formas mais complexas (denotados P1, P2,...) que são compostos por segmentos elementares. Para cada figura temos 4 conjuntos de filtros de diferentes tamanhos. Os filtros dentro de cada conjunto diferem na sua posição espacial ("olhando" para diferentes partes da imagem).
Neurônios da quarta camada do modelo (C2) escolhem a ativação máxima dos neurônios S2 que estão filtrando a mesma figura, mas de tamanhos e arranjo espacial diferentes. O resultado são filtros de formas mais complexas que são invariantes à sua posição e tamanho.
Referências:
T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. no Pattern, Agosto de 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf