Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Favor descrever a notação na fórmula S[j] = soma(i)(y[i]*w[i,j] - t[j]). Pelo que entendi:
t[j] é o peso do limiar (ele é multiplicado por um sinal igual a -1)
y[i]*w[i,j] - a entrada multiplicada por seu peso
S[j] - o resultado antes da aplicação da função logística
O que é Sum(i)?
Favor descrever a notação na fórmula S[j] = soma(i)(y[i]*w[i,j] - t[j]). Pelo que entendi:
t[j] é o peso do limiar (ele é multiplicado por um sinal igual a -1)
y[i]*w[i,j] - entrada multiplicada por seu peso
S[j] - o resultado antes da aplicação da função logística
O que é Sum(i)?
Soma[i] é a soma sobre i. Eu não sei como escrever fórmulas aqui.
t[j] - valor limiar do neurônio
y[i]*w[i,j] - a saída da camada multiplicada pelo peso de ligação
S[j] é a soma ponderada antes da aplicação da função logística
Soma[i] é a soma sobre i. Eu não posso escrever fórmulas aqui.
Isso é basicamente o que eu pensei imediatamente que era a quantia.
--------------
A questão é que o limiar não é adicionado a cada valor de entrada, mas ao final da soma total antes de ser alimentado ao sigmóide. Ou seja, é o limiar para a saída como um todo e não para cada entrada individualmente.
A fórmula é a seguinte:
S[j]=Sum{y[i]*w[i,j]} - t[j].
É como o de Yuri.
e, em princípio, concordo com ela, porque vi tal notação na literatura.
Isso é basicamente o que eu pensei imediatamente que era a quantia.
--------------
A questão é que o limiar não é adicionado a cada valor de entrada, mas ao final da soma total antes de ser alimentado ao sigmóide.
Portanto, a fórmula é
S[j]=Sum{y[i]*w[i,j]} - t[j].
É assim que Yuri o faz.
e, em princípio, concordo com ela, pois vi tal notação na literatura.
Ugh, claro que você está certo, eu coloquei os parênteses errados.
2 TheXpert
Entendo por seus cargos que você é um especialista em NS. Você poderia aconselhar um iniciante onde começar a analisar em NS para se familiarizar com o seu funcionamento...
E é uma coisa boa usar feedback em redes? Qual tem sido a eficácia em sua prática?
2 TheXpert
Entendo por seus cargos que você é um especialista em NS. Você poderia aconselhar a um iniciante onde começar a analisar em NS para conhecer o princípio de seu trabalho...
E o uso de redes de feedback também é uma coisa boa. Qual tem sido a eficácia em sua prática?
Sinceramente, eu nem sei o que dizer. Tivemos 2 cursos sobre NS na universidade, começamos com o básico: modelo neuronal básico, classificação de redes, métodos de treinamento, etc., depois perseptron, linear e não linear, depois Kohonen, Hopfield, Hemming, redes recorrentes, recorrentes....
Sobre redes recorrentes - não utilizadas na prática, IMHO, sua vantagem e simultaneamente desvantagem é que depende de seus estados anteriores, ou seja, por definição, é adequada para troca.
Mas, novamente, IMHO, acredito que resultados similares podem ser obtidos por um perseptron sem feedback se treinado usando o princípio da janela deslizante. Há também uma vantagem nisso, o método de janela deslizante nos permite avaliar a robustez/tocasticidade (ver teoria do caos) da previsão obtida com pouco sangue, o que pode ser de grande ajuda quando o mercado é muito volátil e o resultado imprevisível.
Qual é a dependência da dimensionalidade e "estratificação" da rede em relação ao número de padrões?
Simon Heikin, em seu livro Redes Neurais na página 282, dá um teorema sobre a universalidade da NS com UMA camada oculta. Aqui está a implicação:
E que sentido você dá à frase "dimensão de rede", não entendo. É o número de neurônios em camadas ocultas ou o número de entradas para NS?
Se for o número de entradas, então o produto do número de entradas pelo tamanho da amostra de treinamento (número de padrões) deve ser igual ao quadrado de pesos NS.
Se for o número de neurônios nas camadas ocultas, seu número é determinado pela complexidade do problema e é encontrado experimentalmente.
dimensionalidade e "estratificação
1. A dimensionalidade é o número de neurônios na(s) camada(s).
2. "Camadas" é o número de camadas.
3 A partir daí segue a próxima pergunta, mudança de neurônios em camadas, de camada para camada?
4. Número de ciclos de aprendizagem a partir do número de camadas, dimensionalidade e número de padrões (paternals) - (de forma ideal)?O que é "mudança de neurônios em camadas", é um processo de modificação de pesos sinápticos de neurônios durante o treinamento de NS, ou busca da arquitetura ideal de NS por meio da mudança gradual do número de neurônios em camadas durante a otimização?
Bem, o número de ciclos de treinamento é definido pela realização de um mínimo de erro de generalização e não está diretamente relacionado com o número de camadas (e outras coisas), embora dependa fracamente não linearmente do número de neurônios e do número de camadas. Depende da "robustez" da superfície da característica multidimensional que a NS constrói para encontrar seu mínimo global. Se a rede funcionar corretamente, então 50-100 épocas de treinamento pelo método de Propagação de Erros Retrocedentes é suficiente. No entanto, será necessário muito esforço para acertar as coisas.