O que alimentar a entrada da rede neural? Suas ideias... - página 56
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Ótima pergunta Se ela for totalmente explorada no contexto de um ambiente virtual (campo de informações), pode-se presumir que se pode ir na direção certa, em vez de transmitir conhecimento acadêmico e livros didáticos
Toda vez que analisava arquiteturas, eu me perguntava "por que isso? Por quê? Por que eles decidiram fazer dessa forma?"
Não, apenas pegue e traduza a arquitetura, que foi escrita por tios-matemáticos inteligentes. Até perguntei na sala de bate-papo por que o bloco LSTM tem a forma que tem?
Em resposta - bobagens dos livros didáticos de MO: é uma memória de longo prazo, blá blá blá,adaptada ao aprendizado em tarefas de classificação e blá blá blá blá. Eu pergunto "então por que exatamente assim?", e a resposta é "os matemáticos decidiram assim". Nenhuma teoria, nenhuma teoria da informação, nenhuma teoria de processamento de informações, nenhuma definição de aprendizado, teorias de aprendizado, etc. Postulados estúpidos.
A partir da terceira vez, o bate-papo começou a falar sobre desvanecimentos e picos de gradiente. O LSTM resolve esses problemas.
Bem, OK, como isso é resolvido? - Comportas! Que portas!?!? Que portas? -
Que informações???? Os números na entrada?
Mas você os converte dos números de entrada em uma confusão distorcida e incompreensível que transforma os números-cores RGB de entrada em algo ilegível, uma caixa preta de mingau. Bem, digamos, convertendo alguns números em outros, mas aprendendo em quê? Memorização?
Então é memorização! E em que isso difere do aprendizado? No final, não está claro o que eles tentam aplicar ao que não está claro no segundo grau - mercado não estacionário. Em geral, a pergunta é ótima, foi feita há muito tempo. Seu desdobramento é algo extremamente interessante.
Ou seja, não há realmente nenhuma sistematização na ciência da aplicação de IO? Apenas uma alquimia sem garantia de um resultado positivo?
Qual é a diferença entre treinar uma rede neural e ensinar um poodle a fazer truques? - ou ensinar um estudante a fazer truques? Há alguma diferença e, em caso afirmativo, quem e onde sistematizou essas diferenças e as fundamentou?
Treinamento de um sistema inteligente para realizar algumas tarefas. Por exemplo, prever.
Aprender é adquirir conhecimento ou experiência.
Uma pergunta infantil que os "valiosos especialistas" não conseguem responder. Eles não conseguem distinguir entre aprendizado e otimização.
Todo o processo de criação de modelos, incluindo a preparação de dados e a seleção de modelos, é chamado de aprendizado. A otimização dos pesos NS é chamada de ajuste ou otimização.
Há modelos em que o estágio de otimização não está explicitamente presente, como a floresta aleatória ou modelos baseados em regras, alguns tipos de agrupamento. Nas redes neurais, ela está explicitamente presente.
Nem fale em gates :)Treinamento de um sistema inteligente para realizar algumas tarefas. Por exemplo, prever.
Aprender é adquirir conhecimento ou experiência.
Uma pergunta infantil que os "valiosos especialistas" não conseguem responder. Eles não conseguem distinguir entre aprendizado e otimização.
Todo o processo de criação de modelos, inclusive a preparação de dados e a seleção de modelos, é chamado de aprendizado. A otimização dos pesos NS é chamada de ajuste ou otimização.
Há modelos em que o estágio de otimização não está explicitamente presente, como a floresta aleatória ou modelos baseados em regras, alguns tipos de agrupamento. Nas redes neurais, ela está explicitamente presente.
Nem fale em portões :)A água fluiu Como você viu na água.
A água corria como se eu estivesse na água.
Se ele flui para um e sai do outro, é patológico.
Você nem mesmo entende a pergunta. Está apenas transmitindo conhecimentos gerais. É como uma enciclopédia.
Você nem mesmo entende a pergunta. Está apenas transmitindo conhecimentos gerais. É como uma enciclopédia.
Então, de fato, não há sistematização na ciência da aplicação de EM? Apenas algum tipo de alquimia sem garantia de resultado positivo?
Qual é a diferença entre treinar uma rede neural e ensinar um poodle a fazer truques? - ou ensinar um estudante a fazer truques? Há alguma diferença e, em caso afirmativo, quem e onde sistematizou essas diferenças e as fundamentou?
Se você encontrar esses trabalhos, compartilhe-os. Eu mesmo estou curioso. Os seguidores de livros didáticos traduzem exatamente uma coisa: por meio do treinamento, eles entendem o método de ajuste do motor (modelo).
Mas isso não reflete a essência do aprendizado, que, em um sentido geral, tem um significado mais profundo.
Ótima pergunta Se ela for totalmente explorada no contexto de um ambiente virtual (campo de informações), pode-se presumir que se pode ir na direção certa, em vez de transmitir conhecimento acadêmico e livros didáticos
Toda vez que analisava as arquiteturas, eu me perguntava "por que isso? Por quê? Por que eles decidiram fazer dessa forma?"
Não, apenas pegue e traduza a arquitetura, que foi escrita por tios-matemáticos inteligentes. Até perguntei na sala de bate-papo por que o bloco LSTM tem a forma que tem?
Em resposta - bobagens dos livros didáticos de MO: é uma memória de longo prazo, blá blá blá,adaptada ao aprendizado em tarefas de classificação e blá blá blá blá. Eu pergunto "então por que exatamente assim?", e a resposta é "os matemáticos decidiram assim". Nenhuma teoria, nenhuma teoria da informação, nenhuma teoria de processamento de informações, nenhuma definição de aprendizado, teorias de aprendizado, etc. Postulados estúpidos.
A partir da terceira vez, o bate-papo começou a falar sobre desvanecimentos e picos de gradiente. O LSTM resolve esses problemas.
Bem, OK, como isso é resolvido? - Comgates! Que gates!?!? Que portas? -
Que informações???? Os números na entrada?
Mas você os converte dos números de entrada em uma confusão distorcida e incompreensível que transforma os números-cores RGB de entrada em algo ilegível, uma caixa preta de mingau. Bem, digamos, convertendo alguns números em outros, mas aprendendo em quê? Memorização?
Então é memorização! E em que isso difere do aprendizado? No final, não está claro o que eles tentam aplicar ao que não está claro no segundo grau - mercado não estacionário. Em geral, a pergunta é ótima, foi feita há muito tempo. Seu desdobramento é algo extremamente interessante.
É melhor não procurar, mas inventar e escrever você mesmo, maestro :)
m ytarmailS #:
Vocês são tão sensíveis.
Bem, eu tenho uma abordagem diferente, mais profunda. A de vocês é mais superficial.
Eu quero chegar ao fundo da questão, e vocês estão satisfeitos com pacotes prontos.
Tudo bem.