O que alimentar a entrada da rede neural? Suas ideias... - página 59

 
mytarmailS #:
Bem, decida-se.

Aproximação não é aprendizado, mas a neurônica é um aproximador...

A neurônica não é treinável?


Um acha que DB é um classificador, o outro está confuso com aproximação....

Quais são seus especialistas?
O aprendizado é um conceito mais amplo do que a otimização e a aproximação. Por que é tão difícil? Porque os scoofs se organizaram?
 
Maxim Dmitrievsky #:
O aprendizado é um conceito mais amplo do que a otimização e a aproximação. Por que está sendo tão difícil?
Amplo, estreito.

Treinar um modelo em uma linha não é nada além de ajuste de curva, ou seja, aproximação... mais detalhes.
 
mytarmailS #:
Ampla, estreita.

O treinamento de um modelo em uma trilha nada mais é do que um ajuste de curva, ou seja, uma aproximação... mais detalhes
Essa é sua opinião pessoal.
 
Tenho uma pergunta e uma perplexidade em uma única garrafa. Você realmente pretende continuar discutindo o MoD com o traseiro nu, ou seja, sem nenhum conhecimento mínimo do assunto em discussão? :)
 
Maxim Dmitrievsky #:
Tenho uma pergunta e uma perplexidade em uma única garrafa. Você realmente pretende continuar discutindo o MoD com o traseiro nu, ou seja, sem nenhum conhecimento mínimo do assunto em discussão? :)
Bem, se o estudo aprofundado do tópico para eles for conversar com o gpt, o que você acha?


Eles não conseguirão nem mesmo formular uma pergunta corretamente devido à falta de conhecimento e terminologia.
 
mytarmailS #:
Bem, se o tópico de aprendizagem profunda para eles é conversar com o gpt, o que você acha?
Pelo menos ele é mais bem treinado do que alguns. Muitos especialistas se esforçaram muito.
 
Maxim Dmitrievsky #:
Pelo menos ele é mais bem treinado do que alguns. Muitos especialistas trabalharam duro.
As alucinações não desapareceram
 
mytarmailS #:
A alucinação não foi a lugar algum
Esse é um problema conhecido em novos dados. Como base de conhecimento, é bastante tolerável :)
 
Maxim Dmitrievsky #:
Esse é um problema conhecido em novos dados. Como uma base de conhecimento, é bastante tolerável :)
Estou pensando em criar uma base de conhecimento sobre o mercado e depois negociar a partir dela.

Você pode usar, por exemplo, a obsidiana
 
Forester #:

A qualidade máxima do treinamento será a memorização absolutamente precisa, ou seja, quando todos os dados estiverem completamente registrados no banco de dados, ou quando se treinar uma árvore até a última divisão ou agrupamento possível com o número de agrupamentos = número de exemplos.

As árvores que param de se dividir mais cedo ou que se agrupam com menos clusters - generalizarão e mesclarão os dados nas folhas/clusters. Esses modelos serão pouco treinados, mas, na presença de ruído, podem ser mais bem-sucedidos do que os modelos com recuperação exata.

Houve um exemplo no início do ramo MO com o ensino da tabuada de multiplicação a um andaime. Como ele não foi alimentado com um número infinito de opções possíveis para treinamento, a floresta produz, às vezes, respostas exatas, mas, na maioria das vezes, respostas aproximadas. Claramente, ela está mal treinada. Mas ela é capaz de generalizar, encontrando e calculando a média das respostas mais próximas das corretas de árvores individuais.

Com o aprendizado com ruído, é difícil avaliar a qualidade. Especialmente se o ruído for muito mais forte do que os padrões, como no comércio.

Para isso, inventaram a avaliação na validação e na amostra de teste, a validação cruzada, o jacking forward etc.

Então, surgiu a palavra avaliação, ótimo.

Portanto, o aprendizado precisa ser avaliado de alguma forma, não importa como, o importante é melhorar a avaliação. Certo?