O que alimentar a entrada da rede neural? Suas ideias... - página 57

 
😁
 
Ivan Butko #:

Por que você está sendo tão sensível?



Eu diria que é previsível.
É como derramar água em alguém que está dormindo e essa pessoa vai se mijar....
 
bom.
Se a aprendizagem é um processo que visa aprender algum sistema de um determinado tópico, então qual deve ser o resultado? é necessário avaliar de alguma forma o resultado, o quão bom ele é.
 

Tanto um quanto o outro, em vez de ler literatura especial sobre o assunto, usam o bate-papo gpt e consideram sua abordagem de estudo profunda :-O

A maldita geração Pepsi ))))

 
mytarmailS #:

Tanto um quanto o outro, em vez de ler literatura especial sobre o assunto, usam o bate-papo do gpt e consideram sua abordagem para estudar profundamente :-O

Geração Pepsi do caralho ))))

A Pepsi tem um sabor melhor do que a cola, não me importo com isso.

Embora quando fui testado com os olhos fechados, não consegui distinguir uma da outra

Tenho certeza de que me deram duas colas na época.
 
Se continuarmos com essa conversa fascinante, aqueles que derramam água vão se cagar de novo, já é uma tradição 😁 Afinal, alguém os ensinou isso, caso contrário, como eles saberiam?

Isso se chama otimização excessiva - pensamento positivo. Quando você parece ter aprendido alguma coisa, mas depois ela ainda não funciona :)

Você obtém aprendizado mecânico em vez de aprendizado. Porque o processo de aprendizado inclui a prática.
 
Andrey Dik #:

Divertido. O objetivo de substituir o BB padrão é obter os valores mais cedo?

O objetivo de substituir o padrão não era verificar a qualidade da rede neural, e o objetivo = saber o início e o fim do nivelamento com antecedência.

 

Sobre o treinamento...


Há alguns anos, encontrei essa expressão em um site comum (não técnico): bancos de dados baseados em redes neurais. Em geral, concordei com esse termo para mim.



Eu mesmo faço árvores - um banco de dados baseado em árvores também é aplicável. 1 folha em uma árvore = 1 linha em um banco de dados. Diferenças:



1 linha no banco de dados contém apenas 1 exemplo dos dados armazenados no banco de dados. 1 folha contém:



1) 1 exemplo e todos os exemplos exatamente iguais (ao dividir a árvore o máximo possível até a última diferença) ou

2) 1 exemplo e exatamente os mesmos exemplos + os exemplos mais semelhantes se a divisão for interrompida antes.
Isso é chamado de generalização de exemplos. Exemplos semelhantes são definidos de forma diferente por algoritmos diferentes ao selecionar as divisões da árvore.

Vantagens das árvores em relação aos bancos de dados: generalização e busca rápida da folha desejada - não é necessário passar por um milhão de linhas, a folha pode ser alcançada por meio de várias divisões.

O agrupamento também generaliza. Kmeans - pela proximidade dos exemplos ao centro do cluster, outros métodos são diferentes.

Você também pode dividir pelo número máximo de clusters = número de exemplos e obterá um análogo de banco de dados/folhas sem generalização. As redes neurais são mais difíceis de entender e compreender, mas, em essência, também são um banco de dados, embora não sejam tão óbvias quanto as folhas e os clusters.

Conclusão: aprendizado de árvore = memorização/registro de exemplos, assim como um banco de dados. Se você interromper a divisão/aprendizado antes da memorização mais precisa possível, vocêmemoriza com generalização.

Andrew, é claro, quer levantar a questão de que o aprendizado é otimização. Não - é memorização. Mas a otimização também está presente. Você pode otimizar as variações com a profundidade do aprendizado, métodos divididos, etc. Cada etapa da otimização treinará um modelo diferente. Mas o aprendizado não é otimização. É memorização.
 
Forester #:

Sobre o treinamento...


Há alguns anos, encontrei essa expressão em um site comum (não técnico): bancos de dados baseados em redes neurais. Em geral, concordei com esse termo para mim.



Eu mesmo faço árvores - um banco de dados baseado em árvores também é aplicável. 1 folha em uma árvore = 1 linha em um banco de dados. Diferenças:



1 linha no banco de dados contém apenas 1 exemplo dos dados armazenados no banco de dados. 1 folha contém:

1) 1 exemplo e todos os exemplos exatamente iguais (ao dividir a árvore o máximo possível até a última diferença)

2) 1 exemplo e exatamente os mesmos exemplos + os exemplos mais semelhantes se a divisão for interrompida antes.
Isso é chamado de generalização de exemplos. Exemplos semelhantes são definidos de forma diferente por algoritmos diferentes ao selecionar divisões de árvores.

Vantagens das árvores em relação aos bancos de dados: generalização e busca rápida da folha desejada - não é necessário percorrer um milhão de linhas, a folha pode ser alcançada por meio de várias divisões.

O agrupamento também generaliza. Kmeans - pela proximidade dos exemplos ao centro do cluster, outros métodos são diferentes.

Você também pode dividir pelo número máximo de clusters = número de exemplos e obterá um análogo de banco de dados/folhas sem generalização. As redes neurais são mais difíceis de entender e compreender, mas, em essência, também são um banco de dados, embora não sejam tão óbvias quanto as folhas e os clusters.

Conclusão: aprendizado de árvore = memorização/registro de exemplos, assim como um banco de dados. Se você interromper a divisão/aprendizado antes da memorização mais precisa possível, vocêmemoriza com generalização.

Andrew, é claro, quer levantar a questão de que o aprendizado é otimização. Não - é memorização. Mas a otimização também está presente. Você pode otimizar as variações com a profundidade do aprendizado, métodos divididos, etc. Cada etapa da otimização treinará um modelo diferente. Mas o aprendizado não é otimização. É memorização.
O retreinamento é memorização. A memorização e a generalização estão mais próximas do aprendizado :)
 
Maxim Dmitrievsky #:
O aprendizado excessivo é memorização. Memorização e generalização - mais perto do aprendizado :)

A generalização é mais parecida com a subaprendizagem. Ou seja, você memorizou, mas não de forma absolutamente precisa (você também envolveu seus vizinhos nisso...). Quase como um estudante com nota C)))

Mas se memorizarmos algo definido por uma lei (por exemplo, a lei de Ohm), não haverá superaprendizagem; é mais fácil haver subaprendizagem se houver poucos exemplos e um número infinito deles.

No caso da negociação, em que os padrões são quase inexistentes e barulhentos, a memorização absolutamente precisa junto com o ruído resultará em uma perda.
Por alguma razão, isso é chamado de superaprendizagem. A memorização precisa não é prejudicial em si mesma, como no caso do aprendizado de padrões. Mas memorizar ruídos/lixo não é útil.