Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2450

 
Andrey Dik #:

O valor médio dos pesos das redes neurais tomadas modulo é um indicador da sua qualidade de formação?

Suponha que existem dois neurónios idênticos treinados com os mesmos dados, um neurónio tem um valor de 0,87 e o outro 0,23, qual dos neurónios é melhor treinado?

Um equilibrado deve estar mais próximo de 0,5, em teoria. Se você pegar uma rede simples como mlp. Para classificação binária.
 
Andrey Dik #:

O valor médio dos pesos das redes neurais tomadas modulo é um indicador da sua qualidade de formação?

Suponha que existem dois neurónios idênticos treinados com os mesmos dados, um é 0,87 e o outro 0,23, qual deles está mais bem treinado?

Isso é que é mijar...

Provavelmente a que adivinha melhor, não seria a primeira coisa que me vem à cabeça15

 
Maxim Dmitrievsky #:
Um equilibrado deve estar mais próximo de 0.5, por idéia. Se você pegar uma rede simples como mlp. Para a classificação binária.

Por favor, deixe claro o seu ponto de vista.

Pelo contrário, acho que quanto mais próximo o valor for de 1,0, mais clara é a rede neural. Se for cerca de 0,0, então é mais "hesitante", se você puder colocar dessa forma em relação à rede neural.

 
mytarmailS #:

é uma chatice...

Bem, provavelmente a que adivinha melhor, não deveria ser a primeira coisa que me vem à cabeça15

todos são inteligentes ao contrário, os neurónios ainda mais...

 
Andrey Dik #:

O valor médio dos pesos das redes neurais tomadas modulo é um indicador da sua qualidade de formação?

Suponha que existem dois neurónios idênticos treinados com os mesmos dados, um tem 0,87 e o outro 0,23, qual deles está mais bem treinado?

Não. Especialmente se alguma regressão, onde baes(ax+b) no espaço. De que serve ter estas métricas indirectas? Uma corrida em pontos fora da amostra de treino e tudo está claro.

 
Andrey Dik #:

esclareça o pensamento, por favor.

Pelo contrário, eu acho que quanto mais próximo o valor estiver de 1,0, mais clara é a rede neural treinada. e se estiver por volta de 0,0, então é meio "hesitante", se você puder colocar dessa forma em relação à rede neural.

Metade das ativações de neurônios para a 1ª classe, metade para a outra. Baseado em tal lógica primitiva. Se distorcidas, talvez as classes sejam pouco equilibradas. E os valores extremos parecem fazer explodir ou desvanecer o gradiente.
 
Andrey Dik #:

todos são espertos nas costas, ainda mais para os neurónios...

há uma frente, chamada validação, e os pesos não têm nada a ver com a capacidade de previsão, eles podem ser qualquer coisa...

pesos são mais ou menos uma fórmula , e a previsão é o resultado do cálculo de uma fórmula - pit um contra o outro == esquizofrenia

 
mytarmailS #:

há uma frente, chama-se validação, e os pesos não têm nada a ver com a capacidade de previsão, eles podem ser qualquer coisa...

os pesos são uma fórmula em termos gerais e a previsão é o resultado do cálculo de uma fórmula - para confrontar uma com a outra == esquizofrenia

Zhi, shi são soletrados com um i.

 
Alexei Tarabanov #:

Zhi, shi é soletrado com um i.

Obrigado, o russo não é a minha língua, eu não o aprendi...

 
mytarmailS #:

Obrigado, o russo não é a minha língua, eu não o aprendi...

Está tudo à minha frente.