Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1239
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Eu tenho uma classe menor. Tenho um erro de 0.14\0.4.
14% a 40% no teste?
14% a 40% no teste?
bem, teste de treino 14 40
precisão e erro de classificação são coisas diferentes. precisão e % de amostra(test-train).
é claro em princípio - ultrapassa o traço... 0,6 precisão neste conjunto de dados no teste (20% da amostra) será suficiente...
erro de classificação até agora...muito tempo para refazer lá ))
Tenho 20% de treino em algibe, 80% de OOB, e fiz o mesmo aqui.
fiz isto em python e consegui isto.
score(X,y,sample_weight=None)[fonte]Retorna a precisão média dos dados de teste e das etiquetas.
Não percebo nada, hoje apanhei-lhe o jeito em python, vou tentar de novo amanhã. Se o teste e o vestígio são 50%, então é assim
O meu conjunto de dados (precisão) sobre este aqui é
tendência (80% da amostra) = 0,619
teste(20% da amostra) = 0,612 OOS
Um pouco de escavação, de cabeça para baixo. É assim que se faz, não 20% do teste))))
50% não é suficiente, 300 de observação não é nada.
Aprender por 20% é algo novo))
Acho que o erro lá não mudou muito, por isso o fiz dessa forma, uma forte regularização em suma.
Acho que o erro não estava a mudar muito lá, por isso é que o estava a fazer dessa forma, em suma, uma forte regularização.
Como poderia não ter mudado? 14 e 40% é uma grande diferença.
Por exemplo, 60x60 como em Wizard - isso é verdade!
O mesmo que eu fiz com o Doc e o Toxic, Python e R não têm isso...não te vou dizer...
Como poderia não o fazer? 14 e 40% é uma grande diferença.
60 sobre 60 como um feiticeiro - é isso!
Bem, vamos verificar todos os modelos que estão em python... quero dizer, os que estão em circulação... não até amanhã... não até amanhã...
Talvez precisemos de mais algum pré-processamento.Você não entende que não pode ganhar dinheiro em forex?)
É mais fácil tornar-se um programador e conseguir um emprego bem pago do que envolver-se neste masoquismo.
em resumo, em erro de classificação de algibeira e logloss... A perda de madeira não faz qualquer sentido, o erro de classificação na floresta cai a zero numa amostra de estagiário>0.8 e oob 0.2
rmse não é bom para classificação
Foi por isso que tirei uma pequena amostra de treino, para algum tipo de erro, mas ainda é pequena. Eu não sei como comparar com o Python.