Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1240

 
Maxim Dmitrievsky:

Não estamos nisto pelo dinheiro, mas pela ideia.) O dinheiro pode ser feito por meios muito mais triviais.

Sim, qual é o objectivo desta ideia. Bem, existe a aprendizagem da máquina, mas os milagres não acontecem, é apenas um indicador mais sofisticado e nada mais.

Eu quero negociar algumas ações, futuros, mas vou precisar de mais dinheiro lá, quer dizer, não é para mim.

Eu não sei como usar estes indicadores, eles podem ser de diferentes tipos de negociação.

 
forexman77:

Sim, qual é o objectivo dessa ideia. Bem, há aprendizagem mecânica, mas não há milagres, é apenas um indicador mais sofisticado e nada mais.

Bem, ou negociação de acções, ou negociação de futuros, mas preciso de mais dinheiro lá, por isso não é para mim.

Eu tenho muitos nervos e forças, enquanto a saída é como a carne de um mosquito.

Tenho de manter o meu rabo quente e depois sofrer... ou procurar um táxi neste campo.

 

Para torná-lo ainda mais curto, imagine que o forex é uma montanha que você tem que escalar. Mas, é praticamente uma montanha suave, sem nada a que se agarrar.

E melhorias no MO de 1-2% não farão praticamente nada, não há preditores lá, apenas ruído e tudo mais, o resto é reciclagem e nada mais.

 
Maxim Dmitrievsky:

em resumo, em erro de classificação de algibeira e logloss... A perda de madeira não faz qualquer sentido, o erro de classificação na floresta cai para zero na amostra de treinamento>0,8 e oob 0,2.

Foi por isso que tirei uma pequena amostra de treino para algum tipo de erro, mas ainda é pequena. Não sei como comparar com as de Python.

É mais como uma reconversão... As árvores podem memorizar completamente os dados de entrada. R pode ser reduzido, e parece não haver mais nada a ajustar em Algibe. No xgboost, por exemplo, você pode limitar a profundidade das árvores.
Foi por isso que não os usei no início e mudei para malhas. Mas as redes têm os seus próprios problemas.
 
Vizard_:

hilariante... Maximka, é por isso que ele está pedrado)))) Eu não escrevi nada. Em resumo - logloss é uma penalidade. Mudá-lo em akuarisi, é fácil de interpretar, é por isso que é usado.

Logloss mona então dobra um pouco e mais alguns por cento se tiveres sorte em espremê-lo. Showed Fa, há uma bíblia no R...

Eu sempre esqueço metade, depois de um ano eu fico surpreso da mesma coisa. recalcule :) há algum absurdo em algibe, não como nas libras sérias, e a floresta é caseira.

 
Vizard_:

hilariante... Maximka, é por isso que ele está pedrado)))) Eu não escrevi nada. Em resumo - logloss é uma penalidade. É fácil de interpretar, é por isso que é usado.

Logloss mona então dobra um pouco mais e mais por cento-pares se tiveres sorte em espremer o acuarisy. Mostrei ao Fa, há uma bíblia no R... O que está no algibe, não sei o que se passa nas tuas definições...

recusar a ganância do guizo...

Alglib-e só tem r para regularização
 

Acho que não se pode aplicar acuracu nos mercados, as aulas lá são desequilibradas desde o início.

Se você tem akurasiu 100% tudo vai voar para a classe majoritária é a pior métrica. É melhor olhar para a matriz de confusão, ela mostra como as classes estão divididas.

 
elibrarius:
É mais sobretreinamento... Treynes, por outro lado, pode memorizar completamente os dados de entrada. R pode ser reduzido, e parece não haver mais nada a ajustar em Alglib. No xgboost, por exemplo, você pode limitar a profundidade das árvores.
Foi por isso que não os usei no início e mudei para malhas. Mas as redes têm os seus próprios problemas.

há apenas o número de árvores e r sim, se r for maior que 0,6 há quase sempre um erro de classificação em uma bandeja 0,0 :))) no teste pode haver variações, geralmente em torno de 0,5

 
forexman77:

Acho que não se pode aplicar acuracu nos mercados, as aulas lá são desequilibradas desde o início.

Se você tem akurasiu 100% tudo voará para a classe majoritária é a pior métrica. Prefiro observar a matriz de confusão, ela mostra especificamente como as classes estão divididas.

Eu também não entendo bem a Precisão. A matriz de erro ou erro de classificação é mais clara, e eu a apresento na tela.
 
Vizard_:

Nspesh tenta diferentes em python também. Cat Boost, por exemplo, não é uma grande oferta, mesmo fora da caixa + come tudo em fila + há um visualizador com um ponto (coloque quando o corte não está realmente melhorando) e assim por diante...

já está pronto, amanhã vou tentar, juntamente com apenas GBM, talvez também LightGbm... um xgboost é uma espécie de dor de cabeça, leva muito tempo a perceber