Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 450

 
O Reshetov apresentou-se a Deus?
Eu não...
Recentemente escrevi algo como.... O Inverno...
 
Alexander Ivanov:
O Reshetov apresentou-se a Deus?
Eu não...
Recentemente escrevi algo como.... No inverno...

Era isso que eu queria saber o que lhe aconteceu.

 
O fim do mundo está a chegar. E Deus está a tirar-lhe a sua própria....
E o Anticristo vai aparecer.....
 
A saída:

Hmmm... você usa o software do falecido Yury Reshetov? O XGB moeu este conjunto com uma precisão de 65-67% num minuto. Quando o ML está em funcionamento há mais de uma hora, presumo que algo esteja errado, por isso tenho um ponto fraco para as redes neurais há muito tempo.

Não, não é a rede neural do Jura. Mas não treino o modelo uma única vez, mas tento diferentes combinações de preditores e diferentes parâmetros do modelo. Os resultados devem ser dados estatísticos sobre a importância de cada preditor e parâmetro de modelo para que tudo possa ser treinado sem encaixe.

 

Até agora, a selecção dos parâmetros do modelo e dos pesos previstos ainda está longe de estar completa, deverá ser muito melhor no futuro.

Eu levei 10% do train.csv (aleatoriamente) para treinar, caso contrário é um processo bastante longo.
Os pesos dos palpiteiros são.
0
0
3467.50163547078
0
0
184258.95892851
22315.6831463224
0.144079977475357
0
0
0.000324672622477092
39775.9969139879
6053.73861534689
0
0

O que é zero e próximo a ele é lixo e inútil, quanto maior o peso maior a influência do preditor sobre o resultado.

logloss em treinamento (10% das linhas do train.csv) - 0,6895723, precisão 0,6402786

Logloss no teste (o test.csv completo) é 0,6928974, a precisão é 0,6239073.
Eu preciso aumentar o número de exemplos de treinamento, 10% que eu tomei é muito baixo, então a perda de logloss caiu visivelmente no teste. Por exemplo, para o numerai eu preciso tomar pelo menos 50% dos exemplos de treinamento, caso contrário os resultados sobre novos dados não são nada.


Tenho que tomar pelo menos 50% dos exemplos de treinamento, caso contrário os resultados sobre os novos dados não são nada bons:

O XGB moeu este conjunto com uma precisão de 65-67% num minuto.

Respeitar o XGB, em mãos capazes e fortes. Fiquei pior em 4 horas.


Que tipo de dados são esses? Forex, bolsa de valores, subscrições pagas? 62% de forma realística produziria um lucro se eu mesmo recolhesse um conjunto semelhante de preditores?

 
Dr. Trader:

Que tipo de dados são esses afinal? forex, bolsa de valores, subscrições pagas? 62% de forma realística produziria um lucro se eu mesmo recolhesse um conjunto semelhante de preditores?


Penso que esta pergunta deve ser feita no início )) sem compreender a fonte de dados é de alto nível :)

É como andar com uma rapariga, conhecer-se através de conhecidos, e só no final da noite - ouve, qual é o teu nome :) e ela diz que tens uma boa reacção na vida, que vais longe

 
Alexander Ivanov:
O Reshetov apresentou-se a Deus?
Eu não sabia...
Recentemente escrevi algo como.... No inverno...

Chocado comigo mesmo.

Que ele descanse em paz.

 
Vladimir Gribachev:

Chocado comigo mesmo.

Que ele descanse em paz.

Que Deus descanse a sua alma.
 
Alexander Ivanov:
Que Deus descanse a sua alma.
Mas a sua causa continuará viva, li o seu trabalho, um homem muito interessante com um pensamento pouco convencional. Eu até fiquei surpreso que antes de falar novamente sobre o assunto ninguém tinha discutido muito antes, exceto Mikhail.
 
Dr. Trader:

Para o treinamento foram necessários 10%do train.csv

Logloss de treinamento (10% das linhas do train.csv) - 0,6895723, precisão 0,6402786

A logloss no teste (o test.csv completo) é 0,6928974, a precisão é de 0,6239073.

Eu preciso aumentar o número de exemplos de treinamento, 10% que eu tomei é muito baixo, então a perda de logloss caiu visivelmente no teste.

Não tentou tomar 10%, mas acho que 62% é bom, eu tive cerca de 66% no teste, o Wizard disse que ele teve 67%, claro que a 100% das amostras lerna em treinamento.

Por exemplo, para o numerai eu preciso tirar pelo menos 50% das amostras de treinamento, caso contrário os resultados dos novos dados não são nada.

Para ser honesto com eles tudo é pouco claro, não consigo entender como o medidor é bom, eles fizeram muito nebuloso, não está claro porque eles colocaram respostas no torneio, pelo qual eles contam loglos preliminares, não está claro porque eles precisam disso, pessoas que estavam em primeiro lugar de repente lixo por 500- com loglos >0,7, tudo cheira a aleatório ...

Respeitar o XGB, nas mãos certas uma coisa forte. Já tive pior em 4 horas.

Forte, especialmente quando eu próprio o reconstruí em C++.

Que tipo de dados são estes afinal? Forex, bolsa de valores, subscrições pagas? 62% de realismo produziria um lucro se eu mesmo bombeasse um conjunto semelhante de preditores?

Osdados são todos de FORTS com Quickquick, Metatrader e parsed gratuitos de páginas web como http://www.investing.com etc. segundos, parecia ter sido assinado em que tipo de parâmetros. É realista, mas a infra-estrutura de negociação para HFT moderado (10 seg-1min de posição) deve ser feita em Quick ou Plaz, do zero este é um trabalho homem-ano. Prof. C++/Java/C# codificador (25-50K$ se local), mas devemos considerar que as perspectivas do HFT no mundo estão diminuindo o tempo todo, especialmente ultra, ou seja, eles são monopolizados por organizações com financiamento muito apertado e não estão disponíveis para pequenos comerciantes, devemos nos concentrar na previsão do próximo minuto, não segundo, ~55% deste é o limite dos sonhos