Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1710

 
Maxim Dmitrievsky:

Max! Lembra-me outra vez como se chamam estes modelos...

1) O modelo 1 é treinado

2) o modelo 2 é treinado com base nas previsões dos dados de teste do modelo 1, etc...

empilhamento ?

 
Aleksey Vyazmikin:

Sim, resultados estranhos. Eles não retiram a probabilidade da amostra de teste envolvida no treino? Mas parece haver um erro.

E quantas unidades totais (linhas de alvo) estão na amostra?
Nenhuma amostra de teste.
Há 891 linhas no total do conjunto de dados.

Acho que uma das fórmulas rms, rmse, cls ou qualquer outra coisa é usada lá. O principal é que o resultado converge a 0%, 50% e 100%. E no meio estão curvadas. A divisão por classe é normalmente feita a 50%, e há uma correspondência de probabilidade comum neste ponto. Então, decidiu deixar o assunto por resolver.
 
Aleksey Vyazmikin:
elibrarius:

Posso fazer-te uma pergunta?

Porquê o ketbust? O que é que tem que os analógicos não têm?

 
Elibrarius:
Nenhuma amostra de teste.
Há 891 linhas no total do conjunto de dados.

Acho que uma das fórmulas rms, rmse, cls ou qualquer outra coisa é usada lá. O principal é que o resultado converge a 0%, 50% e 100%. E no meio estão curvadas. A divisão por classe é normalmente feita a 50%, e há uma correspondência de probabilidade comum neste ponto. Então, decidiu deixar o assunto por resolver.

Sim, para entender a profundidade da idéia, você tem que quebrar o código. Mas é interessante como eles atribuem pesos às folhas, tendo em conta os que já têm.

 
mytarmailS:

Posso fazer-te uma pergunta?

Porquê o ketbust? O que é que tem que os analógicos não têm?

Estou interessado nisso pelas seguintes razões:

1. Suporte - muita informação e feedback dos desenvolvedores.

2. aprendizagem rápida - usando todos os núcleos do processador.

3. Configurações flexíveis para a construção de modelos e controle de requalificação - embora haja muito a melhorar aqui.

4. Capacidade de aplicar modelos simétricos binários após o treino em MQL5, mas não é o meu desenvolvimento.

 
Aleksey Vyazmikin:

obrigado

 

Qualquer pessoa pode estar interessada em

Há um novo livro sobre previsão de séries cronológicas em R, incluindo exemplos de previsão de bitcoin

https://ranalytics.github.io/tsa-with-r/

 
Aleksey Vyazmikin:

Sim, é preciso quebrar o código para entender a profundidade da ideia lá. Mas é interessante como eles atribuem pesos às folhas, tendo em conta os já existentes.

Por definição
A idéia do encanoamento por gradiente é construir um conjunto de modelos elementares que se refinam sequencialmente. O n-ésimo modelo elementar é treinado nos "erros" do conjunto dos modelos n-1, e as respostas dos modelos são ponderadas em conjunto. Os "erros" aqui estão entre aspas, pois cada modelo sucessivo aproxima-se do antigradiente da função perda, que não é necessariamente igual à diferença dos valores reais e previstos (ou seja, um erro no sentido literal).

Parece que os pesos são determinados como de costume - por probabilidade.
Mas a divisão não é apenas a melhor, mas a que melhora o resultado geral. Mas isto é apenas uma suposição. É impossível olhar através do código, uma vez que contém quilómetros de listagem. Não são 4000 cordas da algália.

mytarmailS:

Porquê a catbust? O que é que tem que os analógicos não têm?

Eu concordo com o Alexey. Eu tenho alguma experiência com o xgboost. Será possível comparar na prática.
 
elibrarius:

Só estou a perguntar porquê, vejo que estás a lutar com estas árvores do ketbust, há alguns problemas com a produção, muletas...

Entrei um pouco no tema da "indução de regras" e vejo que o R tem muitos pacotes de geração de regras ou conjuntos de regras...


1) as regras são fáceis de produzir, uma linha

2) as regras são fáceis de ler para um humano

3) tipos de pilhas de geração de regras, desde triviais a genéticas

4) a qualidade da previsão está ao nível de qualquer outra coisa


Então estou a pensar que talvez não te devesses incomodar com o Ketbust. e ir para algo mais agradável ou algo do género...

 
mytarmailS:

Max! Lembra-me outra vez como se chamam estes modelos...

1) O modelo 1 é treinado

2) o modelo 2 é treinado sobre as previsões dos dados de teste do modelo 1, etc...

empilhamento ?

meta etiquetagem de prado