Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1373
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Eu estava a serrar o Darch na R. Encontrei um par de bugs, descrevi-os nos comentários. Após algumas semanas de silêncio, este Darch acabou por estar no arquivo da CRANa.
Pediu ao desenvolvedor para consertar alguns consertos, ele o fez. E depois voltou completamente para a versão original, apagando todas as correcções. Como resultado, todas as modificações que eu usei não estavam disponíveis.
Conclusão - ou faça tudo você mesmo, ou use produtos de ponta com muito bom suporte.
1. você tem que fazer um garfo e hospedar todas as mudanças. Eles podem ou não ser aceitos, mas você poderá usar sua versão do seu GitHub.
2. Claro, esta é a opção mais confiável.
Para aqueles que lutam pelo complexo mas não entendem como o simples pode ser belo
e inglês, é claro, como solicitado. Não, eu mesmo não vou traduzir. Há um link para o site onde você pode traduzir os artigos.
É um relatório muito interessante, não apenas sobre o simples e o complexo. A ênfase está no fato de que usando o pré-processamento complexo você pode reduzir a resolução de um problema a modelos simples. Apenas uma confirmação de uma simples verdade que nunca me canso de repetir nos meus artigos: "O principal esforço deve ser dedicado aos preditores de pré-processamento, os modelos são secundários.
O orador é hilariante.
Boa sorte.
Esta conversa muito interessante não se trata apenas de simples e complexa. A ênfase está em como utilizar o pré-processamento complexo pode ser reduzido à resolução de um problema com modelos simples. Apenas uma confirmação de uma simples verdade que nunca me canso de repetir nos meus artigos: "O principal esforço deve ser dedicado aos preditores de pré-processamento, os modelos são secundários.
O orador é hilariante.
Boa sorte.
Eu estava pensando que eu poderia escrever ali pesos de 1 (para cordas novas) a 0,5 para cordas velhas. Isto aumentaria o impacto dos novos dados.
Eu tentei e não notei nenhuma melhoria em particular.
Alguém mais tentou - alguma melhoria?
O XGBOOST tem um conjunto de pesos de entrada com pesos de linha. Alguns outros pacotes também o têm.
Pensei que poderia escrever lá pesos de 1 (para dados frescos) a 0,5 para dados antigos. Isto aumentaria o impacto dos novos dados.
Eu tentei e não notei nenhuma melhoria em particular.
Alguém mais tentou - alguma melhoria?
É um pouco errado. Você tem, por exemplo, trem[2000, ] e teste[500, ]. Você treina no trem com pesos de exemplo iniciais = 1.0, faça o teste[] predicar um modelo treinado. Com base na qualidade de cada prefixo de teste, você lhe dá um peso. Em seguida, combine o trem e teste e forme uma nova amostra de treinamento, treine o modelo, teste-o e assim por diante até que todas as amostras de treinamento tenham os pesos obtidos desta forma. Pode aplicar-lhes um factor de redução para barras mais antigas, mas ainda não o verifiquei. Tudo isto é para a classificação, claro.
now_train <- rbind(train,test)%>% tail(dim(train)[1])
Verificado com ELM, dá bons resultados.
Boa sorte.
Isso não está muito certo. Você tem, por exemplo, trem[2000, ] e teste[500, ]. Treinar em nrain com pesos de exemplo iniciais = 1.0, fazer teste predicado[] um modelo treinado. Com base na qualidade de cada prefixo de teste, você lhe dá um peso. Em seguida, fundir o trem e testar e formar uma nova amostra de treinamento, treinar o modelo, testá-lo e assim por diante até que toda a amostra de treinamento tenha pesos obtidos desta forma. Pode aplicar-lhes um factor de redução para barras mais antigas, mas ainda não o verifiquei. Tudo isto é para a classificação, claro.
Verificado com ELM, dá bons resultados.
Boa sorte.
Lembra-me de várias iterações como no auto-estudo para definir os melhores pesos das filas.
É como a validação cruzada - dividir os dados em 5 -10 partes e colocar pesos de parte das linhas de cada ciclo, até que todos eles estejam definidos. Acho que devíamos fazer 2-3 rondas completas para equilibrar.
Lembra-me de várias iterações como no auto-estudo para definir os melhores pesos das filas.
É possível verificar com uma verificação cruzada.
O XGBOOST tem um conjunto de pesos de entrada com pesos de linha. Alguns outros pacotes também o têm.
Eu pensei, nós poderíamos escrever lá pesos de 1 (para fresco) a 0,5 para cordas velhas. Isto aumentaria o impacto dos novos dados.
Eu tentei e não notei nenhuma melhoria em particular.
Alguém mais tentou - alguma melhoria?
bem e só se educar sob os novos então. Estes pesos são para o alinhamento da variância do modelo no conjunto de dados, na regressão logit com variância variável também é usado (se não estou confuso sobre o que estamos falando)
nenhuma melhoria conceitualmente significativa, além do ajuste do conjunto de dados, deve dar
Se você precisa de uma generalização confiável para a população em geral sobre uma pequena subamostra, estas são abordagens BayesianasXGBOOST tem um conjunto de pesos de entrada com pesos de linha. Alguns outros pacotes também têm isto.
Eu estava pensando que eu poderia colocar pesos de 1 (para dados novos) a 0,5 para dados antigos. Isto aumentaria o impacto dos novos dados.
Eu tentei e não notei nenhuma melhoria em particular.
Alguém mais tentou - alguma melhoria?
A idéia é que estes pesos afetarão a construção da primeira árvore, ou seja, quase a mesma semente e insetos, técnicas diferentes. Teoricamente, o resultado pode mudar muito se você mover os preditores de amostra bem separados para o fundo nas filas onde eles dão a classificação correta.
Não é possível definir a aplicação do preditor apenas a partir do X split? Acho que é muito útil para encontrar um bom modelo.e só treinar para os novos então. Estes pesos são para alinhar a variância do modelo no conjunto de dados, na regressão logit com a variância da variável também é usada (se não estou enganado sobre o que estamos a falar)
Qualquer melhoria conceitualmente significativa, exceto para a adequação do conjunto de dados, não deve dar
se você precisa de uma generalização confiável para a população em geral sobre uma pequena subamostra, são abordagens BayesianasOu seja, o alinhamento é escolhido pelo método sugerido pelo Vladimir?
Em idéia estes pesos afetarão a construção da primeira árvore, ou seja, quase a mesma semente e insetos, técnicas diferentes. Teoricamente, o resultado pode mudar muito se mudarmos os preditores de amostra bem separados para o fundo nas filas onde eles dão a classificação correta.
Não é possível especificar como aplicar um preditor apenas a partir da divisão X? Acho que é uma coisa muito útil na procura de um bom modelo.Estes pesos não só no reforço, mas também no caso de florestas e NS podem ser aplicados. Aparentemente, a metodologia é comum a todos os sistemas MoD.
O teste parece melhor quando se treina em 30000 linhas do que quando se treina em 80000 linhas. Em 80000 ambas as transações são menores e o erro é maior. Eu tentei diminuir o peso proporcionalmente (de 1 para fresco para 0,5 para velho) - os resultados são quase os mesmos.A primeira experiência com a diminuição da influência de dados antigos não mostrou qualquer melhoria.
Aparentemente ainda é para o alinhamento da dispersão, como apontado por Maxim, pelo método indicado por Vladimir.