Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3095
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Podemos liberar para o público um pacote escrito anteriormente para o R. Devemos revisá-lo e adicionar as funcionalidades que faltam.
Essa seria uma decisão muito boa. Estou disposto a participar dos testes, se necessário.
Boa sorte
Essa seria uma solução muito boa. Estou pronto para participar dos testes, se necessário.
Boa sorte
um veículo está envolvido em um experimento
Há muito tempo venho lutando contra o overfit e já sussurrei várias vezes - dê uma olhada no kozul. Todas essas técnicas são de lá, o Prado foi inspirado (parcialmente) lá.
Trata-se de uma generalização da estatística para o ML.
Você pode fazer a inferência de modelos por um determinado critério (tritment). Trata-se de remover o viés e a variação nos dados para trabalhar melhor com novos dados.Com o método sugerido no artigo, você não pode passar por diferentes modelos para escolher o melhor (estilo ptu). Esse é o site https://en.wikipedia.org/wiki/Multiple_comparisons_problem.
Ainda estou curioso para saber mais detalhes... como você propõe selecionar um modelo para trabalhar entre milhares de opções?
Esse pacote avalia a possibilidade de treinar com sucesso o alvo selecionado nos preditores selecionados. Se a maioria dos modelos for bem-sucedida, é provável que o modelo selecionado também seja bem-sucedido.
Não há seleção de um modelo específico (pelo que entendi). Ele deve ser selecionado por outro método, que não é discutido no artigo. E há muitas ressalvas e restrições (algumas páginas), algumas das quais eu contei.
Os modelos são diferentes, pois têm parâmetros de indicadores diferentes. Mas o conjunto de indicadores pode ser o mesmo. Acho que essa é a confusão.
Você pode dizer que a estratégia é a mesma, mas os modelos (variantes) são diferentes
Ainda assim, estou curioso para saber mais detalhes... como você propõe selecionar um modelo para trabalhar entre milhares de opções?
Esse pacote avalia a probabilidade de treinar com sucesso o alvo selecionado nos preditores selecionados. Se a maioria dos modelos for bem-sucedida, é provável que o modelo selecionado também seja bem-sucedido.
Não há seleção de um modelo específico (pelo que entendi). Ele deve ser selecionado por outro método, que não é discutido no artigo. Além disso, há muitas advertências e restrições (algumas páginas), algumas das quais já mencionei.
Os modelos são diferentes, pois têm parâmetros diferentes de indicadores. Mas o conjunto de indicadores pode ser o mesmo. Acho que essa é a confusão.
Você pode escolher apenas entre os bons, se todos forem bons. Se você colocar a questão da escolha dessa forma, ou com algum intervalo de confiança, todos são bons. Caso contrário, é o problema acima, que exige mais esforço.
Não sei quem faz o quê exatamente, portanto, a pergunta é vaga para mim.
faço experimentos, escrevo código...
Eu tentei, funciona, então penso em quais TCs são melhores para usar, etc. Vou mais longe e mais fundo...
E você passará mais um ano discutindo teoria, depois desistirá e pronto.
Mas não entendo como eles fazem a validação cruzada sem treinamento. Eles simplesmente alimentam um conjunto pronto de retornos e depois o misturam em 12.000 variantes. Ele deve ser treinado em cada uma das 12.000 IS e previsto em cada OOS correspondente.
Em minha opinião, essa é uma das opções para avaliar a linearidade da curva de equilíbrio na bandeja.
Devido ao fato de removermos o viés (isso é o principal) e a variância por meio da validação cruzada, o modelo começa a se comportar de forma +- adequada em novos dados. Em seguida, ele pode ser ajustado.
Você também pode usá-lo em negociações.