Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2550
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Em geral, uma vez treinado (no trem) não há apenas um modelo, mas um conjunto de modelos definidos por metaparâmetros. Por exemplo, diferentes graus de polinomial de interpolação ou diferentes coeficientes de regularização na regressão do laço, etc. Depois é determinado o melhor valor para o metaparâmetro (o melhor modelo do conjunto é obtido através de testes). Por sua vez, a otimização do metaparâmetro no teste também pode ser determinada por alguns parâmetros (metaparâmetros), para otimização dos quais o exame pode ser aplicado. Por exemplo, em que proporções dividir a amostra original em trem e teste.
Mas muito provavelmente não entendo a sua ideia).
É melhor selecionar os meta-parametros não em um único lote de teste, mas em vários colados por validação cruzada ou rollicking forward. Tem sido discutido recentemente.
Eu concordo. Na verdade, eu só queria dizer que a validação cruzada também pode ser organizada de forma complicada e ser definida com alguns parâmetros próprios (meta-parâmetros) que também podem ser otimizados por mais uma amostra (e não retirá-los do teto).
Eu concordo. Na verdade, eu só queria expressar a idéia de que a validação cruzada também pode ser organizada de forma complicada e ser definida com alguns de seus próprios parâmetros (meta-parâmetros), que também podem ser otimizados usando outra amostra (em vez de retirá-los do teto).
Correctamente compreendido - realizar quaisquer acções para tornar a amostra mais parecida com uma amostra de exame.
A questão é como melhor fazer isto.
Uma opção, que é frequentemente utilizada, a enumeração de preditores - mas com um grande conjunto deles em demasia. E podemos, digamos, comparar cordas (conjunto de preditores) para a similaridade e robustez do resultado alvo nas duas amostras? Então podemos deixar cair fios anômalos (digamos, raros ou não encontrados na amostra) da amostra de treinamento e, devido a isso, aprender muito melhor, em teoria.
Correctamente compreendido - realizar qualquer acção para que a amostra de comboio se pareça mais com uma amostra de exame.
A questão é como melhor fazer isto então.
Uma opção frequentemente utilizada é a de enumerar os preditores - mas com um conjunto grande há muitos deles. E podemos, digamos, comparar cordas (conjunto de preditores) para a similaridade e robustez do resultado alvo nas duas amostras? Então podemos deixar cair fios anômalos (digamos, raros ou não encontrados na amostra) da amostra de treinamento e devido a isso aprender muito melhor, em teoria.
Vladimir tinha um artigo sobre isso, não me lembro do nome daquele pacote, mas estava apenas deixando cair fios imprevisíveis da amostra
Interessante, vou ter de procurar. Mas quero descartar não as cordas previsíveis, mas aquelas que não ocorrem na amostra fora do treinamento. É até interessante marcá-los, é claro, e não apenas jogá-los fora - para identificá-los.
Interessante, vou ter de ir ver. Mas, eu não quero jogar fora as que não são previsíveis, mas as que não ocorrem na amostra fora do treinamento. É até interessante marcá-los de alguma forma, é claro, em vez de simplesmente jogá-los fora - para identificá-los.
Talvez estejamos falando de remover aberrações nas observações, que podem ser de dois tipos - por tamanho de resposta e por tamanho de previsão (ambos podem ser combinados na mesma observação). Os outliers propriamente ditos são chamados os primeiros, enquanto os segundos são normalmente chamados de outra coisa. Esta ciência está bem desenvolvida para a regressão linear. Provavelmente você pode verificar cada observação de teste para ver se é um outlier em algum sentido relativo a um exame.
Interessante, vou ter de ir ver. Mas, eu não quero jogar fora os que não são previsíveis, mas os que não ocorrem na amostra fora do treinamento. É até interessante marcá-los, é claro, e não apenas jogá-los fora - para identificá-los.
Vladimir tinha um artigo sobre isso, eu não me lembro do nome do pacote, mas ele estava apenas deixando cair fios imprevisíveis da amostra
PacoteNoiseFiltersR. Dê uma olhada no artigo.
É melhor selecionar os meta-parametros não em um único lote de teste, mas em vários colados por validação cruzada ou rollicking forward. Isto foi discutido recentemente.
E como usar corretamente os resultados do CV? para pegar os melhores parâmetros do modelo e ensiná-lo a todo o conjunto de dados, ou usá-lo apenas para selecionar bons conjuntos de dados
Por exemplo, a saída é a seguinte tabela
PacoteNoiseFiltersR. Dê uma olhada no artigo.
Enquanto os preditores de ruído são mais ou menos claros, os exemplos de ruído não o são. Eu gostaria de saber mais sobre como defini-los (em termos teóricos, não nomes de pacotes/funções utilizados, embora, claro, R sempre tem links para artigos). É claro que deve haver uma classe "não negociar" na classificação, já que esforçar-se para estar no mercado o tempo todo é considerado um erro. Mas não é muito claro como esta classe pode ser descrita corretamente de uma forma mais ou menos formal.