Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2589
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining
Ao escolher um modelo eu sugiro otimizar não pelo lucro no OOS, mas pela relação desse lucro com o lucro na bandeja. Ou expulsar modelos com uma pequena relação desse tipo e tirar o máximo lucro para o OOS do resto. Isto se você levar as citações à letra, sem especulação.
Ao selecionar um modelo, sugere-se a otimização não pelo lucro no OOS, mas pela relação desse lucro com o lucro na bandeja. Ou expulsar os modelos com uma pequena relação desse tipo e tirar o máximo dos restantes em termos de lucro no OOS. Isto se você levar as citações à letra, sem especulação.
Ao escolher um modelo, é sugerido otimizar não pelo lucro no OOS, mas pela relação entre esse lucro e o lucro na bandeja. Ou jogue fora os modelos com uma pequena relação desse tipo e tire o máximo lucro sobre o OOS dos restantes. Isto se você levar as citações à letra, sem especulação.
No meu exemplo acima com moedas e 10000 pessoas. Que as cabeças sejam 1, os rabos 0. Se agirmos de acordo com o algoritmo dado, também não vamos conseguir nada. Isto é bastante compreensível no contexto descrito. Em outras palavras, se nos depararmos com alguma vantagem, então não é tão importante se tomamos a relação de lucro sobre SI e OOS ou outra coisa, e se não houver vantagem, então nada de tais métodos funcionará.
Exactamente! Precisamos de avaliar primeiro a presença de borda. E depois devíamos pensar em como seleccionar. Por exemplo, da seguinte forma: vemos SI a percentagem de modelos por alguma métrica superior a um determinado limiar. Por exemplo, a taxa de ganho é superior a 55% - 45% dos modelos. Classifique-os por taxa de vitória e leve algum TOP. Verificamos os resultados neste topo no OOS? Dos modelos seleccionados, a taxa de ganho superior a 55% é dada pelos mesmos 45% (relação entre os modelos que dão tal compromisso no OOS e todos os seleccionados)? - Acho que este grupo de modelos pode ser expulso em segurança. Se pudermos ver que tal selecção de modelos de topo funciona, significa que existe uma vantagem e pela força deste efeito, podemos avaliar a qualidade do padrão. Está decidido que é suficientemente forte. Toda a seleção posterior é uma questão de técnica - mesmo que por meio de uma taxa de rotação, PF, você não precisa se preocupar com métricas e lógicas complicadas, e por taxa de rotação e PF diretamente no SI.
Alexei, posso ter uma parte da citação onde diz lucro, lucro máximo, jogando fora modelos....
Eu tenho uma tradução livre) A questão é que inicialmente muitos modelos são treinados e no final você tem que escolher um modelo de trabalho (avaliação do modelo). O camarada afirma que todos normalmente escolhem o modelo que apenas dá o resultado máximo sobre o OOS e esta é a abordagem errada. A sua segunda citação diz como deve ser feito.
Você sabe que está indo bem se a média para os modelos fora da amostra for uma porcentagem significativa da pontuação da amostra interna. Isto traduz-se na maximização da relação de lucro no OOS para o lucro no caminho certo.
Em geral, você está realmente chegando a algum lugar se os resultados fora da amostra forem mais de 50% do in-sample. Isto pode ser traduzido como modelos de descarte onde a relação de lucro no OOS para lucro na bandeja é inferior a 0,5Bem, é uma espécie de questão de selecção de modelos, sim, como na optimização. Você pode inventar seus próprios critérios subjetivos.
Não é ruim se houver um monte de modelos com parâmetros ligeiramente diferentes, ou seja, permitindo a variação, mas todos eles passam o OOS. Mas não é uma panaceia, claro.
Alexey, há alguma técnica para restaurar a superfície de otimização?
Suplemente a métrica de qualidade do modelo para os valores de entrada em falta, convencionalmente, conjuntos de valores de gyperameter? Bem impulsionado é simples de ensinar. Para que é que isso seria necessário?
Complementar os parâmetros de qualidade do modelo para os conjuntos de hiperparâmetros de entrada em falta, condicionais? Bem, um simples reforço de treino. Para que é que isso seria necessário?
Alexey, há alguma técnica para reconstruir a superfície de optimização?
No espaço de parâmetros do modelo? Isso é uma dimensão enorme. Só é possível para modelos muito simples com um pequeno número de preditores.
Não está muito claro como se pode construir uma superfície num espaço de enorme dimensionalidade. Nós simplesmente temos muito poucos pontos em comparação com esta dimensionalidade. A menos que por alguma visualização de redução dimensional como PCA etc, mas o ponto não é claro.
Bem, é uma espécie de questão de selecção de modelos, sim, como na optimização. Você pode inventar seus próprios critérios subjetivos.
Não é ruim se houver um monte de modelos com parâmetros ligeiramente diferentes, ou seja, permitindo a variação, mas todos eles passam o OOS. Mas isto não é uma panaceia, claro.
Há pouco você teve uma idéia sobre combinar métricas padrão e personalizadas, que eu entendi da seguinte forma: modelos de treinamento por padrão e selecioná-los por personalizados.