Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2746
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
portanto, verifique antes de fazer isso.
Verificar o quê? Se você tem uma rotação???
Isso não tem mais graça.
Para resumir a teoria de Sanych (já que ele mesmo não conseguiu formalizá-la adequadamente e dar exemplos):
Ela está completamente errada.
1. Escrevi acima sobre meu entendimento de "poder preditivo"
2. O significado não está claro
3. não existe uma linha de base no sentido usual. Ajuste de floresta aleatória. Tamanho da amostra = 1500 barras, número de árvores = 150. O tamanho da amostra é obtido a partir do gráfico de erro de ajuste. Nessa amostra de 170 preditores, é feita a seleção e o pré-processamento dos preditores com base em diferentes critérios. Por fim, de 20 a 30 preditores restantes, 5 a 10 preditores são selecionados com base na capacidade máxima de previsão e o modelo é ajustado. A próxima barra é prevista usando o modelo obtido. Com a chegada de uma nova barra, todo o processo de construção do modelo é repetido.
O erro máximo de ajuste é de cerca de 20%, mas isso é bastante raro. Normalmente, é de cerca de 10%.
4. Descrevi minha abordagem anteriormente.
Mais uma vez.
mas o alvo não é um ziguezague, é?
Completamente errado
1. Acima escreveu sobre seu entendimento de "capacidade de previsão"
2. O significado não está claro
3. Não há treinamento no sentido usual. Ajuste de floresta aleatória. Tamanho da amostra = 1500 barras, número de árvores = 150. O tamanho da amostra é obtido no gráfico de erros de ajuste. Nessa amostra de 170 preditores, é feita a seleção e o pré-processamento dos preditores com base em diferentes critérios. Por fim, dos 20-30 preditores restantes, 5 a 10 preditores são selecionados com base na capacidade máxima de previsão e o modelo é ajustado. A próxima barra é prevista usando o modelo obtido. Com a chegada de uma nova barra, todo o processo de construção do modelo é repetido.
O erro máximo de ajuste é de cerca de 20%, mas isso é bastante raro. Normalmente, é de cerca de 10%.
4. Descrevi minha abordagem anteriormente.
A confiança de que os resultados futuros serão tão decentes vem da estatística de capacidade preditiva, que:
1. deve ter um valor de sd suficientemente alto
2. um valor baixo de sd.
Como de costume, se for possível encontrar preditores que tenham um sd inferior a 10%, a variação no erro de previsão será praticamente a mesma.
Minha conclusão:
1. Devemos adotar (ou desenvolver) um dos algoritmos de "capacidade de previsão"
2. Encontrar uma lista de preditores cujos valores de capacidade de previsão diferem em um fator de um
3. Execute uma janela e obtenha estatísticas: média e desvio da média. Se tiver sorte, você encontrará essa lista. Eu encontrei.
O modelo não importa. Em meus preditores, RF, ada, GBM e GLM apresentam praticamente o mesmo resultado. O SVM é um pouco pior. Não é nada bom com o nnet.
Todo o sucesso está nos preditores e em seu pré-processamento. E você está fazendo bobagem aqui!
Isso faz mais sentido. De onde vêm os alvos, dos resultados de agrupamento?
Tenho o sinal de incrementos normais.
O alvo é secundário. O problema com o alvo são os preditores: você pode combinar preditores com um alvo específico ou não.
Tenho um sinal para incrementos normais.
O alvo é secundário. O problema do alvo são os preditores: você pode ajustar os preditores a um alvo específico ou não.
A capacidade preditiva é a correlação de informações e NÃO:
1. Correlação é a "semelhança" de uma série estacionária com outra, e sempre há algum valor, e não há valor de "nenhuma relação". A correlação sempre tem algum tipo de valor, portanto, você pode facilmente usar a correlação para descobrir a relação entre um professor e a borra de café.
2. Fiche selectin é a frequência de uso de fichas na criação de modelos. Se considerarmos preditores que não têm nada a ver com o professor, ainda assim obteremos uma classificação de fichas.
Um análogo ao meu entendimento de "poder preditivo é, por exemplo, caret::classDist(), que define as distâncias de amostragem de Mahalanobis para cada classe de centros de gravidade. Ou woeBinning. Há muitas abordagens e muitos pacotes no R. Há outras baseadas na teoria da informação.
Tenho um sinal para incrementos normais.
O alvo é secundário. O problema do alvo são os preditores: você pode combinar preditores com um alvo específico ou não.
O sinal dos incrementos e o sinal do ZZ não garantem lucro. 5 pequenos incrementos se sobreporão facilmente a um forte, mas na direção oposta. E 10, por exemplo, barras lucrativas noturnas também serão cobertas por uma barra perdedora de um dia (apenas 10% de erro).
Que linha de equilíbrio será obtida com os novos dados? Espero que não seja horizontal com pequenas flutuações para cima e para baixo.
Nos artigos de Vladimir, o erro também está em torno de 10-20%, mas a linha de equilíbrio não inspira otimismo.
Ainda não entendi. Não se trata de correlação ou frequência de uso. Como a presc.sp. é estimada no treinamento ou como é estimada?
A mesma álgebra vetorial, o mesmo mapeamento de recursos que remove o problema de multicolinearidade.
- Ou seja, a seleção/projeção espacial de essencialmente os mesmos "componentes".... A localização no espaço de recursos multicolineares oferece um campo para a aplicação da álgebra vetorial(!). Para não se livrar da multicolinearidade de forma artesanal, é melhor apenas levá-la em consideração (por exemplo, reduzindo-a para o espaço 3d ou o que você quiser e operando com projeções e, se necessário, os dados iniciais podem ser multiplicados por essas estimativas, como algo como cargas de fatores, embora geralmente a própria biblioteca meça essa distância de Mahalanobis e forneça os resultados).
De qualquer forma, o resultado final é a mesma aproximação da média e do desvio padrão e a tomada de decisões de negociação com base neles.
- Não há outra modelagem na natureza - há apenas maneiras de resolver problemas comuns (heterocedasticidade, multicolinearidade, autocorrelação de resíduos) em um espaço n-dimensional (diferente)...
e não há como fugir da estatística ... a solução para o problema de correlação de características está aqui de forma explícita ...
p.s..
ATUALIZADO: essa ferramenta(MD) ainda é usada para agrupamento/agrupamento/classificação multidimensional... para selecionar outliers em um espaço multidimensional... às vezes é usada junto com a distância euclidiana... "quando as variáveis não estão correlacionadas, a distância de Mahalanobis coincide com a distância euclidiana usual".... em LDA... em geral, a tz é a que descrevi anteriormente....
Com essa postagem, não pretendi, de forma alguma, equiparar PCA e agrupamento, apenas lembrei que tanto a PCA quanto a MD oferecem a possibilidade de se livrar de outliers no espaço multidimensional... mas a essência da minha atualização não muda: todas essas são soluções de problemas espaciais por álgebra vetorial para levar em conta o problema da multicolinearidade (para que não distorça/desvie as estimativas estatísticas).