Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 556
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Sobreajustamento - Ocorre na presença de grandes pesos (~10^18), uma consequência da multicolinearidade, que leva ao modelo instável A(x, w).
O sobretreinamento é tratado por: parada precoce da aprendizagem de modelos, limitação do crescimento de pesos (L1(Lasso) e regularização L2), limitação de laços na rede (Dropout), também possível aplicação de funções de penalização (ElacticNet, Lasso).
E a regularização L1 leva à selecção de características, uma vez que zera nos seus coeficientes de peso.
A remoção de características "ruidosas" é a selecção de características. Há métodos para isto. Isto nem sempre beneficia o modelo, por isso às vezes é utilizada a regularização L2 (ajuda a resolver o problema da multicolinearidade).
SanSanych Fomenko, a sua declaração sobre a relação de características e alvos é um pouco presunçosa. Porque como você pode afirmar algo que ainda não foi provado; é para isso que o modelo MO é construído. Um modelo que é construído e funcionando dá alguma estimativa do que é a relação com a precisão "mais ou menos".
E o exemplo com calças e saias, mostra a escassez de conhecimento do pesquisador sobre a área de estudo, pois em tal modelo você joga fora atributos valiosos sobre o local de residência, época do ano, latitude e longitude da região de residência, e assim por diante.
O meu exemplo é um caso degenerado, pensamento puro, classificação sem erros. Não existem tais características na economia, mas na genética, se não 100%, um pouco menos é possível.
Agora sobre a regularização.
Sem dúvida.
Mas a consistência é importante.
Primeiro, sempre, a seleção dos traços com base na "relação" com o alvo. Se em mercados bolsistas, com base em relações econômicas.
Isto é sempre primeiro e depois tudo o resto.
Tenho um TS a trabalhar com o rf. Eu seleciono 27 preditores entre várias centenas de atributos usando a "relação". Então seleciono de 27 com algoritmo padrão em cada barra (H1), 5 a 15 permanecem, são sempre diferentes. Eu limito o número de árvores, 100 é muito, 50 não é suficiente, o erro a 50 não estabiliza.
Esta é uma experiência concreta. O erro de classificação ZZ é ligeiramente inferior a 30%. Não há forma de reduzir - precisa de outros preditores, e não há ideias em preditores.
Como você tem tantos parâmetros ao mesmo tempo para a entrada, então é claro o que você quer dizer.
Nesse caso, a reciclagem é um pouco secundária aqui, o que provavelmente me chamou a atenção. É mais perto de "facilitar" os cálculos.
Uma vez que você tem tantos parâmetros ao mesmo tempo para entrada, é claro o que você quer dizer.
Nesse caso, o excesso de equipamento é algo secundário aqui, o que provavelmente me chamou a atenção. Está mais perto de "facilitar" os cálculos.
Porquê secundário?
O que é primário?
O que pode ser mais assustador do que o excesso de roupa?
Porquê secundário?
O que é primário?
O que pode ser mais assustador do que o excesso de formação (over-fitting)?
É por isso que eu digo que na questão levantada, o sobretreinamento é secundário.
Embora você tenha notado corretamente, eu deveria ter dito: "A seleção dos parâmetros é secundária à reciclagem, e vale a pena considerar a questão com mais detalhes a partir daí.
https://habrahabr.ru/post/345950/
acontece que simples NS além dos limites da amostra de treinamento funciona bastante mal (vai para uma constante tangente hiperb.)... no caso de regressão, ou seja, não muito melhor do que RF
artigo muito ilustrativo
https://habrahabr.ru/post/322438/
acontece que simples NS além dos limites da amostra de treinamento funciona bastante mal (vai para uma constante tangente hiperb.)... no caso de regressão, ou seja, não muito melhor do que RF
artigo muito ilustrativo
https://habrahabr.ru/post/322438/
Lê quando quiseres.
https://habrahabr.ru/post/345950/
IMHO é um artigo inútil, má tradução, ou eu sou um mau leitor, mas para mim parece um amontoado trivial de idéias ultrapassadas e, infelizmente, outra confirmação de profunda crise de aprendizagem como tecnologia de ponta, até mesmo o verdadeiro pai dessa tendência Jeffrey Hinton em seus artigos sobre redes neurais em cápsulas tem falado sobre isso ultimamente.
Respeito ao Uber Taxi, no entanto...))
IMHO artigo útil e informativo, sem pretensões de novidade, mas com um bom senso prático.
É por isso que é fácil ficar confuso, digamos que estávamos usando linear ou regressão e tudo estava bem, e então decidimos mudar para o MLP para as mesmas tarefas... e de jeito nenhum :)
É por isso que todos preferem usar a classificação, embora a regressão seja boa para prognosticar :)
Eu diria até que para tendências mais adequadas é linear ou regressão, e para flattens - MLP.
O exercício com a veste produziu um padrão incrível.
Aqui está o quociente do EURCAD
E aqui está a autocorrelação dos incrementos absolutos
Regularidade espantosa!
1. O que é que isso significa?
2. Como pode ser usada esta regularidade?
PS.
Nem todos os pares de moedas têm esta visão.
Aqui está USDJPY