Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1615
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Não se trata de encolhimento, mas de estatísticas de comportamento preditor em uma amostra fora de uma divisão - isso deve reduzir a aleatoriedade da seleção de um valor preditor.
A propósito, a AlgLib faz a grelha em cada divisão ou uma vez e depois usa essa grelha? Pelo que entendi, desenvolvedores do estado de CatBoost, essa grade é feita apenas uma vez por eles.
Não há aleatoriedade. A melhor partição disponível de cada preditor é selecionada. Existe aleatoriedade na floresta, quando cada árvore é alimentada não todos os preditores, mas por exemplo, metade dos preditores selecionados aleatoriamente.
Aprende uma vez. Não há reciclagem. Para árvores/floresta, parece não haver qualquer reaprendizagem, provavelmente porque é bastante rápido reaprender.
E porquê a grelha? As árvores têm nós e folhas.
A propósito, o que eu não gosto nos impulsos é que a profundidade de árvore recomendada é de 7-10.
Isto é, se tivermos 100 preditores e a divisão lá também começa no meio de cada preditor. É muito provável que tenhamos 7 preditores diferentes divididos no meio. Talvez 1 ou 2 se dividam em um quarto, provavelmente menor.
Ou no reforço de algoritmos, o algoritmo não funciona por meia divisão, mas em pedaços menores? Alguém sabe?
E quem usa que profundidade de árvore?
47 minutos é uma pena... para ouvir as noções básicas, que são na sua maioria conhecidas. Apenas uma questão específica é de interesse. Se você sabe - me diga)
47 minutos é uma pena... para ouvir as noções básicas, que são na sua maioria conhecidas. Apenas uma questão específica é de interesse. Se sabes, diz-me.
são todos construídos de forma diferente, tem de se ler o manual de cada um.
tudo não importa se você tem chips informativos relevantes para o alvo, então qualquer método funciona
Eu estava a comparar a floresta com o aumento de características semelhantes. O reforço tem menos excesso de equipamento, em geral +-
são todos construídos de forma diferente, é preciso ler a ajuda para cada
não importa se existem características informativas relevantes para o alvo, então qualquer método funciona
Eu estava a comparar a floresta com o aumento de características semelhantes. O reforço tem menos sobreajustes, em geral +-
são todos construídos de forma diferente, é preciso ler a ajuda para cada
não importa se existem características informativas relevantes para o alvo, então qualquer método funciona
Eu estava a comparar a floresta com o aumento de características semelhantes. O reforço tem menos sobreajustes, em geral +-
Que profundidade você definiu para o impulso?
2 a 10, quanto maior for a profundidade, maior será o ajuste
de forma ideal 3-7
o degrau de inclinação também pode ser alterado. Em geral, não importa, os resultados são menos dispersão, menos offset, menos sinais, etc... e a imagem média é preservada. É uma questão de optimização, não tem nada a ver com qualidade.
Max, quero agradecer-te pelo vídeo sobre o neurónio natural, mas este vídeo não é assim tão bom. A questão é que eu tenho uma teoria de requalificação em que tenho pensado há muito tempo e a construí de forma bastante adequada para mim. Tenho a certeza que o pessoal do Yandex estaria interessado em ouvi-lo. Eh... Quem me dera poder encontrar forças para gravar um vídeo. Estou sempre bêbado ou engraçado. Eu não sei sobre isso :-(
))) as regularidades devem ser procuradas através de análise estatutária em vez de torturar os neurónios
Por exemplo, no meu penúltimo artigo dei as flutuações sazonais do EURUSD durante 10 anos, por meses. Este ano, está tudo a repetir-se. Abril-Maio será o mais interessante (a partir do curto prazo)))) as regularidades devem ser procuradas através de análise estatística, e não através de torturar neurónios