Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1704
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Um erro não é apenas um erro. Um pequeno erro pode ter um grande impacto.
E NS não está a ser pedido para capturar dados repetitivos. Está a ser-lhe pedido que identifique padrões ocultos para obter o resultado certo na ausência de dados repetitivos. Compreender a generalização. Quando temos um domínio finito de dados, mas só temos 50% desses dados. A rede aprende e identifica um padrão que pode construir o resto dos dados que não viu. É como reconstruir imagens de vídeo antigas com pixels em falta que a rede se reconstrói a si própria.
Bem, isso é uma abordagem estatística! Por exemplo, eu tenho 20 fotos de triângulos diferentes. No dia 21, falta ao triângulo a hipotenusa. Posso facilmente determinar que este é um triângulo não desenhado com base nas estatísticas recolhidas - cada foto tem um triângulo dentro dela. Ou seja, um erro no desenho do triângulo não é crítico para mim, porque eu já tenho estatísticas em geral. Este princípio não funciona com a NS?
Bem, grosso modo, a menos que se conte que nas 21 fotos você tem apenas um canto desenhado e não se fala de um triângulo lá...
Para compreender a essência e a base teórica das redes neurais, o conhecimento da teoria de Kolmogorov, Arnold e Hecht-Nielson é essencial.
Para a prática, este conhecimento não é particularmente necessário, mas uma compreensão geral do mesmo não faria mal.
Eu dei-lhe um link para ver as divisões a partir dos dados JOT. É aí que o modelo completo é carregado para um arquivo. Então as divisões são lidas a partir dele.
Certamente que árvores assimétricas já podem ser descarregadas?
Ao impulsionar, por definição, todas as árvores são importantes. Cada árvore sucessiva aperfeiçoa todas as anteriores. Se você jogar fora uma árvore no meio, então tudo o que se seguirá funcionará com dados errados - eles devem ser requalificados, sem levar em conta a árvore jogada fora. Neste caso, a primeira árvore replicará de muito perto a árvore descartada.
Não, isso não é exactamente verdade. Quando o modelo está pronto, há uma pilha de folhas de árvore sentadas nele, dando uma probabilidade próxima de 0,5 - o que é um lixo na essência.
Sim. As folhas individuais no descaroçamento estão incompletas, porque são aumentadas por respostas de folhas de outras árvores de refinação. E apenas as respostas cumulativas de, por exemplo, 100 árvores dão a resposta correcta.
Tentar obter algo confiável de uma única folha do modelo de reforço é impossível.
No boosting, todas as 100 respostas de 100 árvores são somadas, cada uma dando por exemplo 0,01 no total = 1. O valor de 1 folha = 0,01 - o que você quer ganhar com isso? Não há nada nele. Somente a soma de 100 folhas dará a resposta correta.
Na verdade, ali a 1ª árvore é forte e dá por exemplo 0,7, o resto aproxima a soma de 1. Se apenas as folhas da primeira árvore são consideradas separadamente, mas acho que são mais fracas do que qualquer árvore da floresta aleatória, devido à sua profundidade mais rasa.
A floresta aleatória tem uma média, por exemplo, cada folha de 100 árvores = 1, a média também = 1. Nela as raposas estão completas, mas com desvios aleatórios. Mas uma multidão de 100 respostas, dá a média como uma resposta razoavelmente precisa.
É possível obter informações úteis a partir de uma única árvore, mas isto é raro.
Mesmo a primeira árvore não será a melhor.
O reforço é rápido, mas você tem que selecionar cuidadosamente os modelos, e isso requer uma amostra grande, o que é um problema.
Para compreender a essência e a base teórica das redes neurais, o conhecimento da teoria de Kolmogorov, Arnold e Hecht-Nielson é essencial.
Para a prática, este conhecimento não é particularmente necessário, mas uma compreensão geral do mesmo não faria mal.
Spc.
A falta de uma teoria rigorosa relacionada com estes modelos de redes neurais não impede que se investiguem as possibilidades da sua aplicação a problemas práticos.
Certamente que árvores assimétricas já podem ser descarregadas?
Tentei um exemplo, adicionando grow_policy='Lossguide'.
Aqui está um pedaço de modelo contendo fendas:
Também há divisões com a profundidade. Mas isso é em Python, ainda não vi uma maneira de descarregar o modelo em R. Mas acho que é possível salvar modelo em R em formato interno, abri-lo em Python e descarrega-lo para o JSON. E a partir daí tudo o que você precisa para usar
Colegas. O tema é interessante, mas não entendo a diferença entre a aprendizagem da máquina e a otimização de parâmetros simples em um testador? Porque o propósito será aproximadamente o mesmo - tomar a decisão de entrar (sair) no mercado quando os parâmetros de entrada (saída) coincidirem. Os dois métodos param de funcionar quando o mercado muda fortemente. Eles precisam de ser re-treinados e optimizados. Em resumo e sem filosofia.
A diferença está na flexibilidade da ferramenta. A rede neural pode adaptar-se a qualquer série. Olha para o polinómio abaixo. A largura dos coeficientes, bem como o seu número, pode ser absolutamente diferente.
Agora imagine o número de variantes, nenhum Expert Advisor multi-parâmetros pode se orgulhar de tal flexibilidade. Também se diz que eles são capazes de generalização, mas isso não é certo :-)