Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2623

 
JeeyCi #:

e a resposta não era destinada a si - ainda não sabe ler...

Se recomenda um artigo que contém disparates, devora-o (que mostra a sua competência), recomenda a outros que o devorem também...

Pergunta: se essa resposta não me foi dirigida, já não é ilusória? A questão não é retórica.
 
JeeyCi #:

Não precisa sequer de um segundo modelo aqui, pois não? - Validação Cruzada e Pesquisa Grid para Selecção de Modelos ...

mas talvez apenas a matriz de confusão responda à sua 2ª pergunta (o objectivo do 2º modelo da sua ideia)...

.. . ou

... Só duvido que precise do 2º modelo ... imho

É exactamente essa a melhoria da matriz de confusão que se reivindica quando se utiliza o segundo modelo, se ler, por exemplo, Prado. Mas também utiliza uma sobreamostragem de exemplos para o primeiro modelo para aumentar o número de "verdadeiros positivos" ou algo mais. Já me esqueci, infelizmente.
Usando um modelo, pode-se melhorar uma coisa à custa de outra, e com 2 modelos pode-se melhorar tudo, supostamente. Procure uma Matriz de Confusão Prado ou Meta Leibeling Prado. Estou no meu telefone.
E a avaliação cruzada mostrará "bom" após tais manipulações, pode simplesmente olhar para os novos dados para o balanço patrimonial do TC e ver tudo de uma só vez )
 
Maxim Dmitrievsky #:
Aqui é apenas reivindicada a melhoria da matriz de confusão com o segundo modelo, se ler o Prado, por exemplo. Mas também utiliza exemplos de sobreamostragem do primeiro modelo para aumentar o número de "verdadeiros positivos" ou outra coisa qualquer. Já me esqueci, infelizmente.
Usando um modelo, é possível melhorar uma coisa à custa de outra, e com 2 modelos, é possível melhorar tudo, alegadamente. Procurar Matriz de Confusão Prado ou Meta Leibeling Prado. Estou no meu telefone.

Amostragem para cima e para baixo são para conjuntos de dados desequilibrados e pequenos conjuntos de formação - se é isso que quer dizer - ou seja, dar pesos mais elevados a classes mais pequenas e vice-versa... Sim, provavelmente para os aumentar (verdadeiros positivos)...

***

e cerca de 2 modelos - bem, é provavelmente possível filtrar 2 vezes - primeiro sinais para fixar os pesos, e depois negocia-los de acordo com esses pesos (lançados por entradas na 2ª pesagem)... embora pareça ser possível aprender sobre negócios com contexto - e manter o gradiente para séries temporais anteriores - boa ideia... MAS a implementação quando se trabalha com contexto ainda é geralmente um pouco diferente - a tarefa é usar a codificação "transacção e o seu contexto" e o 2º RNN toma em processamento o resultado do 1º para descodificar na saída -- mas tem pouco a ver com o trabalho de 2 redes em 2 tarefas diferentes (por exemplo, contexto e transacções), uma vez que, de facto, é processado - passado através de 2 redes "transacção e contexto" (como um par!!!!)... - apenas resolve a questão da velocidade , mas não (ou em menor medida) a validade da produção... imho...

mas se quer realmente separar o processamento de contexto e transacção (contexto separadamente, transacções separadamente) -- até agora tal construção lembra-me uma sanduíche (ou óleo e manteiga, lubrificando inter-relações e dependências de fenómenos um do outro - em 2 camadas)... Não pretendo interpretar a vossa TechSuite, mas expressei as minhas preocupações e sugestões de que ainda pode valer a pena preservar no processo de modelização - nomeadamente as Relações! Desejo-vos uma bela (reflexo da realidade! não de óleo amanteigado) Arquitectura de Rede!

p.s. ) como um eterno problema de "publicidade contextual" - "o principal é não se afastar da realidade" (apenas a sua configuração de escala é por vezes torta - não vou apontar dedos para quem - ou com pequenas amostras trabalhadas na direcção errada)

 
JeeyCi #:

Amostragem para cima e para baixo são para conjuntos de dados desequilibrados e pequenos conjuntos de treino - se é isso que quer dizer - ou seja, dar mais peso a classes mais pequenas... Sim, provavelmente para os aumentar (verdadeiros positivos)...

***

e cerca de 2 modelos - bem, é provavelmente possível filtrar 2 vezes - primeiro sinais para fixar os pesos, depois trocas sobre eles de acordo com esses pesos (lançadas por entrada na 2ª pesagem)... embora pareça possibilidade de aprender trocas com contexto - e manter o gradiente para séries temporais anteriores - boa ideia... MAS a implementação quando se trabalha com contexto ainda é geralmente um pouco diferente - a tarefa é usar a codificação "transacção e o seu contexto" e o 2º RNN toma em processamento o resultado do 1º para descodificar na saída -- mas tem pouco a ver com o trabalho de 2 redes em 2 tarefas diferentes (por exemplo, contexto e transacções), uma vez que, de facto, é processado - passado através de 2 redes "transacção e contexto" (como um par!!!!)... - apenas resolve a questão da velocidade , mas não (ou em menor medida) a validade da produção... imho...

mas se quer realmente separar o processamento de contexto e transacção (contexto separadamente, transacções separadamente) -- até agora tal construção lembra-me uma sanduíche (ou óleo e manteiga, lubrificando inter-relações e dependências de fenómenos um do outro - em 2 camadas)... Não pretendo interpretar a vossa TechSuite, mas expressei as minhas preocupações e sugestões de que ainda pode valer a pena preservar no processo de modelização - nomeadamente as Relações! Desejo-vos uma bela (reflexo da realidade! não de óleo amanteigado) Arquitectura de Rede!

p.s. ) como um eterno problema de "publicidade contextual" - "o principal é não fugir da realidade" (apenas a sua configuração de escala é por vezes torta - não apontarei dedos a quem - ou com pequenas amostras trabalhadas na direcção errada)

O conceito de contexto talvez não seja muito útil no caso de séries cronológicas. Não há aí uma divisão clara, ambos os modelos estão envolvidos na predição. Uma é a direcção, a outra é o timing. Eu diria que são equivalentes. A questão é como podemos optimizar a procura das melhores situações comerciais com base na análise dos erros do modelo, e se isso é possível. Posso reciclar um ou o outro sequencialmente. Após cada par de requalificação, o resultado deve melhorar os novos dados. Significa que deve ser capaz de extrair um padrão a partir de uma amostra de treino e melhorar gradualmente em novos dados que não tenha visto. Uma tarefa não trivial.

Fiz com que se deitassem fora exemplos mal previstos pelo primeiro modelo para a classe "não negociar" do segundo modelo. Atiraram para fora a amostra do primeiro modelo. O erro do primeiro caiu para quase zero em conformidade. O segundo também tem um pequeno. Mas isso não significa que será bom sobre os novos dados.

É uma espécie de problema combinatório: encontrar a compra e venda certa no momento certo.

Talvez seja impossível encontrar a solução aqui
 
Maxim Dmitrievsky #:
O conceito de regularidade implica repetibilidade, isso é importante!

Se um aglomerado puder prever algo com 90% de probabilidade e for repetido pelo menos 200 vezes, podemos assumir que se trata de um padrão.
Ou não é um aglomerado, é um tronco.

Quando se trata de um modelo complexo (complexo da palavra "complexo") perde-se a capacidade de fixar a repetibilidade dos padrões internos, ou seja, perde-se a capacidade de distinguir padrões de encaixe...

Compreendendo isto, pode compreender imediatamente que as redes neurais vão para o lixo, mas os modelos de madeira podem ser decompostos em regras, e as regras já podem contar estatísticas
 
mytarmailS #:
O conceito de regularidade implica repetibilidade, isso é importante!

Se um aglomerado puder prever algo com 90% de probabilidade e for repetido pelo menos 200 vezes, podemos assumir que se trata de um padrão.
Ou não é um aglomerado, é um tronco.

Quando se lida com um modelo complexo (complexo da palavra "complexo") perde-se a capacidade de detectar a repetibilidade de padrões internos, por outras palavras, perde-se a capacidade de distinguir padrões de encaixe...

Compreendendo isto, pode compreender imediatamente que as redes neurais vão para o lixo, mas os modelos de madeira podem ser decompostos em regras, e as regras já podem contar estatísticas
Mas muitas características podem ser amontoadas em ns se não houver dependências simples, embora sem a possibilidade de análise. Caso contrário, deitaremos fora toda a aprendizagem mecânica e voltaremos às formas simples de escrever TS :) Depois podemos simplesmente escrever algoritmos simples, observar como eles (não) funcionam no testador, ajustar, observar novamente, etc.
 

as estatísticas são lineares, qualquer que seja a sua forma de ver. as redes neurais são burras (ou inteligentes - depende do desenvolvedor) ponderação... usar 2 ou mais camadas de Dense ns para ponderação dá dependências não lineares (convencionalmente falando, porque a dependência é OU a correlação burra ainda é uma questão muito grande)... mas desde que até uma correlação idiota funcione - pode tentar ganhar dinheiro com isso... - o momento em que deixa de funcionar deve ser detectado a tempo (é necessário notar algum tipo de anomalia - aleatória ou sistemática - essa é outra questão - e depois, como de costume, decidir sobre a sua questão de risco/rentabilidade)

a conveniência ns está na sua flexibilidade - pode obter/fornecer uma "nomenclatura" bastante diferente da produção. É flexível - pode obter/fornecer uma "nomenclatura" bastante diferente da entrada - ou seja, pode fazer as transformações de que precisamos na própria rede... e fá-lo em modo multi-tarefa (depende da biblioteca)... e não apenas estatísticas...

Se precisa ou não de estatísticas para encontrar um input é outra questão...

conhecimento e experiência ajudam mais frequentemente do que o processamento estatístico - porque o primeiro centra-se em especificidades, o segundo na redução a um denominador comum ...

Tudo tem o seu lugar - também as estatísticas...

***

a questão é que para um robô - não há outra forma de explicar (e não lhe explicará de outra forma) excepto através de probabilidades derivadas dos números... - É COMO A ECONOMIA TRABALHOU PARA O MUNDO - com os números 0 e 1... por isso temos de digitalizar as entradas para obter probabilidades de saída e estabelecer intervalos de confiança (em que confiamos, não necessariamente estatísticas)... e podemos confiar em tudo (é subjectivo) - ou na lógica binária ou também no resultado ponderado desta lógica binária (aka % probabilidades de toda a gama de soluções potenciais)... -- é apenas uma questão de gosto e hábitos, não um assunto para uma discussão sobre a busca do Graal...

(e entrar numa floresta ou entrar numa rede neural já é um pormenor)

ninguém proibiu a utilização conjunta de árvores/floresta e redes neuronais dentro do mesmo projecto. - a questão é Onde aplicar o quê e quando (velocidade e memória são importantes), não qual é melhor... - é melhor não perder tempo - o equivalente a "tempo fora de uma transacção é tempo perdido, tal como uma transacção fora de tempo é uma transacção desconhecida".

 
Uma reclamação tão longa e uma conclusão tão fraca :) Mesmo se abstrairmos do tempo, um modelo (regularizado, não adaptado) não pode ensinar uma boa relação de trocas lucrativas e não lucrativas, ou a exclusão das não lucrativas. Não se pode livrar do erro de classificação, que é percebido como uma deterioração artificial dos resultados de comércio de TS, mesmo numa amostra móvel.
 

Nenhum modelo pode obter mais do que probabilidades (o que é uma vantagem e uma desvantagem de qualquer digitalização), mesmo que essas probabilidades não sejam ponderadas... Não me enveneno com sanduíches e não aconselho ninguém - ninguém cancelou Bayes (mesmo que não o coloque no código, e especialmente - se o colocar no código)...

p.s. E você deve ser um fã do McDonalds. - hipótese, não a vou verificar...

Algoritmos é mais caro do que as suas conclusões

 
JeeyCi #:

Nenhum modelo pode obter mais do que probabilidades (o que é uma vantagem e uma desvantagem de qualquer digitalização), mesmo que estas probabilidades não sejam ponderadas... Não me enveneno com sanduíches e não aconselho ninguém - ninguém cancelou Bayes (mesmo que não o coloque no código, e especialmente - se o colocar no código)...

p.s. E você deve ser um fã do McDonalds. - Hipótese, não a vai testar...

O algoritmo é mais caro do que as suas conclusões.

Os sanduíches são amplamente utilizados, qualquer rede profunda. Existem diferentes truques para diferentes tarefas. Mas se pensarmos por pouco, qualquer fotocopiadora é uma fotocopiadora e qualquer hambúrguer um McDonald's
Pode tornar-se refém dos seus próprios estereótipos sem nunca tentar nada. E os estereótipos não provêm da estratificação 😀
Na minha resposta, implicitamente, utilizei um segundo modelo esclarecedor que se destacava do conhecimento generalizado específico, mais adequado à situação