Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3386

 


mytarmailS #:

Vou tentar de Khabarovsk...


Qualquer modelo é uma certa soma de padrões; de forma exagerada, um padrão pode ser rotulado como um TS.


Vamos imaginar que um modelo consiste em 100 TS.


Pode ser que, no modelo nº 1, 100 TCs tenham feito uma transação.

Pode ser que, no modelo nº 2, um TS tenha feito 100 negócios e os outros 99 não tenham feito nenhum negócio.


Como calcular as estatísticas para cada TS?

Se o modelo estiver de acordo com as regras, isso pode ser feito de forma fácil e clara.

Se o modelo forneural?

O problema não é o número de vezes que o modelo é usado.

O problema é que o mesmo modelo (árvore?) nos mesmos dados prevê um rótulo em alguns casos e um rótulo diferente em outros casos. Isso é o que se chama de erro de classificação. Não há preditores, pelo menos para nós, cujos valores possam ser categorizados estritamente em classes, e todos os problemas com folhas, árvores e outros são derivados dos valores dos preditores.

 
Maxim Dmitrievsky #:
Se o erro já tiver parado de cair ou for igual a zero, você poderá dividir os exemplos restantes em padrões por alguma medida de proximidade :) Clustering, por exemplo. E contar quantos restam. E mesmo que você escreva uma condição média para cada padrão/cluster (pegue os centroides dos clusters), você obterá uma regra na saída.
Isso pode ser feito, mas onde está a garantia de que o particionamento foi feito corretamente, de acordo com o particionamento interno dos neurônios?

Onde está a garantia de que a medida de proximidade escolhida para o agrupamento foi escolhida corretamente?

Etc...

Não seria mais simples particionar o modelo de madeira e não ter de criar um Franklinstein

 
mytarmailS #:
Isso pode ser feito, mas onde está a garantia de que o particionamento está correto, de acordo com o particionamento interno dos neurônios?
Onde está a garantia de que a medida de proximidade escolhida para o agrupamento foi escolhida corretamente?
Bem, essa é uma questão filosófica.
 
É aqui que a última camada de neurônios, e não os exemplos, deve ser agrupada, se não os exemplos
 
mytarmailS #:
Se você vai fazer um cluster, não são os exemplos, é a última camada de neurônios.
Não, são os exemplos. Não é possível criar regras nas últimas camadas de neurônios.
 
Maxim Dmitrievsky #:
Não, apenas exemplos. Não é possível criar regras a partir das últimas camadas de neurônios.
Deixe-me criar um exemplo de dados e cada um aplicará sua própria metodologia e veremos.
 
mytarmailS #:
Deixe-me criar um exemplo de dados e todos aplicarão sua metodologia e veremos
Não tentei essa abordagem, apenas estou pensando em voz alta sobre como obter regras de qualquer modelo. Podemos brincar com isso mais tarde.
 
Maxim Dmitrievsky #:
Eu não tentei essa abordagem, apenas pensei em voz alta sobre como obter regras de qualquer modelo. Você pode brincar com isso mais tarde.
Eu também não tentei, é minha teoria contra a sua
 

Parece que os artigos pararam de ser traduzidos ou eles não têm tempo. A seção em inglês já está cheia de artigos sobre python e onnx :)) E apareceu um artigo sobre R.

Em geral, os artigos são inúteis em termos de TC. Quase o mesmo que no Medium, eles escrevem para escrever.

 
mytarmailS #:

Agora, identifique todas as regras linearmente relacionadas e remova-as como regras redundantes

Como esse acoplamento linear é definido? Você pode explicar melhor?

Eu apenas removo as regras que são muito semelhantes, a semelhança é determinada pelos pontos de ativação.