Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3297

 
Andrey Dik #:

você não escreveu sobre otimização, então por que está bisbilhotando?
Eu não escrevi para você.
E o aprendizado é um caso especial de otimização, lembre-se disso, finalmente.
Sanych escreveu tudo corretamente. Tudo começou com minha mensagem. Você foi para o terreno errado.

Acabou escrevendo sobre nada.
 
Andrey Dik #:
Não posso deixar de compartilhar a impressionante notícia (tão precisa para mim) de que foi encontrado um algoritmo ainda mais forte do que o SSG.

Isso é, de fato, uma coisa boa.

 
O treinamento é, obviamente, um conceito mais amplo do que a otimização. E ele usa seus próprios critérios de avaliação.

O tópico é chamado: MOE.
 
Maxim Dmitrievsky #:
Você está confundindo as entidades. Você está tentando ajustar a otimização à aproximação, ou vice-versa.

A aproximação e a otimização são abordagens diferentes para resolver problemas de aprendizado de máquina.

Se entendi corretamente, a aproximação na negociação de algo é a criação do próprio TS. Quero o martin - criado, quero o scalper - criado, quero os padrões - criados, etc. Você pode fazer com que os métodos MO criem algo.

E otimização - ajuste/estudo do TS já criado.

Como, diferentemente de um ser humano, o MO também está envolvido na criação de TCs por meio do triturador de números, podemos combinar aproximação e otimização. Entendeu bem?

 
fxsaber #:

Se eu entendi corretamente, na negociação de algo, a aproximação é a criação do próprio TS. Eu quero martin - criado, eu quero scalper - criado, eu quero padrões - criados, etc. Você pode instruir os métodos MO a criar algo.

E a otimização é ajustar/estudar o TS já criado.

Como, diferentemente de um ser humano, o MO também está envolvido na criação de TCs por meio do triturador de números, podemos combinar aproximação e otimização. Isso está certo?

Exatamente
 
A aproximação por um polinômio de alto grau leva ao treinamento excessivo. A variação do erro diminui, mas a tendência dos novos dados aumenta. É o mesmo que adicionar muitos recursos. E apenas o básico.
Não é possível ajustar um modelo retreinado, ele não generaliza bem. Não é possível fazer inferência kozul porque não há comparações entre amostras de teste e de controle. O modelo está errado em toda parte na amostra de teste, é impossível derivar uma correção. É mais fácil jogar o modelo fora.
 
Maxim Dmitrievsky #:
Exatamente

É interessante notar que, em termos de quantidade de dados (citações), um cérebro humano (como uma rede neural) comparado a um MO é como um infusório comparado a um humano.

No entanto, os seres humanos primitivos provaram que podem criar TCs que funcionam muito bem. Acontece que não é necessária uma quantidade tão grande de dados para criar uma CT funcional.

É um mistério para mim como, por exemplo, o homem chegou ao ponto de criar modelos de scalper funcionais. Isso foi feito quase que inteiramente sem os calculadores de números.


O cenário para isso deve ter sido mais ou menos assim:

  1. Muitas vezes vejo algum tipo de achatamento (estupidamente na tela por alguns dias).
  2. Tentarei ganhar dinheiro com isso com um TS primitivo.
  3. Ele não drena muito. Devo refinar um pouco o TS. Dei uma olhada no histórico de negociações - parece que algo pode ser melhorado.
  4. Começou a se acumular um pouco. Repito o ponto 3.
Não estou analisando números. Apenas olhei para o ponto 1 e comecei a fazer isso. A probabilidade dessa abordagem parece zero, mas de alguma forma funciona. É um tipo de método de "cutucar" maluco que funciona.


Aparentemente, em algum ponto do subconsciente, o cérebro humano ainda é capaz de encontrar "padrões" em uma quantidade extremamente pequena de dados. Não se pode chamar isso de sorte. É um mistério.

 
fxsaber #:

É interessante notar que, em termos de quantidade de dados (citações), o cérebro humano (como uma rede neural) comparado ao MO é como um infusório comparado a um humano.

No entanto, os seres humanos primitivos provaram que podem criar TCs que funcionam muito bem. Acontece que não é necessária uma quantidade tão grande de dados para criar uma CT funcional.

É um mistério para mim como, por exemplo, o homem chegou ao ponto de criar modelos de scalper funcionais. Isso foi feito quase que totalmente sem os calculadores de números.


O cenário para isso era aparentemente mais ou menos assim:

  1. Frequentemente, vejo algum tipo de achatamento (estou estupidamente moendo a tela há alguns dias).
  2. Tentarei ganhar dinheiro com isso com um TS primitivo.
  3. Ele não drena muito. Devo refinar um pouco o TS. Dei uma olhada no histórico de negociações - parece que algo pode ser melhorado.
  4. Começou a se acumular um pouco. Repito o ponto 3.
Não usei nenhum calculador de números. Apenas olhei para o ponto 1 e comecei a fazer isso. A probabilidade dessa abordagem parece ser quase zero, mas de alguma forma funciona. Algum tipo de método de "cutucar" maluco que funciona.
Aprendizado único. Quando um grande NS pré-treinado (cérebro) é pré-treinado em dados esquerdos com apenas alguns exemplos. Se o modelo tiver aprendido inicialmente as leis do mundo, ele facilmente clica em uma nova tarefa com uma olhada rápida.

É assim que os modelos de linguagem grandes, em particular, são pré-treinados para novas tarefas. Mas se você forçá-lo a aprender esses novos exemplos por um longo período, ele começará a esquecer a experiência anterior e se tornará tendencioso em relação aos novos dados.
 
fxsaber #:

É interessante notar que, em termos de quantidade de dados (citações), o cérebro humano (como uma rede neural) comparado ao MO é como um infusório comparado a um humano.

150 bilhões de neurônios, e não 1 saída cada, mas muitos. A IA não chegará a esse nível em breve ou nunca.
A NS é comparada pelo nível de inteligência a uma barata - corre, morde - foge.

 
Maxim Dmitrievsky #:
Aprendizado em um único momento. Quando um grande NS pré-treinado (cérebro) é pré-treinado em dados esquerdos com apenas alguns exemplos. Se o modelo tiver aprendido inicialmente as leis do mundo, ele clicará facilmente em uma nova tarefa com uma olhada rápida.

aqui, você mesmo demonstrou que um cérebro pré-treinado com dados da esquerda resolve problemas específicos que ele não conhecia antes. e você diz que não é necessário "conhecimento" extra.