Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3321

 
Maxim Dmitrievsky #:

você está levando em conta que esse é o mínimo/máximo do critério? Isso não tem nada a ver com o mínimo/máximo global do modelo em si.

Mostre-me o gráfico.

Por favor.

Mostre nesse gráfico de critérios onde você precisa interromper o treinamento.

 

Isso é muito longe,

Vou tentar fazer uma música.

É difícil dizer, já a esqueci e é longa, a música, se a aprendermos, é uma melodia longa:

 
Andrey Dik #:

Mostre-me o gráfico.

Por favor.

Mostre nesse gráfico os critérios em que você precisa interromper o treinamento.

No mínimo do critério em toda a amostra, o que fazer em seguida?

 
Quando você se apaixona por uma nova garota, começa a ouvir música feminina.
 

entende o que quero dizer?

Um verdadeiro especialista em IA precisa de cigarros vermelhos e colônia verde.

 
Maxim Dmitrievsky #:

no mínimo do critério da amostra bruta, o que vem a seguir?

Bingo!

Agora você finalmente percebeu que qualquer aprendizado nada mais é do que otimização com busca do extremo global. Ou talvez você ainda não tenha percebido isso, mas perceberá.

Não pode ser de outra forma, você sempre precisa de um critério inequívoco para interromper o aprendizado e esse critério é sempre projetado de forma que seja um extremo global. Normalmente, um critério integral é projetado (nem sempre). Você nomeou critérios integrais.

 
Andrey Dik #:

Bingo!

Agora você finalmente percebeu que qualquer aprendizado nada mais é do que otimização com busca de um extremo global. Ou talvez você ainda não tenha percebido, mas perceberá.

Não pode ser de outra forma, você sempre precisa de um critério inequívoco para interromper o aprendizado e esse critério é sempre projetado de forma que seja um extremo global. Em geral, o critério é integral (nem sempre). Você nomeou critérios integrais.

A postagem original era sobre a complexidade do modelo, não sobre extremos. Você está apenas puxando sua própria linha, esquecendo-se do que eu escrevi.

Ou seja, você está novamente se envolvendo em "pee-hacking", ou seja, esticando os dados para que se ajustem às suas palavras.

 
Andrey Dik #:

Mostre-me o gráfico.

Por favor.

Mostre nesse gráfico os critérios em que você precisa interromper o treinamento.


Aqui está um gráfico típico do erro de ajuste do modelo.

Ele se aproxima assintoticamente de algum valor de deslocamento do eixo.

A quantidade de viés é uma propriedade do par alvo-previsor. Ao otimizar os parâmetros que um determinado modelo tem, é possível obter algumas migalhas, mas é impossível pular a propriedade "preditores-alvo" por meio de qualquer otimização.

Se a tendência for 45% do erro, é impossível obter 10% a menos alterando os parâmetros do modelo. E nenhuma otimização ajudará.

E se você conseguir encontrar um par de "preditores-alvo" com 20% de erro, ele será de cerca de 20%, independentemente do que você fizer.

Além disso. Se na linha de base e depois na validação os erros divergirem mais de 5%, isso significa que você precisa trabalhar no par "preditores-alvo" de forma significativa. Se não for possível convergir, então o par "alvo-preditores" terá de ser descartado.

 
Maxim Dmitrievsky #:

A postagem original era sobre a complexidade do modelo, não sobre extremos. Você está apenas puxando sua própria linha, esquecendo-se do que eu escrevi.

Ou seja, você está fazendo pi-hacking novamente, ou esticando os dados para que se ajustem às suas palavras.

O que você quer dizer com "originalmente"? Discutimos a complexidade do modelo separadamente. Naquela ocasião, dissemos que o aumento da complexidade do modelo só é eficaz até certo ponto, depois há uma queda na eficácia, e isso é verdade, sim, não discuti isso e confirmo. Em seguida, apenas sugeri que talvez a eficiência possa aumentar drasticamente se você aumentar o modelo de forma muito significativa, porque ninguém aqui fez isso antes (e posso ver por quê).

Eu sempre disse, há muito tempo, que qualquer aprendizado é otimização com busca do extremo global, mas você negou isso (e alguns outros), dizendo que não é um "otimizador". Agora eu lhe mostrei claramente que o aprendizado só pode ser interrompido quando um extremo global é encontrado, caso contrário, simplesmente não há como fazê-lo de outra forma (você não sabe quando interromper o aprendizado, precisa de um critério para isso). É por isso que o metacritério de parada é a essência da otimização ao aprender com o extremo global.

Perceber isso torna possível olhar para o aprendizado de novos ângulos.

 
Há um erro em meu desenho, a linha de valor vermelha deveria estar acima da bandeja.