Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3298

 
fxsaber #:

Aparentemente, em algum nível subconsciente, o cérebro humano ainda é capaz de encontrar "padrões" em uma quantidade extremamente pequena de dados. Não se pode chamar isso de sorte. É um mistério.

De fato, um trader processa muito mais informações de diferentes maneiras ao mesmo tempo do que os modelos MO em relação à negociação. Além disso, o cérebro está armado com vários conhecimentos que não estão relacionados à negociação, mas que ajudam a resolver tarefas de negociação.

 
Andrey Dik #:

aqui, você mesmo demonstrou que um cérebro pré-treinado com dados falsos resolve problemas específicos que ele não conhecia antes. e você diz que não precisa de "conhecimento" extra.

Eu não disse isso, pare de mentir 😀 .
Sinais não são conhecimento.
 
Andrey Dik #:

Você continua confundindo o conceito de "extremo" com "pico agudo" (o ponto em que uma função não tem derivada).

Até mesmo uma superfície plana tem um extremo.

Outra coisa é que os FFs sempre tentam escolher de modo que a superfície do FF seja a mais suave possível e o extremo global seja o único. O único extremo global deve ser a única solução inequívoca do problema.

Se o extremo global do FF não for o único e, mais ainda, se ele não tiver uma derivada, isso significa uma escolha incorreta do FF (o critério para avaliação do modelo). A incompreensão desse fato leva ao termo "ajuste excessivo", e a incompreensão desse fato leva à busca de algum extremo local ambíguo.

Podemos fazer uma analogia: um especialista - um médico - é treinado, exames de qualificação (FF) são desenvolvidos para certificação, para um médico não pode haver o conceito de "supertreinado" ou "superajustado", se um médico não obtém a pontuação máxima - isso significa que ele está subtreinado. E, de acordo com o senhor, um bom médico deve ser sempre um não cientista com treinamento insuficiente.

Mais uma vez, o problema do "supertreinamento" é a escolha errada dos critérios de avaliação do modelo. Parece que esses especialistas descolados estão presentes no fórum, mas eles repetem os mesmos erros várias vezes. O desenvolvimento de critérios de estimativa corretos não é menos importante do que a seleção de preditores, caso contrário, é simplesmente impossível estimar adequadamente o modelo.

Prevejo uma enxurrada de objeções, mas tudo bem, estou acostumado com isso. Se for útil para alguém - ótimo, e para aqueles que não serão úteis - tanto faz, então eles acham que está tudo bem do jeito que está.

Modelos superajustados não têm NADA a ver com otimização.

O modelo ideal de superajuste de uma citação é a própria citação. Assim como em qualquer outro caso de construção de modelo: não há otimização, a estimativa de tal modelo é degenerada etc.

Você não entende o significado da palavra "modelo". Por exemplo, um modelo da Lei da Gravitação Universal de Newton. Um modelo ideal, aplicável em algumas condições ideais: vácuo, nenhum outro corpo no universo. No entanto, ele permite que você faça muitos cálculos com precisão suficiente para a prática.

E todo o problema de criar um modelo é encontrar um cujo erro com os dados reais seja adequado para nós. Deve-se entender que o erro que vemos não será necessariamente no futuro, mas estará em algum intervalo de confiança. Portanto, estamos procurando um modelo com um erro dentro do intervalo aceitável na prática. Não precisamos de extremos.

 
Forester #:

150 bilhões de neurônios, não apenas uma saída por neurônio, mas muitas. A IA não atingirá esse nível de inteligência por um longo tempo ou nunca.
NS é comparado pelo nível de inteligência a uma barata - corre, morde - foge.

Se multiplicada por vários bilhões de indivíduos da humanidade, a civilização atual mostra que, com uma quantidade muito pequena de dados, é possível apresentar hipóteses que podem prever com precisão muitos fenômenos observados e até mesmo recriar fenômenos não observados.

 
Maxim Dmitrievsky #:
Aprendizado em um único momento. Quando um grande NS pré-treinado (cérebro) é pré-treinado em dados esquerdos com apenas alguns exemplos. Se o modelo tiver aprendido inicialmente as leis do mundo, ele clicará facilmente em uma nova tarefa com uma olhada rápida.

É assim que os modelos de linguagem grandes, em particular, são pré-treinados para novas tarefas. Mas se você forçá-lo a aprender esses novos exemplos por um longo período, ele começará a esquecer a experiência anterior e se tornará tendencioso em relação aos novos dados.
Seria interessante traçar um gráfico: a qualidade do aprendizado One-shot em relação à idade do filhote.
 

Bem.... as árvores têm otimização. Ao selecionar a melhor divisão. Todas as colunas/atributos são verificados, diferentes divisões são feitas e aquela com valor mínimo de impureza de classe para classificação ou precisão máxima para regressão é usada.
No caso das florestas aleatórias, o processo termina aqui. Em seguida, simplesmente calculamos a média do resultado de um conjunto de árvores que recebem aleatoriamente, por exemplo, 50% dos recursos.
No bousting, cada árvore subsequente aprende o erro da soma das árvores anteriores e minimiza esse erro.

Mas tudo isso está oculto para o usuário sob o capô e não faz sentido falar sobre isso. Não é como a otimização que fazemos no testador, buscando valores de alguns parâmetros que alteram os sinais ou professores do modelo (por exemplo, selecionando TP/SL).

 
Maxim Dmitrievsky #:
Sinais não são conhecimento.

O que você acha que são sinais? Acalme-se.
E o que é conhecimento?

Você disse hoje que a otimização não tem nada a ver com MO, depois admitiu que tem.
Espere, agora estamos chegando ao ponto em que os sinais são conhecimento.
 
fxsaber #:
Seria interessante traçar um gráfico: a qualidade do aprendizado One-shot a partir da idade do filhote.

É muito provável que o cérebro NS seja extremamente influenciado pelo ambiente (e pelo digital), especialmente durante o período mais rápido de formação do NS - a primeira infância.

Seria interessante comparar esses NS da mesma idade em diferentes tarefas, um NS com um gadget de 2 a 3 anos de idade e o outro sem gadget.

Ou seja, para entender que tipo de desenvolvimento de NS afeta positiva/negativamente a solução de determinadas tarefas.


Talvez a invenção cuidadosa do TC tenha menos sucesso do que o pensamento superficial do clipe.

 
Andrey Dik #:

O que você acha que são sinais? Vamos ficar calmos.
E o que é conhecimento?

Você disse hoje que a otimização não tem nada a ver com MO, mas depois admitiu que tem.
Espere, agora estamos chegando ao ponto em que os sinais são conhecimento.
Onde foi que eu disse que a otimização não tem nada a ver com IO?

Por favor, venha sem mim.
 
Maxim Dmitrievsky #:
Onde foi que eu disse que a otimização não tem nada a ver com o MoD?

Por favor, venha sem mim.

Eu sabia disso.
Releia o que você disse.