Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3297
![MQL5 - Linguagem para estratégias de negociação inseridas no terminal do cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Não posso deixar de compartilhar a impressionante notícia (tão precisa para mim) de que foi encontrado um algoritmo ainda mais forte do que o SSG.
Isso é, de fato, uma coisa boa.
Você está confundindo as entidades. Você está tentando ajustar a otimização à aproximação, ou vice-versa.
A aproximação e a otimização são abordagens diferentes para resolver problemas de aprendizado de máquina.
Se entendi corretamente, a aproximação na negociação de algo é a criação do próprio TS. Quero o martin - criado, quero o scalper - criado, quero os padrões - criados, etc. Você pode fazer com que os métodos MO criem algo.
E otimização - ajuste/estudo do TS já criado.
Como, diferentemente de um ser humano, o MO também está envolvido na criação de TCs por meio do triturador de números, podemos combinar aproximação e otimização. Entendeu bem?
Se eu entendi corretamente, na negociação de algo, a aproximação é a criação do próprio TS. Eu quero martin - criado, eu quero scalper - criado, eu quero padrões - criados, etc. Você pode instruir os métodos MO a criar algo.
E a otimização é ajustar/estudar o TS já criado.
Como, diferentemente de um ser humano, o MO também está envolvido na criação de TCs por meio do triturador de números, podemos combinar aproximação e otimização. Isso está certo?
Exatamente
É interessante notar que, em termos de quantidade de dados (citações), um cérebro humano (como uma rede neural) comparado a um MO é como um infusório comparado a um humano.
No entanto, os seres humanos primitivos provaram que podem criar TCs que funcionam muito bem. Acontece que não é necessária uma quantidade tão grande de dados para criar uma CT funcional.
É um mistério para mim como, por exemplo, o homem chegou ao ponto de criar modelos de scalper funcionais. Isso foi feito quase que inteiramente sem os calculadores de números.
O cenário para isso deve ter sido mais ou menos assim:
Aparentemente, em algum ponto do subconsciente, o cérebro humano ainda é capaz de encontrar "padrões" em uma quantidade extremamente pequena de dados. Não se pode chamar isso de sorte. É um mistério.
É interessante notar que, em termos de quantidade de dados (citações), o cérebro humano (como uma rede neural) comparado ao MO é como um infusório comparado a um humano.
No entanto, os seres humanos primitivos provaram que podem criar TCs que funcionam muito bem. Acontece que não é necessária uma quantidade tão grande de dados para criar uma CT funcional.
É um mistério para mim como, por exemplo, o homem chegou ao ponto de criar modelos de scalper funcionais. Isso foi feito quase que totalmente sem os calculadores de números.
O cenário para isso era aparentemente mais ou menos assim:
É interessante notar que, em termos de quantidade de dados (citações), o cérebro humano (como uma rede neural) comparado ao MO é como um infusório comparado a um humano.
150 bilhões de neurônios, e não 1 saída cada, mas muitos. A IA não chegará a esse nível em breve ou nunca.
A NS é comparada pelo nível de inteligência a uma barata - corre, morde - foge.
Aprendizado em um único momento. Quando um grande NS pré-treinado (cérebro) é pré-treinado em dados esquerdos com apenas alguns exemplos. Se o modelo tiver aprendido inicialmente as leis do mundo, ele clicará facilmente em uma nova tarefa com uma olhada rápida.
aqui, você mesmo demonstrou que um cérebro pré-treinado com dados da esquerda resolve problemas específicos que ele não conhecia antes. e você diz que não é necessário "conhecimento" extra.