Usando inteligência artificial na MTS - página 8

 

2 SergNF.

Estou tão longe do tema quanto o Pólo Sul. Só fiquei viciado no posto de eugenk, mas ninguém o apoiou. E quando eu decidi observar o especialista, tão longo e tenso para descobrir onde está a IA e como ensiná-la. :-))

Mas então, quando até mesmo perguntas elementares estavam ficando fora de controle, eu não pude resistir e me atrapalhei. :-)

A tecnologia aqui, infelizmente, tem sido discutida muito pouco. Principalmente apenas o especialista. Mas a tecnologia é certamente interessante. Eu tenho que pensar. Portanto, o tema foi muito útil para mim.

Estas contas são uma coisa fina, não podem ser aplicadas ao forex. :-)))

 
Eu não posso mais assistir. É tudo um absurdo. SergNF, onde posso conseguir pérolas?
 
SergNF:

Você pega seu indicador preferido (se externo, através do iCustom) e envia seu valor para um arquivo por alguma quantia (quanto você quer prever no futuro) VOLTAR e, há opções, Fechar/Alto/Baixo "na primeira barra" ou Máximo/Baixo para este intervalo. Você pode analisar e pensar em como aplicá-lo lendo artigos paralelos de http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm
Muito obrigado, SergNF, pelos links. Eu mesmo me dediquei à NS há mais de um ano (em TradingSolutions e bastante diretamente): Usando a rede Jordan-Elman, tentei prever o alto-baixo para um dia à frente, anexando diferentes MAs à entrada. Primitivo, é claro, mas aqui também tirei uma série de conclusões úteis para mim mesmo, tendo construído dezenas de AMs muito diferentes e curiosos ao longo do caminho...

Não pensei então em nenhuma classificação de redes neurais e mapas Kohonen - e fiz uma conclusão prematura, que os NS eram de pouca utilidade, e então comecei a experimentar com GA. Penso que meu caminho é típico da maioria dos comerciantes que buscam o Graal em NS - sem estudá-los seriamente. Parece que agora, em termos de Elliott, podemos dizer que passei com sucesso as fases da 1ª onda (tentativa de ataque unilateral sem treinamento sério) e da 2ª onda (resfriamento profundo) ao lidar com a NS. É hora da Terceira Onda, hehe...
 
sashken:
Pyh escreveu:

P.S. Eu concordo com a opinião de Yurixx. A rudeza não deve ser tolerada, embora o especialista deva ser reconhecido como muito curioso.
Você não me convenceu. Eu entendo muito bem que o teste é por preços de abertura de barras, MAS ! Ela abre uma barra e temos que encontrar (para esta EA) o valor CA em quatro pontos, incluindo o valor CA da barra que acaba de abrir. Onde conseguimos ar condicionado se ele é formado somente no fechamento do bar?

Você mesmo escreve que o bar abriu, portanto, há um preço de abertura do bar. Ele (o preço aberto da barra) não mudará durante a formação da barra (pode mudar alto, baixo e fechado, mas aberto - não, porque a barra já está aberta).

Espero que seja claro:)
Não é claro para eles. Muitos não percebem que quando Volume[0] == 1 (ou seja, o primeiro tick de uma nova barra), então Сlose[0] == Aberto[0] == Alto[0] = Baixo[0], ou seja, o último preço de fechamento da barra já foi formado e irá variar por tick até o fechamento da barra. E a partir deste analfabetismo muito elementar e reivindicações sobre a qualidade supostamente "adequada" dos testes.

Só precisamos escrever na testa de todas as laminas insatisfeitas com tinta indelével (ou melhor ainda, queimá-la com ferro endurecido): "Slose[0] é o Lance do último tique que chegou ao terminal, não a capacidade telepática do testador de estratégia".
 
eugenk1:
Rapazes, achei muito interessante o que a Reshetov fez. É claro que não estamos falando de nenhum tipo de inteligência artificial. AI é necessariamente adaptação e treinamento, pelo menos de uma rede neural, pelo menos de um filtro linear. Mas acho que deveríamos falar mais sobre o comportamento do grupo de indicadores. A cada um deles é atribuído um peso que reflete sua importância e utilidade. E há uma "votação" ponderada - soma. A única coisa que eu tomaria para 4 indicadores 14 parâmetros ao invés de 4, para levar em conta todas as combinações possíveis de parâmetros. Acho que é possível construir um verdadeiro sistema adaptativo desta forma. Tomamos índices normalizados (sobre os quais escrevi acima) e estimamos a qualidade de cada um deles por comércio virtual. Um comerciante mentiroso é punido com a diminuição do peso (até negativo, o que significa "interpretar meu sinal exatamente na direção oposta"), enquanto um comerciante que funciona bem é recompensado com o aumento do peso. A propósito, este sistema realmente merece o título de inteligente... Se você pegar 10 símbolos ao invés de 4, o número de todas as combinações possíveis será 1023. Que mente humana é capaz de analisar uma montanha assim! E o sistema pode...
Esta abordagem é chamada adaptativa, embora o clássico algoritmo de aprendizagem seja bastante diferente, ou seja, quando:
  • neuronka mente, então é "teimoso": w[i] i= a[i] para todas as entradas denotadas por i;
  • o neurônio deu uma resposta correta, então ele recebe uma "cenoura": w[i] += a[i] para todas as entradas denotadas por i;
Em seguida, é verificado se está sujo e, se deitar novamente, é "chicoteado" novamente no rabo nu até parar de mentir.
Existe até mesmo um teorema, não me lembro de cujo nome, que prova que este algoritmo tem convergência, ou seja, mais cedo ou mais tarde ele encontrará uma equação aceitável do plano de separação, mas somente nesse caso se os objetos identificados forem separáveis linearmente no espaço de características destes objetos.

Mas a identificação por compra e venda não é linearmente separável, portanto a rede neural ainda comete erros, mesmo que você a execute através do pulso com algoritmos clássicos de treinamento.
 
E ainda - se o próprio programa decide quando abrir/fechar, então, por definição, ele tem inteligência artificial.
E o processo de otimização do Expert Advisor é o treinamento deste sistema.
 
Itso:
E ainda - se o próprio programa decidir quando abrir/fechar, então, por definição, ele tem inteligência artificial.
E o processo de otimização do Expert Advisor é o treinamento deste sistema.
Mesmo que o comerciante decida quando abrir e onde abrir, e quando fechar, isso não significa que tenha inteligência. O idiota pode ser treinado para apertar os botões. Mas a decisão deste idiota de apertar botões não será inteligente do ponto de vista comercial, mas subjetiva (por exemplo, a cor dos botões será subjetivamente mais atraente para tomar uma decisão, não o valor patrimonial).
 
Mathemat писал (а):
Eu mesmo me dediquei à NS há mais de um ano (em TradingSolutions e de forma bastante direta): tentei prever o alto-baixo um dia à frente com diferentes MAs na entrada, usando a rede Jordan-Elman.

Exatamente, eu estava apenas brincando com os neurônios. Se você estivesse lidando seriamente com isso, você teria conhecido um fato matematicamente bem fundamentado: "As redes neurais são adequadas para identificação, mas são absolutamente inadequadas para extrapolação", e conseqüentemente não podem prever nenhum valor para qualquer período adiante - os resultados serão mais ou menos quilômetros. Mas é possível em muitos casos identificar qual objeto pertence a qual classe com um certo grau de confiabilidade.

Por exemplo, podemos tentar descobrir a pose mais lucrativa (comprar ou vender) pelos valores dos índices e osciladores. E pode funcionar, porque a tarefa tem identificação. Mas se você tentar usar a neurônica para calcular onde o lucro deve ser daquelas mesmas poses, você pode ter sucesso nos testes, mas fora da amostra é improvável, porque o valor do lucro é extrapolação - o preço deve pelo menos tocá-lo (para determinar os alvos é provavelmente melhor usar fuzzles).

Dito de forma simples, você estava tentando espetar pregos nas paredes de concreto com uma TV.

Conclusões mais detalhadas e cálculos matemáticos que foram feitos com base nos resultados obtidos após a conclusão do projeto Perceptron podem ser lidos no livro:

Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

tradução disponível:

Minsky M., Papert S. The Perseptron: Traduzido do inglês: Mir, 1971. - с. 261

Meu conselho, crianças, antes de brincar, e antes de tornar públicas conclusões muito importantes baseadas nos resultados das brincadeiras, tentem primeiro estudar os materiais sobre o assunto. Em primeiro lugar, não fará nenhum mal e, em segundo lugar, permitirá que você não pise no ancinho, o que todos sabem há muito tempo.
 
Reshetov писал (а):
Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

tradução disponível:

Minsky M., Papert S. The Perseptron: Traduzido do inglês: Mir, 1971. - с. 261

Meu conselho, crianças, antes de brincar, e antes de tornar públicas conclusões muito importantes baseadas nos resultados das brincadeiras, tentem primeiro estudar os materiais sobre o assunto. Em primeiro lugar, não fará nenhum mal e, em segundo lugar, permitirá que você não pise no ancinho, o que todos sabem há muito tempo.
Obrigado por indicar a fonte. E o que diz respeito ao material de origem, eu me familiarizei - na verdade, eu o fiz através de publicações sobre neuro-previsões. Tais publicações ainda estão em andamento e até reclamam a adequação do neuro - apesar de seu veredicto categórico sobre a inutilidade do neuro para tarefas de interpolação(Reshetov, exatamente inter, não extrapolação; você deve saber com certeza, se você fala tão inteligentemente sobre a separabilidade linear... A propósito, se não me engano, o teorema de Minsky sobre a insolvabilidade do problema da não-separabilidade linear (XOR, digamos) por perceptron realmente esfriou o interesse pelo neuro - mas apenas até que pensaram em redes multicamadas).
 
Mathemat:
Reshetov:
Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

tradução disponível:

Minsky M., Papert S. Perseptrons: Per. - с.

Meu conselho para vocês, pequenos companheiros, antes de brincar, e depois tirar conclusões públicas significativas de tais brincadeiras, é que primeiro se familiarizem com a literatura disponível sobre o assunto. Em primeiro lugar, não vai doer e, em segundo lugar, permitirá não pisar em um ancinho, sobre o qual todos já sabem há muito tempo.
Obrigado por indicar a fonte. Bem, quanto à matriz, estou realmente familiarizado com ela - através de publicações sobre o tema da neuroprevisão. Tais publicações ainda estão em andamento e até reclamam a adequação do neuro - apesar de seu veredicto categórico sobre a inadequação do neuro para problemas de interpolação(Reshetov, exatamente inter, não extrapolação; você deve saber com certeza, se você raciocinar tão sabiamente sobre a separabilidade linear... A propósito, se não me engano, o teorema de Minsky sobre a insolvabilidade do problema da não-separabilidade linear (XOR, digamos) por perceptron realmente esfriou o interesse pelo neuro - mas apenas até que inventaram as redes multicamadas)
Os artigos são artigos, mas o sentido geométrico não vai a lugar algum. E é que um filtro linear permite a separação das moscas dos cutlets, se as coordenadas (valores de características) desses mesmos objetos forem conhecidas com um plano linear sob condição de separabilidade linear. Mas não há solução para o problema inverso, ou seja, nomear um objeto para um neurônio para descobrir suas coordenadas. Tudo o que podemos descobrir sobre o objeto é de que lado do plano de separação ele está localizado. Portanto, a interpolação e a extrapolação estão fora de questão.