Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
A rede é uma ferramenta, uma espécie de função universal não linear que pode ser optimizada (ajustada) para diferentes dados (input-output). Esta função não pode extrair quaisquer regularidades.
Faz :)
NS é formado em dados de entrada-saída e se os padrões forem universais para a população em geral, então os NS trabalharão com sucesso fora da amostra.
E o isolamento de regularidades é uma camada adicional de trabalho para analisar pesos treinados e funções de transferência de NS, eu próprio nunca o fiz pessoalmente.
O cérebro humano é capaz de aprender padrões não lineares com muito sucesso. Veja-se, por exemplo, o cálculo da trajectória de um bumerangue lançado por tribos de bosquímanos algures em África. A natureza deu-nos tudo. Pode aprender propositadamente padrões não lineares no mercado. Pessoalmente, gostaria de escrever um programa de aprendizagem VBA do seguinte tipo: vou exibir uma série de pequenas citações, digamos, 100-150 barras num gráfico e terei de adivinhar a direcção geral do preço no futuro, digamos, para 50 barras. Pressionarei os botões para cima/para baixo e o programa registará a minha resposta e se adivinhei ou não. Depois disso, o gráfico deslocar-se-á aleatoriamente no eixo temporal, etc. Como resultado, ou vou aprender (a percentagem de direcções adivinhadas vai aumentar), ou não (como, desculpe, falhei). Este seria um bom exemplo da capacidade de treino do cérebro.
A rede é uma ferramenta, uma espécie de função universal não linear que pode ser optimizada (ajustada) para diferentes dados (input-output). Esta função não pode captar quaisquer regularidades. Também se pode argumentar que um polinómio ajustado a uma curva suave encontra os seus padrões ocultos. Saia da gama de dados a que a função foi ajustada e saiba o que receberá como exemplo de regressão polinomial. A propósito, o número de parâmetros a serem optimizados na rede é muito maior do que na árvore de decisão, pois a rede contém sub-conexões que não influenciam as decisões correctas e cujos pesos são reduzidos durante a optimização.
Uma coisa é a aproximação dos dados de mercado por uma rede, e outra bem diferente é fazer o reconhecimento de padrões.
O segundo parece ser mais correcto - afinal de contas é o cérebro do comerciante que reconhece as imagens.
Uma coisa é a aproximação dos dados de mercado por uma rede, e outra bem diferente é o reconhecimento das imagens.
O segundo parece ser mais correcto - afinal, é o cérebro do comerciante que reconhece as imagens.
Os engenheiros do Google alimentaram a rede de auto-aprendizagem (que tipo não sei) com imagens de vídeos do YouTube e a rede aprendeu a separar os gatos numa classe separada. É possível estimar a quantidade de informação que estava a rodar na RAM. Teoricamente, é possível enviar gráficos para a rede, mas deve ser uma rede enorme e complexa e um computador adequado. É mais fácil enviar um padrão de preços normalizado no intervalo de, digamos, [0;1]. E a estacionaridade é preservada e é fácil de implementar. Basicamente, o comerciante vê o padrão de preços, enquanto que há comerciantes que negoceiam utilizando um gráfico puro (sem indicadores). Mas, aparentemente, a rede tem de ser constantemente requalificada. Porque o nosso cérebro também está constantemente a actualizar as ligações e a melhorar a nossa compreensão do processo.
Quando um comerciante "vê" um padrão, ele ou ela não analisa uma série de preços puros. Nenhum cérebro humano tem tal quantidade de RAM (a propósito, é um RAM pensante - um máximo de algumas centenas de bytes). Por conseguinte, o pré-processamento do sinal é obrigatório.
Não tinha ouvido falar disso. OK. Bem, é claro que é difícil compreender que aspectos do CD são percebidos pelo cérebro. Esse é o problema de todas as tentativas de fazer algo semelhante com base na NS. Os sinais importantes de entrada de informação não estão definidos, pelo que temos de adivinhar.
Mas - pessoalmente compreendo as curvas e os picos acima de tudo :)
Não tinha ouvido falar disso. OK. Bem, é claro que é difícil compreender que aspectos do CD são percebidos pelo cérebro. Esse é o problema de todas as tentativas de fazer algo semelhante com base na NS. Os sinais importantes de entrada de informação não estão definidos, pelo que temos de adivinhar.
Mas - pessoalmente compreendo as curvas e os picos acima de tudo :)
Penso que é muito promissor limpar a informação sobre preços a partir do ruído com a ajuda da NS. Basicamente, um sinal útil é descrito por um pequeno número de parâmetros, digamos, se tirarmos um dia na M1, pode haver 10-20 (em vez de 1440), o que é bastante fácil para um cérebro humano compreender. A questão é como limpar correctamente o sinal sem perder informação importante. É aqui que uma rede pode ajudar, IMHO. Bem, e para processar (classificar, agrupar, regredir, etc.) a parte restante é possível por qualquer método adequado, e não o facto, a propósito, de que NS será a melhor escolha. Em qualquer caso, existem muitas ferramentas desenvolvidas para tais tarefas, e não a menor razão é que todas elas funcionam igualmente mal))))
Outra coisa sobre a informação que vai realmente para o cérebro. Um exemplo muito instrutivo é a compressão fractal de imagens. Mostra apenas que, de facto, visualmente para uma pessoa para percepção, há informação suficiente em milhares e mesmo dezenas de milhares de vezes menos do que o tamanho "bruto" da imagem.
Que proporção pode ser alcançada comprimindo um quociente usando o algoritmo fractal? 100? 500? mais?
Alexey, está a falar directamente do problema de Selecção de Característica, em linguagem simples: como seleccionar o 1% dos dados da matriz que é mais informativo para uma previsão como: introduzir longo, introduzir curto, esperar. Mas mesmo quando se aplicam técnicas sofisticadas a este problema, as armadilhas saem rapidamente. Primeiro, não é claro que molho utilizar para alimentar os pontos de dados seleccionados: os valores em bruto não são apropriados, é necessário pré-processar. Talvez funcionasse se se tomasse a diferença entre 457 e 891 barras, e entre 1401 e 1300. Há muitas variantes, e não tenho tempo suficiente para as reforçar a todas.
Há também o problema de interpretar a saída do algoritmo. Tentamos frequentemente construir a mesma rede para que a saída tenha um sinal claro do que fazer, ou pelo menos informação que seja relativamente compreensível (para o projectista) para ser convertida em tal sinal. Mas não é certo, que seja conveniente produzir informação sob tal forma, talvez fosse muito mais fácil dar-nos não cerca de um bit e meio (by-sell-stop), mas, por exemplo, 10 bits de informação?