Redes neuronais artificiais. - página 3

 
gpwr:

A rede é uma ferramenta, uma espécie de função universal não linear que pode ser optimizada (ajustada) para diferentes dados (input-output). Esta função não pode extrair quaisquer regularidades.

Faz :)

NS é formado em dados de entrada-saída e se os padrões forem universais para a população em geral, então os NS trabalharão com sucesso fora da amostra.

E o isolamento de regularidades é uma camada adicional de trabalho para analisar pesos treinados e funções de transferência de NS, eu próprio nunca o fiz pessoalmente.

O cérebro humano é capaz de aprender padrões não lineares com muito sucesso. Veja-se, por exemplo, o cálculo da trajectória de um bumerangue lançado por tribos de bosquímanos algures em África. A natureza deu-nos tudo. Pode aprender propositadamente padrões não lineares no mercado. Pessoalmente, gostaria de escrever um programa de aprendizagem VBA do seguinte tipo: vou exibir uma série de pequenas citações, digamos, 100-150 barras num gráfico e terei de adivinhar a direcção geral do preço no futuro, digamos, para 50 barras. Pressionarei os botões para cima/para baixo e o programa registará a minha resposta e se adivinhei ou não. Depois disso, o gráfico deslocar-se-á aleatoriamente no eixo temporal, etc. Como resultado, ou vou aprender (a percentagem de direcções adivinhadas vai aumentar), ou não (como, desculpe, falhei). Este seria um bom exemplo da capacidade de treino do cérebro.

 
gpwr:

A rede é uma ferramenta, uma espécie de função universal não linear que pode ser optimizada (ajustada) para diferentes dados (input-output). Esta função não pode captar quaisquer regularidades. Também se pode argumentar que um polinómio ajustado a uma curva suave encontra os seus padrões ocultos. Saia da gama de dados a que a função foi ajustada e saiba o que receberá como exemplo de regressão polinomial. A propósito, o número de parâmetros a serem optimizados na rede é muito maior do que na árvore de decisão, pois a rede contém sub-conexões que não influenciam as decisões correctas e cujos pesos são reduzidos durante a optimização.

Uma coisa é a aproximação dos dados de mercado por uma rede, e outra bem diferente é fazer o reconhecimento de padrões.

O segundo parece ser mais correcto - afinal de contas é o cérebro do comerciante que reconhece as imagens.

 
joo:

Uma coisa é a aproximação dos dados de mercado por uma rede, e outra bem diferente é o reconhecimento das imagens.

O segundo parece ser mais correcto - afinal, é o cérebro do comerciante que reconhece as imagens.

Engenheiros do Google alimentaram a rede de auto-aprendizagem (que tipo desconheço) com capturas de ecrã de vídeos do YouTube e a rede aprendeu a distinguir gatos como uma classe separada. É possível estimar quanta informação estava a circular na RAM. Teoricamente, é possível enviar gráficos para a rede, mas deve ser uma rede enorme e complexa e um computador adequado. É mais fácil enviar um padrão de preços normalizado no intervalo de, digamos, [0;1]. E a estacionaridade é preservada e é fácil de implementar. Basicamente, o comerciante vê o padrão de preços, enquanto que há comerciantes que negoceiam utilizando um gráfico puro (sem indicadores). Mas, aparentemente, a rede tem de ser constantemente requalificada. Porque o nosso cérebro também está constantemente a actualizar as ligações e a melhorar a nossa compreensão do processo.
 
alexeymosc:
Os engenheiros do Google alimentaram a rede de auto-aprendizagem (que tipo não sei) com imagens de vídeos do YouTube e a rede aprendeu a separar os gatos numa classe separada. É possível estimar a quantidade de informação que estava a rodar na RAM. Teoricamente, é possível enviar gráficos para a rede, mas deve ser uma rede enorme e complexa e um computador adequado. É mais fácil enviar um padrão de preços normalizado no intervalo de, digamos, [0;1]. E a estacionaridade é preservada e é fácil de implementar. Basicamente, o comerciante vê o padrão de preços, enquanto que há comerciantes que negoceiam utilizando um gráfico puro (sem indicadores). Mas, aparentemente, a rede tem de ser constantemente requalificada. Porque o nosso cérebro também está constantemente a actualizar as ligações e a melhorar a nossa compreensão do processo.
Quando um comerciante "vê" um padrão, ele ou ela não analisa uma série de preços puros. Nenhum cérebro humano tem tal quantidade de RAM (é, a propósito, um RAM pensante - um máximo de algumas centenas de bytes). Por conseguinte, o pré-processamento do sinal é obrigatório.
 
alsu:
Quando um comerciante "vê" um padrão, ele ou ela não analisa uma série de preços puros. Nenhum cérebro humano tem tal quantidade de RAM (a propósito, é um RAM pensante - um máximo de algumas centenas de bytes). Por conseguinte, o pré-processamento do sinal é obrigatório.

Não tinha ouvido falar disso. OK. Bem, é claro que é difícil compreender que aspectos do CD são percebidos pelo cérebro. Esse é o problema de todas as tentativas de fazer algo semelhante com base na NS. Os sinais importantes de entrada de informação não estão definidos, pelo que temos de adivinhar.

Mas - pessoalmente compreendo as curvas e os picos acima de tudo :)

 
alexeymosc:

Não tinha ouvido falar disso. OK. Bem, é claro que é difícil compreender que aspectos do CD são percebidos pelo cérebro. Esse é o problema de todas as tentativas de fazer algo semelhante com base na NS. Os sinais importantes de entrada de informação não estão definidos, pelo que temos de adivinhar.

Mas - pessoalmente compreendo as curvas e os picos acima de tudo :)

Parece-me muito prometedor - a limpeza de informação sobre preços a partir do ruído por meio de NS. Basicamente um sinal útil é descrito por um pequeno número de parâmetros, por exemplo, se tomarmos um dia no M1, podemos ver num relance 10-20 (em vez de 1440), o que é facilmente compreendido pelo cérebro humano. A questão é como limpar correctamente o sinal sem perder informação importante. É aqui que uma rede pode ajudar, IMHO. Bem, e para processar (classificar, agrupar, regredir, etc.) a parte restante é possível por qualquer método adequado, e não o facto, a propósito, de que NS será a melhor escolha. Em qualquer caso, existem muitas ferramentas desenvolvidas para tais tarefas, e não a menor razão é que todas elas funcionam igualmente mal))))
 
alsu:
Penso que é muito promissor limpar a informação sobre preços a partir do ruído com a ajuda da NS. Basicamente, um sinal útil é descrito por um pequeno número de parâmetros, digamos, se tirarmos um dia na M1, pode haver 10-20 (em vez de 1440), o que é bastante fácil para um cérebro humano compreender. A questão é como limpar correctamente o sinal sem perder informação importante. É aqui que uma rede pode ajudar, IMHO. Bem, e para processar (classificar, agrupar, regredir, etc.) a parte restante é possível por qualquer método adequado, e não o facto, a propósito, de que NS será a melhor escolha. Em qualquer caso, existem muitas ferramentas desenvolvidas para tais tarefas, e não a menor razão é que todas elas funcionam igualmente mal))))
Alexey, está a falar directamente do problema de Selecção de Característica, ou seja, em linguagem simples: como escolher o 1% dos dados do conjunto disponível que é mais informativo para uma previsão como: entrar longo, entrar curto, esperar. Mas mesmo quando se aplicam técnicas sofisticadas a este problema, as armadilhas saem rapidamente. Primeiro, não é claro que molho utilizar para alimentar os pontos de dados seleccionados: os valores em bruto não são apropriados, é necessário pré-processar. Talvez funcionasse se se tomasse a diferença entre 457 e 891 barras, e entre 1401 e 1300. Há muitas opções, e não há tempo suficiente para as forçar a todas.
 

Outra coisa sobre a informação que vai realmente para o cérebro. Um exemplo muito instrutivo é a compressão fractal de imagens. Mostra apenas que, de facto, visualmente para uma pessoa para percepção, há informação suficiente em milhares e mesmo dezenas de milhares de vezes menos do que o tamanho "bruto" da imagem.

Que proporção pode ser alcançada comprimindo um quociente usando o algoritmo fractal? 100? 500? mais?

 
alexeymosc:
Alexey, está a falar directamente do problema de Selecção de Característica, em linguagem simples: como seleccionar o 1% dos dados da matriz que é mais informativo para uma previsão como: introduzir longo, introduzir curto, esperar. Mas mesmo quando se aplicam técnicas sofisticadas a este problema, as armadilhas saem rapidamente. Primeiro, não é claro que molho utilizar para alimentar os pontos de dados seleccionados: os valores em bruto não são apropriados, é necessário pré-processar. Talvez funcionasse se se tomasse a diferença entre 457 e 891 barras, e entre 1401 e 1300. Há muitas variantes, e não tenho tempo suficiente para as reforçar a todas.
Há também o problema de interpretar a saída do algoritmo. Muito frequentemente tentamos construir a mesma rede para que a sua saída tenha um sinal claro do que fazer, ou pelo menos a informação relativamente compreensível (para um projectista) seja convertida em tal sinal. Mas não é o facto de ser conveniente para a rede dar informação sob tal forma, talvez fosse muito mais fácil dar-nos não cerca de um bit e meio (comprar-vender-paragem), mas, por exemplo, 10 bits de informação?
 
alsu:
Há também o problema de interpretar a saída do algoritmo. Tentamos frequentemente construir a mesma rede para que a saída tenha um sinal claro do que fazer, ou pelo menos informação que seja relativamente compreensível (para o projectista) para ser convertida em tal sinal. Mas não é certo, que seja conveniente produzir informação sob tal forma, talvez fosse muito mais fácil dar-nos não cerca de um bit e meio (by-sell-stop), mas, por exemplo, 10 bits de informação?
Bem visto, a propósito. Basicamente, estamos a tentar comprimir a informação de entrada a um nível tal que possamos claramente tomar decisões (comprar-vender-parar). Pode muito bem ser que a melhor solução seja ter uma taxa de compressão de 1 (ou seja, sem compressão ou perto dela). A imagem de entrada é compreensível para a grelha, a imagem de saída é compreensível para a pessoa.