Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 428

 
Maxim Dmitrievsky:

Estou a ver, acho que ninguém aqui comparou na prática :) Vou procurar informação, para não me deixar enganar se se verificar que o diplantismo não dá vantagem sobre o andaime. E como a parte componente existe um MLP, pode muito bem ser que não...

Apropósito, qualquer coisa com mais de 2 camadas é chamada diplerning, MLP com 2 camadas ocultas também é diplerning. Eu estava me referindo às redes profundas, que Vladimir descreveu no artigo no link acima.

TOTALMENTE ERRADO. Onde você consegue essa informação?

Embora digam que os preditores são mais importantes porque os modelos funcionam da mesma forma... mas isso é teoria, na prática acontece que a selecção de modelos também é muito importante, por exemplo, o compromisso entre velocidade e qualidade, porque os NS tendem a ser longos...

DNN É muito rápido, testado.

Quero uma ligação directa ao servidor P a partir doMT5 ou uma ligação directa ao servidor P a partir do MT5, mas a ligação directa é melhor. Você precisa de 1 tempo para reescrever com a rede neural C++ que você precisa em mql, e isso é tudo.

Como você verifica? Para mim funciona.

Ah, esqueci-me de adicionar IMHO

IMHO baseado na prática

Boa sorte.

 
Vladimir Perervenko:

Aprendizagem profunda (também conhecida como aprendizagem estruturada profunda ou aprendizagem hierárquica) é a aplicação a tarefas de aprendizagem de redes neurais artificiais (ANNs) que contêm mais de uma camada oculta. A aprendizagem profunda faz parte de uma família mais ampla de métodos de aprendizagem de máquinas baseados em representações de dados de aprendizagem, em oposição aos algoritmos específicos de tarefa. A aprendizagem pode ser supervisionada, parcialmente supervisionada ou não supervisionada.


Sobre o dipling com autoencoders, sim, é rápido, mas eu ainda não cheguei até eles, então havia uma questão lógica - existe uma vantagem sobre a RF

p.s. Também funciona no optimizador? Ou numa nuvem?

https://en.wikipedia.org/wiki/Deep_learning

 
Maxim Dmitrievsky:

Aprendizagem profunda (também conhecida como aprendizagem estruturada profunda ou aprendizagem hierárquica) é a aplicação a tarefas de aprendizagem de redes neurais artificiais (ANNs) que contêm mais de uma camada oculta. A aprendizagem profunda faz parte de uma família mais ampla de métodos de aprendizagem de máquinas baseados em representações de dados de aprendizagem, em oposição aos algoritmos específicos de tarefa. A aprendizagem pode ser supervisionada, parcialmente supervisionada ou não supervisionada.


Sobre diplinking com autoencoders sim, rápido, mas eu ainda não cheguei até eles, então foi uma pergunta lógica - há alguma vantagem sobre RF

p.s. Voa no optimista? E na nuvem?

https://en.wikipedia.org/wiki/Deep_learning

1. Onde você encontrou essa definição? Estás a falar a sério? Encontrarei links para fontes sérias quando tiver tempo.

2. A principal vantagem do DNN com pré-aprendizagem é a aprendizagem por transferência. Significativamente mais rápido, mais preciso e ... Use o pacote Darch.

3. qualquer otimização tem que ser feita em R. Mais rápido, mais transparente e flexível.

Boa sorte.

 
Vladimir Perervenko:

1. Onde você encontrou essa definição? Estás a falar a sério? Encontrarei links para fontes sérias quando tiver tempo.

2. A principal vantagem do DNN com pré-aprendizagem é a aprendizagem por transferência. Significativamente mais rápido, mais preciso e ... Use o pacote Darch.

3. qualquer otimização tem que ser feita em R. Mais rápido, mais transparente e flexível.

Boa sorte.

No final desta lição você entenderá como funciona um modelo simples de aprendizagem profunda chamado de perceptron multi-layer (MLP) e aprenderá como construí-lo em Keras, obtendo um grau de precisão decente no MNIST. Na próxima lição, vamos decompor métodos para problemas mais complexos de classificação de imagens (como o CIFAR-10).
(Artificial) neurónios

Embora o termo "aprendizagem profunda" possa ser entendido num sentido mais amplo, na maioria dos casos é aplicado no campo das redes neuronais(artificiais).


https://habrahabr.ru/company/wunderfund/blog/314242/

e aqui


Podem estar todos a mentir, eu não sei )

IMHO, é claro.

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
Para que servem os prognosticadores? Uma série cronológica é um predictor͵ Apenas os NS precisam de ir um pouco deeper͵
(Do telefone celular)
 
Yuriy Asaulenko:
Para que servem os prognosticadores? Uma série cronológica é um preditor.
(De um telefone celular)

Eles esqueceram-se de colocar (c) :))
 
Maxim Dmitrievsky:

Esqueci-me de pôr (c) :))
E quem foi citado?)
 
Yuriy Asaulenko:
Quem você citou?)
Bem, ele próprio. Uma espécie de distintivo de autoria.)
 
Maxim Dmitrievsky:
No final desta lição você entenderá a operação de um modelo simples de aprendizagem profunda chamado de perceptron multi-layer (MLP) e aprenderá como construí-lo em Keras, obtendo um grau de precisão decente no MNIST. Na próxima lição, vamos dividir os métodos para tarefas mais complexas de classificação de imagens (como o CIFAR-10).
(Artificial) neurónios

Embora o termo "aprendizagem profunda" possa ser entendido num sentido mais amplo, ele é aplicado principalmente no campo das redes neurais (artificiais).


https://habrahabr.ru/company/wunderfund/blog/314242/

E eis que...


Talvez todos eles mentem, eu não estou ciente disso )

IMHO, é claro.

Não, não têm. Abaixo está uma explicação (de um artigo que eu nunca irei terminar :(

Introdução

Principais áreas de pesquisa e aplicações

Atualmente, na pesquisa e aplicação de redes neurais profundas (falamos apenas de redes neurais multicamadas totalmente conectadas - MLP) surgiram duas correntes principais que diferem na abordagem da inicialização inicial dos pesos dos neurônios em camadas ocultas.

Primeiro: É bem conhecido que as redes neurais são extremamente sensíveis ao modo de inicialização inicial dos neurônios em camadas ocultas, especialmente quando o número de camadas ocultas é maior que 3. O ímpeto inicial para este problema foi proposto pelo Professor G. Hynton. A idéia era que os pesos dos neurônios em camadas ocultas da rede neural pudessem ser inicializados por pesos obtidos a partir do treinamento não supervisionado de redes associativas automáticas constituídas por RBM (máquina de Boltzmann com restrições) ou AE (codificador automático). Estas redes RBM empilhadas (SRBM) e AE empilhadas (SAE) são treinadas de uma certa forma num grande conjunto de dados não etiquetado. O objetivo deste treinamento é revelar estruturas ocultas (representações, imagens) e dependências nos dados. A inicialização de neurônios MLP com pesos obtidos durante o pré-treinamento coloca o MLP no espaço de solução mais próximo do ideal. Isto torna possível que a posterior afinação (treino) dos MLPs aplique uma menor quantidade de dados marcados com menos épocas de treino. Para muitas aplicações práticas (especialmente no processamento de "grandes dados"), estas são vantagens críticas.

Segundo: Um grupo de cientistas (Benjio et al.) concentraram seus principais esforços no desenvolvimento e pesquisa de métodos específicos para a iniciação inicial de neurônios ocultos, funções especiais de ativação, estabilização e métodos de aprendizagem. O sucesso nesta direção deve-se principalmente ao rápido desenvolvimento de redes neurais profundas e recorrentes (DCNN, RNN), que têm mostrado resultados surpreendentes no reconhecimento de imagens, análise e classificação de textos e tradução de fala ao vivo de uma língua para outra. As ideias e métodos desenvolvidos para estas redes neurais foram aplicados ao MLP com igual sucesso.

Hoje em dia, ambas as direcções são activamente utilizadas na prática. As experiências comparativas [ ] das duas abordagens não revelaram vantagens significativas de uma sobre a outra, mas uma ainda existe. As redes neurais com pré-treinamento requerem muito menos exemplos para treinamento e recursos computacionais, ao mesmo tempo em que dão resultados quase iguais. Para alguns campos, esta é uma vantagem muito importante.

Boa sorte.

 
Vladimir Perervenko:

Atualmente, ambas as abordagens são utilizadas ativamente na prática. As experiências comparativas [ ] das duas abordagens não revelam vantagens significativas de uma sobre a outra, mas há uma vantagem. Redes neurais com pré-treinamento requerem muito menos exemplos de treinamento e recursos computacionais com resultados quase iguais. Para alguns campos, esta é uma vantagem muito importante.

Boa sorte.

Ultimamente tenho voltado à GARCH, com a qual já estava familiarizado. O que me surpreendeu extremamente após vários anos de fascínio pela aprendizagem de máquinas é o enorme número de publicações sobre a aplicação do GARCH em séries cronológicas financeiras, incluindo moedas.


Você tem algo similar para redes profundas?