Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2495

 
mytarmailS #:

..

Sim, já me acalmo, já me acalmo))))

Repete o grunhido do tio :-)
 
Maluco. Parece que as redes neurais realmente dominam aqui. Pelo menos alguns dos meus estão a esse nível...
 
eccocom #:
Thrash. Parece que as redes neurais realmente dominam aqui. Pelo menos alguns dos meus estão a esse nível...

riu todo o turno coletivo da fazenda e da fábrica (sim, todos montados) :-)

mostra-me um sinal com mais de um ano que realmente funciona em redes neurais.

Normalmente eles apenas mencionam "redes neurais, aprendizagem profunda" e outros disparates. E quando considerado - martingale, cadeados, grades e MA simples. A dura realidade - algoritmos simples e esquemas simples governam.

---

Por mais que eu observe este tópico, vejo o resultado: apenas artigos bonitos (realmente muito bons) e o auto-desenvolvimento pessoal dos autores.

 
Maxim Kuznetsov #:

rindo de todo o turno coletivo da fazenda e da fábrica (sim, todos montados) :-)

mostra-me um sinal com mais de um ano que realmente funciona em redes neurais.

Normalmente eles só mencionam "redes neurais, aprendizagem profunda" e outros disparates. E quando considerado - martingale, cadeados, grades e MA simples. A dura realidade - algoritmos simples e golpes simples governam.

---

Sempre que olho através deste fio vejo o resultado: apenas artigos bonitos (realmente muito bons) e o auto-desenvolvimento pessoal dos autores.

Não era isso que eu queria dizer...

E sobre redes neurais eu escrevi acima que o padrão é 55-56, geralmente sobre nada.

 
eccocom #:
Quanto aos modelos, não se trata deles, mas sim do facto de a IA ser essencialmente um aproximador...

A questão é essa, trata-se de modelos, que são criados com base em dependências encontradas com IA, -- e você não tem que ir do modelo para o NS, mas do NS para o modelo -- trabalhando sob condições correntes específicas... Claro, as condições podem mudar...

quando pensei que o equilíbrio no segmento AS clássico e o desequilíbrio no segmento Keynesiano -- segundo Keyns -- já percebi que o NS para determinar esse fato é meio irrelevante para mim globalmente...

(e a aproximação é apenas 1 das habilidades de IA, + otimização, etc.),

Evgeniy Ilin # :

Tudo o que você precisa está em OHLC, o resto dos dados é derivado a partir dele. O principal é um algoritmo flexível que vai encontrar uma maneira de converter OHLC para aqueles dados que têm mais peso, mais uma vez é uma tarefa da máquina. Além disso, apenas OHLC é o mesmo em quase todos os lugares, se você olhar para volumes de tick ou outra coisa, esses dados são diferentes, assim como spreads e assim por diante. Tudo o que você precisa está na tabela no terminal.

Mas se você tem a capacidade de aprendizagem profunda, é provavelmente possível... (até me lembrei como encontrar a curvatura da "linha reta", como em um nevoeiro, usando 1º e 2º derivados, graças ao autor da citação))

E se for mais modesto, também pode correr uma amostra para o momento actual... e depois reciclar à medida que a curva de juros começa a ficar horizontal...

mas se você inicialmente usar sinais que realmente importam (lógica e economicamente), então a própria máquina vai descobrir o que impulsiona o mercado no momento (ou seja, do que o motorista está mais dependente no momento)...

Mihail Marchukajtes tem uma abordagem muito interessante/lógica e obrigado a ele por explicar o polinômio(vou tentar lembrar também)... apenas um homem que sabe!... mas se outra pessoa não sabe e não quer saber como funcionam as estatísticas do passado (NÃO é um modelo ainda!!!), para que possa ser razoavelmente processado para ser transferido para o futuro (com 50/50 de probabilidade, claro) -- então ele vai culpar o modelo, neurônio, mercado e condições... E a propósito, a mudança deste último é exactamente onde se pode colocar bons inputs! - O esquema de funcionamento de qualquer ecossistema, independentemente da sua estrutura, é sempre o mesmo: Condições -> Reacções -> Consequências (e mesmo consequências ambientais).

A principal habilidade de um comerciante é saber quando NÃO entrar no mercado ... imho!

P.S.

E se as dependências atuais encontradas e suas interações se desenvolvem ou não em um modelo é uma questão global... E não se trata do NS, mas das capacidades de aproximação do cérebro do autor do estudo da amostra, que usa o NS como ferramenta, mas não como razão para entrar, e sem delegar a ele a responsabilidade pela análise e conclusões

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.25
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Isso é o que acontece com os modelos, que são criados com base nas dependências encontradas com IA -- e você não tem que ir de um modelo para o NS, mas do NS para um modelo -- trabalhando sob condições atuais específicas... Claro, as condições podem mudar...

quando pensei que o equilíbrio no segmento AS clássico e o desequilíbrio no segmento Keynesiano -- segundo Keyns -- já me tinha apercebido que o NS para determinar este facto é um pouco irrelevante para mim globalmente...

(e a aproximação é apenas 1 das habilidades de IA, + otimização, etc.),

mas se houver capacidade de aprendizagem profunda, acho que é possível... (até me lembrei como encontrar a curvatura de uma "linha reta", como no nevoeiro, usando o 1º e 2º derivados, graças ao autor da citação))

E se for mais modesto, também pode correr uma amostra para o momento actual... e depois reciclar à medida que a curva de juros começa a ficar horizontal...

mas se inicialmente usar atributos realmente relevantes (lógica e economicamente), então a própria máquina vai descobrir o que está movendo o mercado no momento (ou seja, do que o motorista mais depende)...

Mihail Marchukajtes tem uma abordagem muito interessante/lógica e obrigado a ele por explicar o polinômio (vou tentar lembrar também)... apenas um homem que sabe!... mas se outra pessoa não sabe e não quer saber como funcionam as estatísticas do passado (NÃO é um modelo ainda!!!), para que possa ser razoavelmente processado para ser transferido para o futuro (com 50/50 de probabilidade, claro) -- então ele vai culpar o modelo, neurônio, mercado e condições... E a propósito, a mudança deste último é exactamente onde se pode colocar bons inputs! - O esquema de funcionamento de qualquer ecossistema, independentemente da sua estrutura, é exactamente o seguinte: Condições -> Reacções -> Consequências (e mesmo consequências ambientais)

A principal habilidade de um comerciante é saber quando NÃO entrar no mercado ... imho!

P.S.

Se um trader encontrou dependências atuais e suas interações em um modelo ou não - é uma questão global... e não diz respeito ao NS, mas sim à capacidade de aproximação do cérebro do autor da pesquisa, que usa o NS como ferramenta, mas não lhe delega toda a responsabilidade pela análise e conclusões

Estou a ver, para onde irá o euro hoje?
 
eccocom #:
Leia a documentação do TensorFlow, tudo está em forma de construtor... praticamente. Realmente são caixas pretas. Se for interessante, posso dar-lhe o código do perceptron escrito manualmente e, a propósito, é tudo cálculo matricial, é tudo construído sobre eles.

A propósito, tensorflow.keras (como Evgeny Dyuka)

No momento, Keras não oferece nenhuma funcionalidade para extrair a importância do recurso

SKLearn parece mais interessante - Interpretação dos resultados da aprendizagem da máquina(talvez a biblioteca não seja muito boa, mas a lógica da avaliação é dada)

p.s.

...não te afeiçoaste...

Feature Importance Chart in neural network using Keras in Python
Feature Importance Chart in neural network using Keras in Python
  • 2017.07.27
  • andre andre 481 1 1 gold badge 5 5 silver badges 8 8 bronze badges
  • stackoverflow.com
I am using python(3.6) anaconda (64 bit) spyder (3.1.2). I already set a neural network model using keras (2.0.6) for a regression problem(one response, 10 variables). I was wondering how can I generate feature importance chart like so:
 
JeeyCi #:

a propósito, tensorflow.keras (como Evgeny Dyuka tem) - então

SKLearn parece mais interessante - Interpretação dos resultados da aprendizagem da máquina (talvez a biblioteca não seja muito boa, mas a lógica de avaliação é dada)

p.s.

...não te afeiçoaste...

Estás a entrar numa espécie de selva. Os problemas de prever (ou melhor, não prever) NS estão a um nível muito mais simples e não têm nada a ver com os NS em si.

https://neurohive.io/ru/tutorial/prostaja-nejronnaja-set-python/

É um simples perceptron)))).

Meu exemplo tutorial está em Júpiter, não quero copiar em pedaços e não uso githab.

Простая нейронная сеть в 9 строк кода на Python
Простая нейронная сеть в 9 строк кода на Python
  • 2019.02.14
  • neurohive.io
Из статьи вы узнаете, как написать свою простую нейросеть на python с нуля, не используя никаких библиотек для нейросетей. Если у вас еще нет своей нейронной сети, вот всего лишь 9 строчек кода: Перед вами перевод поста How to build a simple neural network in 9 lines of Python code , автор — Мило Спенсер-Харпер . Ссылка на оригинал — в подвале...
 
eccocom # :

Estás a ficar um bocadinho covarde.

A lógica... que a NS é usada quando se quer contornar a falta de uma fórmula que descreva a dependência de uma característica de um factor... é usada a ponderação... mas antes e depois da NS, o processamento estatístico padrão/clássico está em vigor... por exemplo ter apenas PDF=F'(X)=dF(x)/dx (embora não precisemos de CDF porque todas as conclusões da análise populacional são feitas por PDF) e ter dados voláteis - antes de mais nada preciso uniformizar as distribuições para a possibilidade da sua análise conjunta - e aqui a ponderação é útil (não aspiro à matemática aqui)... mas a análise em si não tem nada a ver com NS, nem as suas conclusões (ns)... embora tal estimativa possa ser grosseira, mas a estática clássica também é imperfeita (por exemplo, o uso de logaritmos de incrementos já introduz por si só a tendência nas conclusões - um defeito puramente matemático)... Na verdade, qualquer modelo tem as suas suposições...

Os participantes do mercado NÃO esperam por previsões, mas avaliam o risco e a volatilidade e tomam as suas decisões de negociação (e de cobertura) com base nisto... é que existem 2 factores variáveis nesta análise - volatilidade e janela temporal - e NS ajuda a uniformizar as amostras (mas também se pode usar GARCH) para que possam ser analisadas em conjunto num único modelo estatístico e ajuda a determinar o horizonte... Nesses momentos, quando não há uma fórmula matemática, que não é necessária (tudo muda neste mundo)... mas por ponderação, ponderação e ponderação de novo (por causa da compressão a alguma regressão) - para fazer análise conjunta dentro de um modelo estatístico, e de preferência sem ruído ou pelo menos com a sua minimização...

A lógica de inferência Bayesiana para Gaussian vale a pena ter em mente...

O principal, suponho, é construir tal arquitetura NS, que quando as camadas neuronais passam no caminho para a saída, a dispersão não aumenta... imho (porque acumulá-lo, se está disponível como está, é uma questão retórica)... e depois a lógica clássica da estatística... e mesmo numa história muito profunda não há amostras suficientes para analisar qualitativamente momentos robustos (tudo acontece na vida)... Acho que em Mihail Marchukajtes os outliers do modelo de classificação também podem acontecer... (temos de pensar, como deve o sequenciador lidar com eles?)

Até agora, o meu imho é... Eu também vou olhar para o import scipy.stats como estatísticas

p.s.

obrigado pela ligação

 
JeeyCi #:

para a lógica ... que a NS é usada quando é necessário contornar a falta de uma fórmula que descreva a dependência de um traço de um fator. é usada a ponderação... mas antes e depois da NS o processamento estatístico padrão/clássico... por exemplo ter apenas PDF=F'(X)=dF(x)/dx (embora não precisemos de CDF, pois todas as conclusões da análise populacional são tiradas do PDF) e ter dados voláteis - antes de mais nada preciso uniformizar as distribuições para possibilidade de análise conjunta - e aqui a ponderação ajuda (aqui não aspiro à matemática)... mas a análise em si não tem nada a ver com NS, nem as suas conclusões (ns)... embora tal estimativa possa ser grosseira, mas a estática clássica também é imperfeita (por exemplo, o uso de logaritmos de incrementos já introduz a tendência nas conclusões em si - defeitos puramente matemáticos)... Na verdade, qualquer modelo tem as suas suposições...

Os participantes do mercado NÃO esperam por previsões, mas avaliam o risco e a volatilidade e tomam as suas decisões de negociação (e de cobertura) com base nisto... é que existem 2 factores variáveis nesta análise - volatilidade e janela temporal - e NS ajuda a uniformizar as amostras (mas também se pode usar GARCH) para que possam ser analisadas em conjunto num único modelo estatístico e ajuda a determinar o horizonte... Nesses momentos, quando não há uma fórmula matemática, que não é necessária (tudo muda neste mundo)... mas por ponderação, ponderação e ponderação novamente - para fazer análise conjunta dentro de um modelo estatístico, e de preferência sem ruído ou pelo menos com a sua minimização...

O principal, suponho, é construir tal arquitetura NS, que a dispersão não aumente quando as camadas neuronais passam no caminho para a saída... imho (porque acumulá-lo, se está disponível como está - uma questão retórica)... e depois a lógica clássica da estatística... e mesmo numa história muito profunda não há amostras suficientes para analisar qualitativamente momentos robustos (tudo acontece na vida)

Até agora, o meu imho é... Vou dar outra olhada em import scipy.stats como stats

p.s.

obrigado pela ligação

Quando começará a aplicação prática?