Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 523

 
Maxim Dmitrievsky:

Não é nada, é apenas um ajuste comum, já foi discutido 100 vezes antes. É elementar e não tem qualquer utilidade prática em forex.


Quero dizer, é um ajuste. Pensei ter dito que era uma área fora da amostra da OOS...... Onde está o ajuste? Este é exactamente o nível alto o suficiente de generalização se alguma coisa.....

 
Mihail Marchukajtes:

Refiro-me ao ataque. Pensei ter dito que era uma secção fora da amostra...... Onde está o ajuste? Esse é exactamente o elevado nível de generalização, se é que há algo.....


ah... fora... Perdi o OOS :) então deve funcionar no real, mesmo que pior, mas ainda no +

para resultados estáveis, você precisa fazer validação cruzada e TS adaptável... mas também há muitas armadilhas

A principal armadilha com o sistema de auto-treinamento que encontrei é que andaimes ou NS são treinados de forma ligeiramente diferente cada vez na mesma amostra, o que pode levar a mudanças significativas nos resultados finais. Ou seja, se várias vezes no testador para executar o mesmo TS, os resultados serão diferentes :)

E cada vez que estudo NS mais e mais, começo a gostar do logit simples ou da regressão linear:D

 

Alguém sabe o que acontece com a rede quando o número de exemplos de treinamento por classe é diferente? Vi que isso leva a um viés e a rede começa a produzir apenas uma classe, e que o alinhamento do número de classes corrige a situação. E que o alinhamento do número de exemplos por classes corrige a situação.

Mas eu quero entender a razão disto.
Por exemplo, depois de ter visto 100 gatos e 2 cães, uma pessoa presta mais atenção aos cães e olha para eles, como "Oh, algo novo". Por alguma razão estes 2 cães parecem gatos a uma rede neural. Isto é, a quantidade estraga a qualidade.

Número demasiado pequeno de exemplos de uma das classes, não permite atribuir um único neurónio/ligação para a sua definição? Embora com softmax, o neurônio de saída é alocado, portanto nenhuma conexão é feita a ele.
Ou a estes 2 exemplos, 10 exemplos muito semelhantes de outra classe são encontrados e fazem uma preponderância no seu lado?

 
Mihail Marchukajtes:

Refiro-me ao ataque. Pensei ter dito que era uma secção fora da amostra...... Onde está o ajuste? Este é exatamente o alto nível de generalização se algo.....

Bem, então aqui está uma volta contra a frente por mês.


 
elibrarius:

Alguém sabe o que acontece com a rede quando o número de exemplos de treinamento por classe é diferente? Vi que isso leva a um viés e a rede começa a produzir apenas uma classe, e que o alinhamento do número de classes corrige a situação. E que o alinhamento do número de exemplos por classe corrige a situação.

Mas eu quero entender qual é a razão?
Um homem, por exemplo, tendo visto 100 gatos e 2 cães, vai prestar mais atenção aos cães e olhar para eles, como - "Oh! Algo novo". Por alguma razão estes 2 cães parecem gatos a uma rede neural. Então, a quantidade estraga a qualidade.

Número demasiado pequeno de exemplos de uma das classes, não permite atribuir um único neurónio/ligação para a sua definição? Embora com softmax, o neurônio de saída é alocado, portanto nenhuma conexão é feita a ele.
Ou para estes 2 exemplos, 10 exemplos muito semelhantes de outra classe são encontrados e fazem a anulação na sua direcção?


Bem, faz a média dos exemplos, a segunda classe começa a contribuir menos

 
Get My Forex Systems FREE!
Get My Forex Systems FREE!
  • admin
  • strategy.doubledoji.com
Trading is all about forecasting price. If you have been reading my Forex Strategies 2.0 Blog, you must have seen I am focusing more and more on algorithmic trading. If you can forecast currency pair price with a reasonable degree of accuracy, you can make a lot of pips. Markets have changed a lot. Today algorithms rule the market. Wall Street...
 

A que progressos se chegou.


Раскрашиваем чёрно-белую фотографию с помощью нейросети из 100 строк кода
Раскрашиваем чёрно-белую фотографию с помощью нейросети из 100 строк кода
  • 2015.11.17
  • habrahabr.ru
Перевод статьи Colorizing B&W Photos with Neural Networks. Не так давно Амир Авни с помощью нейросетей затроллил на Reddit ветку /r/Colorization, где собираются люди, увлекающиеся раскрашиванием вручную в Photoshop исторических чёрно-белых изображений. Все были изумлены качеством работы нейросети. То, на что уходит до месяца работы вручную...
 
Morexod:

Que progressos foram feitos.



Estranho que as sobrancelhas não tenham sido incluídas no tratamento, embora um fio de cabelo faça parte do grupo.

 
Maxim Dmitrievsky:

Bem, então, aqui está uma fanfarronada de trás para a frente do mês também.


Agora é disso que estou a falar... fixe. É bem possível apostar no verdadeiro ...

 

Eu não sei o que as suas redes estão a fazer. Mas Reshetovsky quando as aulas são distorcidas. Quando o número de um e zeros na variável de saída não são iguais. Adiciona ao treinamento e à amostra de teste aquelas classes que são menores. Como um exemplo de cães e gatos. Se houver 100 gatos e 2 cães, a amostra será aumentada com mais 98 exemplares de cães para o equilíbrio. Mas o exemplo não é bom, porque há uma maneira complicada de acrescentar. Não é só isso. Como resultado obtemos uma amostra de 100 gatos diferentes e 100 cópias de cães. Então é isso...