Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 460

 
Mihail Marchukajtes:

Você está batendo em torno do bush...... Dá-me um exemplo específico... Então podemos continuar a conversa, mas caso contrário....

Ele não tem argumentos, se encontrou algo que ele considera um erro e contou ao Reshetov sobre isso. Ele, por sua vez, não o reconheceu como um erro, o que significa que os seus argumentos são fracos ou errados. Então, ele fica em silêncio.


Argumentos em um estúdio!

 
Sempre a prevaricar. Sem argumentos para apoiar o que dizes.
 
Vizard_:

Mishek, porque não dizes alguma coisa? Apoia o teu irmão))))

Tens algum negócio? Pelo menos as pessoas estão a fazer algo interessante.

Escreva algo bom

 

Esta é uma versão muito antiga, e eu concordo 100% com o Wizard que é melhor não usá-la. O modelo se retrai, e também quando no final mostra uma estimativa de precisão sobre os dados da amostra - mostra-o com um erro, sobrestimando-o muito. Eu até postei neste tópico do fórum um exemplo onde o modelo em informações após o treinamento mostrou 90% de precisão em novos dados e depois de adicionar esses dados à fórmula e depois de calcular o resultado usando a fórmula pelo menos em excel as previsões eram totalmente aleatórias e apenas 50% de precisão

Yuri então trouxe isso à minha mente, adicionou um comitê de vários modelos, acelerou e nomeou tudo jPrediction, criou um site para este modelo em particular. O site desapareceu, pergunte ao Mikhail pela última versão e fontes.
Imho este modelo acabou bem, mas considerando a lentidão há coisas muito mais produtivas no R.

 
Dr. Trader:

Esta é uma versão muito antiga, e eu concordo 100% com o Wizard que é melhor não usá-la. O modelo se retrai, e também quando no final ele mostra uma estimativa de precisão sobre os dados da amostra - ele o mostra com um erro, sobrestimando-o muito. Eu até postei neste tópico do fórum um exemplo onde o modelo em informações após o treinamento mostrou precisão de 90% em novos dados e depois de adicionar esses dados à fórmula e calcular resultados usando fórmula pelo menos em excel, houve completa aleatoriedade e apenas 50% de precisão nas previsões.

Yuri então o trouxe à mente, acrescentou um comitê de vários modelos, acelerou e nomeou tudo jPrediction, criou um site para este modelo. O site desapareceu, peça a Michael a última versão e fontes.
Imho este modelo é bom, mas considerando a lentidão, há coisas muito mais produtivas no R.

Eu tenho-o, acho que também está requalificado, apenas um link para a descrição.
 
Vizard_:

Então porque é que estás a gritar? Ele não é estúpido. Wizard está sempre no ponto, mesmo quando ele está sendo engraçado)))
Atira o guizo fora, não percas tempo com isso. As ferramentas e as suas possíveis combinações foram ontem expressas.
Não percas tempo com Mishek, ele escreve uma coisa implica outra, e o resto nos oos é a terceira...


Sim, estou a sussurrar. ) não conseguiu encontrar outras mensagens, apagadas pelos moderadores ou algo assim.
 

Eu estou bem... Estive fora por pouco tempo....

Realmente o que é descrito no google é uma versão antiga do mesmo.... MAS!!!!!!!

Para provar razoavelmente que o JPrediction é reeducado e não funciona corretamente, vamos fazer uma experiência. Afinal de contas, tudo é aprendido por comparação. Isto é exactamente o que eu queria fazer.

Suponhamos que temos um conjunto de dados, treiná-lo e deixar este modelo funcionar durante algum tempo, e depois vamos ver o resultado...

Eu treino o conjunto de dados no JPrediction, você treina o mesmo conjunto de dados na sua IA, escolhe um intervalo e vê qual modelo funcionará mais tempo e melhor.....

Foi o que quis dizer quando te pedi para treinares o meu conjunto de dados sobre os teus AIs.

E assim.... não está claro que critérios todos usaram para decidir que o preditor estava sobretreinando????? De onde tiraste isso, Feiticeiro. Você tem provas concretas de que o Otimizador não está funcionando???? Eu faço???? Dê-me um exemplo.....

Da mesma forma que eu posso treinar o seu conjunto de dados e então você pode ver por si mesmo qual modelo funciona melhor. Aquele treinado por você ou aquele treinado por mim com o otimizador....

 
Vizard_:

Não. Reshetov não entendeu que não devemos ter uma normalização fixada rigidamente de acordo com a fórmula conhecida. Devíamos ter feito
um interruptor para desligar. Também a avaria aleatória é questionável e devíamos pelo menos tê-la assinalado, mas é melhor desactivá-la, etc...

Oh sim, eu também escrevi sobre o colapso. Então, para dados normais ok, mas especificamente para forex nós deveríamos ter feito algum tipo de roll-forward. Ou pelo menos divida-o em duas partes por tempo - comboio antes da data, e teste após a data.

O que há de errado com a normalização? Para a neurônica não faz diferença em que faixa a entrada está, pesos corretamente inicializados irão digerir tudo. A normalização não interfere, mas não ajuda em nada.
Embora a intuição diga que se o input contém números positivos e negativos, é melhor não deslocar zero. E R diz para escalar os preditores não para 0-1, mas que sd(x) = 1

 
Vizard_:

Não. Reshetov não entendeu que não devíamos ter tornado a normalização rígida pela fórmula conhecida. Devíamos ter feito
um interruptor para desligar. A avaria aleatória também está em questão e deveríamos pelo menos tê-la assinalado, mas é melhor desligá-la, etc...


Sobre o desarranjo aleatório, estou disposto a discutir.

Quando fazemos uma previsão com IA então SIM, a sequência de dados importa do passado para o futuro, estamos a fazer uma previsão.

Mas quando se trata de classificação, a sequência de dados não tem absolutamente nenhum papel, porque temos uma área a dividir e encontrar o hiperplano que o fará melhor na esperança de que a lei encontrada seja válida por mais algum tempo.

Tal como a lei que encontramos quando construímos o modelo de previsão.......

 

Sem mencionar o fato de que a descrição mostra que o modelo ensina deliberadamente aqueles exemplos que são os mais difíceis de aprender, descartando aqueles que são fáceis de aprender. Bem, isso sou só eu... leia a partir da descrição.... se eu entendi correctamente...

Ao dividir a amostra em treinamento e amostras de teste, é como se os dois valores mais próximos caíssem em amostras diferentes. Assim, se tivermos dois vectores idênticos, chegarão a amostras diferentes, um no treino e outro na amostra de teste... Então...