Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 460
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Você está batendo em torno do bush...... Dá-me um exemplo específico... Então podemos continuar a conversa, mas caso contrário....
Ele não tem argumentos, se encontrou algo que ele considera um erro e contou ao Reshetov sobre isso. Ele, por sua vez, não o reconheceu como um erro, o que significa que os seus argumentos são fracos ou errados. Então, ele fica em silêncio.
Argumentos em um estúdio!
Mishek, porque não dizes alguma coisa? Apoia o teu irmão))))
Tens algum negócio? Pelo menos as pessoas estão a fazer algo interessante.
Escreva algo bom
https://sites.google.com/site/libvmr/
Esta é uma versão muito antiga, e eu concordo 100% com o Wizard que é melhor não usá-la. O modelo se retrai, e também quando no final mostra uma estimativa de precisão sobre os dados da amostra - mostra-o com um erro, sobrestimando-o muito. Eu até postei neste tópico do fórum um exemplo onde o modelo em informações após o treinamento mostrou 90% de precisão em novos dados e depois de adicionar esses dados à fórmula e depois de calcular o resultado usando a fórmula pelo menos em excel as previsões eram totalmente aleatórias e apenas 50% de precisão
Yuri então trouxe isso à minha mente, adicionou um comitê de vários modelos, acelerou e nomeou tudo jPrediction, criou um site para este modelo em particular. O site desapareceu, pergunte ao Mikhail pela última versão e fontes.
Imho este modelo acabou bem, mas considerando a lentidão há coisas muito mais produtivas no R.
Esta é uma versão muito antiga, e eu concordo 100% com o Wizard que é melhor não usá-la. O modelo se retrai, e também quando no final ele mostra uma estimativa de precisão sobre os dados da amostra - ele o mostra com um erro, sobrestimando-o muito. Eu até postei neste tópico do fórum um exemplo onde o modelo em informações após o treinamento mostrou precisão de 90% em novos dados e depois de adicionar esses dados à fórmula e calcular resultados usando fórmula pelo menos em excel, houve completa aleatoriedade e apenas 50% de precisão nas previsões.
Yuri então o trouxe à mente, acrescentou um comitê de vários modelos, acelerou e nomeou tudo jPrediction, criou um site para este modelo. O site desapareceu, peça a Michael a última versão e fontes.
Imho este modelo é bom, mas considerando a lentidão, há coisas muito mais produtivas no R.
Então porque é que estás a gritar? Ele não é estúpido. Wizard está sempre no ponto, mesmo quando ele está sendo engraçado)))
Atira o guizo fora, não percas tempo com isso. As ferramentas e as suas possíveis combinações foram ontem expressas.
Não percas tempo com Mishek, ele escreve uma coisa implica outra, e o resto nos oos é a terceira...
Sim, estou a sussurrar. ) não conseguiu encontrar outras mensagens, apagadas pelos moderadores ou algo assim.
Eu estou bem... Estive fora por pouco tempo....
Realmente o que é descrito no google é uma versão antiga do mesmo.... MAS!!!!!!!
Para provar razoavelmente que o JPrediction é reeducado e não funciona corretamente, vamos fazer uma experiência. Afinal de contas, tudo é aprendido por comparação. Isto é exactamente o que eu queria fazer.
Suponhamos que temos um conjunto de dados, treiná-lo e deixar este modelo funcionar durante algum tempo, e depois vamos ver o resultado...
Eu treino o conjunto de dados no JPrediction, você treina o mesmo conjunto de dados na sua IA, escolhe um intervalo e vê qual modelo funcionará mais tempo e melhor.....
Foi o que quis dizer quando te pedi para treinares o meu conjunto de dados sobre os teus AIs.
E assim.... não está claro que critérios todos usaram para decidir que o preditor estava sobretreinando????? De onde tiraste isso, Feiticeiro. Você tem provas concretas de que o Otimizador não está funcionando???? Eu faço???? Dê-me um exemplo.....
Da mesma forma que eu posso treinar o seu conjunto de dados e então você pode ver por si mesmo qual modelo funciona melhor. Aquele treinado por você ou aquele treinado por mim com o otimizador....
Não. Reshetov não entendeu que não devemos ter uma normalização fixada rigidamente de acordo com a fórmula conhecida. Devíamos ter feito
um interruptor para desligar. Também a avaria aleatória é questionável e devíamos pelo menos tê-la assinalado, mas é melhor desactivá-la, etc...
Oh sim, eu também escrevi sobre o colapso. Então, para dados normais ok, mas especificamente para forex nós deveríamos ter feito algum tipo de roll-forward. Ou pelo menos divida-o em duas partes por tempo - comboio antes da data, e teste após a data.
O que há de errado com a normalização? Para a neurônica não faz diferença em que faixa a entrada está, pesos corretamente inicializados irão digerir tudo. A normalização não interfere, mas não ajuda em nada.
Embora a intuição diga que se o input contém números positivos e negativos, é melhor não deslocar zero. E R diz para escalar os preditores não para 0-1, mas que sd(x) = 1
Não. Reshetov não entendeu que não devíamos ter tornado a normalização rígida pela fórmula conhecida. Devíamos ter feito
um interruptor para desligar. A avaria aleatória também está em questão e deveríamos pelo menos tê-la assinalado, mas é melhor desligá-la, etc...
Sobre o desarranjo aleatório, estou disposto a discutir.
Quando fazemos uma previsão com IA então SIM, a sequência de dados importa do passado para o futuro, estamos a fazer uma previsão.
Mas quando se trata de classificação, a sequência de dados não tem absolutamente nenhum papel, porque temos uma área a dividir e encontrar o hiperplano que o fará melhor na esperança de que a lei encontrada seja válida por mais algum tempo.
Tal como a lei que encontramos quando construímos o modelo de previsão.......
Sem mencionar o fato de que a descrição mostra que o modelo ensina deliberadamente aqueles exemplos que são os mais difíceis de aprender, descartando aqueles que são fáceis de aprender. Bem, isso sou só eu... leia a partir da descrição.... se eu entendi correctamente...
Ao dividir a amostra em treinamento e amostras de teste, é como se os dois valores mais próximos caíssem em amostras diferentes. Assim, se tivermos dois vectores idênticos, chegarão a amostras diferentes, um no treino e outro na amostra de teste... Então...