Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Talvez Renat consiga ver o que se pode aprender com isto. É bem possível que uma nova especificação dê um melhor desempenho também na MQL5, não é?
Quanto a C#/C+++, se necessário, também podemos despejá-lo. O principal é obter o máximo rendimento possível. ;)
Testámos alguns dos guiões neste tópico numa máquina deste tipo:
CPU-Z
CUDA-Z
Para cada guião fornecerei um link para o post onde foi publicado para que outros o possam encontrar rapidamente, fazer os testes e comparar resultados, se necessário.
Teste 1
Teste 2
Teste 3
escala = 1000
CPU
GPU
Teste 4
Teste 5
Teste 6
Teste7
Teste 8
Também tentei testar o indicadorqpu_EMA-Rainbow do MetaDriver.
No CPU, o resultado é por vezes até 2x melhor. Aqui está o resultado:
//---
Volodya(MetaDriver), mostre-me os seus resultados?
P.S. Alterei o meu tipo no código do kernel nos parâmetros da função gpuEMA de__global para__local. Um pouco mais rápido, mas ainda mais lento do que no CPU.
Também tentei testar o indicadorqpu_EMA-Rainbow do MetaDriver.
No CPU, o resultado é por vezes até 2x melhor. Aqui está o resultado:
Volodya(MetaDriver), mostre-me os seus resultados?
P.S. Alterado no código do núcleo nos parâmetros da função gpuEMA de__global para__local. Um pouco mais rápido, mas ainda mais lento do que no CPU.
Tenho resultados semelhantes. Isto tem sido discutido há muito tempo, e faz sentido - a tarefa é demasiado simples, transferir memória de e para a placa de vídeo não compensa. A vantagem da GPU aparece em tarefas mais complexas.
Um exemplo de utilização da aceleração da GPU para negociação (derivados).
Mark Joshi - famoso pelos seus livros sobre matemática financeira, em particular sobre derivados e comércio de opções, relatou aqui o seu trabalho:
http://ssrn.com/abstract=2388415
Traduziu o seu trabalho ao estilo do OOP para a GPU CUDA. Começou-a em 2010, depois teve uma pausa, e de 2011 até ao Verão de 2014 conseguiu chegar à versão 0.3. Conseguiu uma aceleração de 100X. 137X vezes - e isso num algoritmo AMAZING, o que é difícil.
O trabalho utilizou a biblioteca QuantLib em C++, que ele próprio admite ter de retrabalhar segundo as linhas do "OOP ->-> abordagem processual" - de modo a que tudo funcionasse na GPU CUDA.
Ele escreve:
"Implementei os preços de Monte Carlo de IRD com a LMM na GPU com mínimos quadrados para características de exercício precoce.
Pode obter o código em kooderive.sourceforge.net tanto em C++ como em CUDA. O jornal está em ......
Usei um código para CUDA completamente diferente do que tinha usado anteriormente para C++. Em essência, trato os dados como o conceito central e utilizo o código para agir sobre os dados. O estilo é muito funcional. Foi preciso muito trabalho porque as minhas implementações anteriores do C++ tinham sido orientadas para objectos".
O seu projecto em si é de fonte aberta:
http://sourceforge.net/projects/kooderive/