Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 601

 
Vladimir Perervenko:

Isto é um link para o Hubr. O link da biblioteca é https://keras.rstudio.com/index.html.

Leia as fontes primárias.

Boa sorte.

Sim, eu vejo -Keras é uma API de redes neurais de alto nível desenvolvida com foco em possibilitar a rápida experimentação. R? como esperado, a interface.

Obrigado.

As fontes estão realmente aqui -https://keras.io/ e no GitHub -https://github.com/keras-team/keras

Keras Documentation
Keras Documentation
  • keras.io
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Use Keras if you need a deep learning library that: Allows...
 
Vizard_:

No primeiro semestre de 2016, o mundo ouviu falar de muitos desenvolvimentos no campo das redes neurais - os seus algoritmos foram demonstrados por
Google (rede de leitores AlphaGo Go), Microsoft (uma gama de serviços de identificação de imagens), startups MSQRD, Prisma e outros...
Poucas pessoas sabem sobre isso, mas outras estavam sendo desenvolvidas em paralelo. As melhores mentes do planeta juntaram-se para criar um sistema único,
que já poderia ser chamada de IA. O produto final é feito por "programadores de Deus", ele funciona facilmente com qualquer quantidade de dados,
em qualquer tipo de hardware, até num pequeno pedaço de papel. Em resumo - Mishan, apanha! Mas fique quieto ...)))


Vá lá, espero que não seja um vírus desagradável... Não sei se lhe puseste cocó. Uma vez conheci um utilizador chamado Klot. Ele costumava dizer que conseguia "programar o inferno de um careca" e era muito bom a programar....

Nem consegui olhar para ele, porque tenho os lençóis acolchoados de 2003... Acho que não estava destinado a ser :-(

 

é uma "lacuna que está sempre contigo", do tipo

 
Mihail Marchukajtes:

Nem consegui olhar para ele, porque tenho os folhetos acolchoados de 2003...

Está na hora de balançar.

excel 03 é hardcore.

 
Mihail Marchukajtes:

Vá lá, espero que não seja um vírus desagradável... Não sei se lhe puseste cocó. Uma vez conheci um utilizador chamado Klot. Ele costumava dizer: "Ele sabe programar um monte de coisas" e era muito bom a programar....

Nem consegui olhar para ele, porque tenho os lençóis acolchoados de 2003... Acho que não vale a pena :-(


Google merdas, não?

mas é uma espécie de perseptotrão feito por si mesmo :)

 
Não podes:

Às vezes suspeito que você é o culpado pela morte de Reshetov, desculpe por falar, não pude resistir.


Direitos em ..... Claro que eu joguei algumas variantes no seu desenvolvimento, mas acho que 10% das minhas idéias foram aprovadas por ele e eu exagerei provavelmente. O fato de que no MOE existem duas áreas de profissionais são desenvolvedores (programadores) e engenheiros (usuários). Adivinhe em qual categoria estou em ????

 

Por isso, estou a pensar em fazer o treino da Java e seguir em frente. Sinto que não entendo uma série de pontos-chave nas peculiaridades do idioma e me foi oferecido aprendê-los por 150 mil durante um ano na universidade de mila.ru..... É assim que as coisas são. Ele parou em uma das etapas finais, a seleção dos preditores. Calculando o seu significado e algum tipo de selecção. Porque há duas peças endurecidas no código. Mas acredite em mim, um especialista no próprio processo de aprendizagem, análise do modelo resultante e sua seleção (que é o que os engenheiros são bons em). Eu posso fazer a seguinte avaliação.

1.JPrediction tem a capacidade de generalizar. Não tanto quanto eu gostaria, mas dos 10 modelos obtidos 50-80% serão modelos generalizados, o resto será de ameixa. Eles serão generalizados de forma diferente e um modelo com boa curva de aprendizagem pode ganhar menos do que um modelo com pior curva de aprendizagem no futuro.

2. O problema de escolher os preditores é que eu lhe dou 100 deles, ela constrói um modelo de no máximo 9 e o faz por 3 dias em 3 núcleos. Logicamente falando, quanto mais inputs, mais paramétrico é o modelo e mais fatores ele leva em conta, mas na prática, quanto mais simples for o modelo, melhor ele funciona no futuro do que um modelo com o mesmo resultado de treinamento, mas com mais inputs. Considero modelos com 5 entradas e mais, porque com menos entradas tem efeito quando o modelo tem sorte por algum tempo e depois não, e como regra geral este tempo não é considerável, porque o modelo é muito pequeno.

Acabei de experimentar tudo com dados e até ensinei o JPrediction ferozmente a re-treinar quando tomo os mesmos dados, faço-os re-treinar e o resultado é que o treino sobe acentuadamente dentro de 20%. Ou seja, 75% tornou-se 90% e, ao mesmo tempo, tive uma terrível perda de feedback.

Agora que os serviços começam a aparecer para MO, eu uso AWS. Há uma secção sobre aprendizagem de máquinas e construção de modelos. Como resultado, eu construo lá e meu próprio modelo a partir do mesmo arquivo. Na AWS, a qualidade do modelo treinado é muitas vezes pior, mas demora 5 minutos a construí-lo. E não há tantas configurações.

Eu quero muito correr dois ficheiros idênticos mas em sistemas IIM diferentes e comparar o resultado na forma de uma secção negociada da EA, mas infelizmente não há especialistas neste fórum que tenham sistemas IIM completos. Todos aqui ainda estão à procura de.... alas...... Trickster!!!! Você encontrou???? A sua AI.......

 

Aqueles que lêem/pesquisam o livro

google colab tem suporte a GPU

e o TensorFlow já está instalado.

A única parte complicada é trabalhar com arquivos via api e google drive


Teste de desempenho da placa de vídeo:

Tempo (s) para convolver 32x7x7x7x3 filtro sobre imagens aleatórias 100x100x100x3 (lote x altura x largura x canal). Soma de dez execuções. CPU (s): 9,7673737689972 GPU (s): 0,16198209479Velocidade da GPU sobre a CPU: 60x

Não tenho ideia de como se faz, mas tudo funciona :)

e aqui o R, é claro, foi bater no meio do...l

 
Maxim Dmitrievsky:

Aqueles que lêem/pesquisam o livro

google colab tem suporte para a sua GPU

e TensorFlow já instalados

Em resumo, você não precisa instalar nada, basta fazer o login pelo seu navegador e trabalhar. O único problema é trabalhar com arquivos através da api e do disco do google


Teste de desempenho da minha placa de vídeo:

Tempo (s) para convolver 32x7x7x7x3 filtro sobre imagens aleatórias 100x100x100x3 (lote x altura x largura x canal). Soma de dez execuções. CPU (s): 9,7673737689972 GPU (s): 0,16198209479Velocidade da GPU sobre a CPU: 60x

Não tenho ideia de como é implementado, mas funciona :)


Isso é útil. Que tipo de laboratório é este?

 
Mihail Marchukajtes:

Agora, isso é útil. Que tipo de laboratório é este?


Vá lá, Mikhail.

mas é uma máquina virtual e eles usam a sua própria gpuha)