Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2396

 
Maxim Dmitrievsky:
Sim, você pode obtê-lo a partir dos meus artigos. Bem, o testador é o mais fácil. Posso enviar-lhe alguns exemplos de bot baseado em Python.

Bem, eu também tenho algo - baseado em testes rápidos das minhas ideias. Mas é um bocado usado para acabar a funcionar com um testador normal. Achas que vale a pena livrares-te deste hábito? )

 
Aleksey Nikolayev:

Bem, eu também tenho algo, aperfeiçoado para testar as minhas ideias rapidamente. Mas já é um pouco hábito acabar a geri-la no testador normal. Achas que vale a pena livrares-te deste hábito? )

Gosto de ambos, desde que se possa portar o modelo rapidamente.
 

MacBooks estão rasgando e jurando com os novos processadores em tarefas MoD. A má notícia é que o CatBoost ainda não suporta a arquitetura de braços, mas eles estão trabalhando nisso.

Conclusão

A partir destes testes, parece que

  • para treinamento MLP e LSTM, o CPU M1 é de longe muito mais rápido do que todos os servidores high-end testados
  • para treinamento CNN, M1 é apenas ligeiramente mais lento que os servidores high-end testados

Naturalmente, essas métricas só podem ser consideradas para tipos e profundidades de redes neurais similares às usadas neste teste.

Para grandes treinamentos e computação intensiva com duração superior a 20 minutos, ainda vou em busca de soluções baseadas na nuvem, pois elas fornecem cartões construídos para cargas tão longas e permitem o envio de vários trabalhos simultaneamente. Mas este cenário é apenas para algumas pesquisas específicas que representam apenas 10% do meu trabalho, a maioria para uso profissional em alguma área de negócio específica.

Como engenheiro de aprendizagem de máquinas, para a minha pesquisa pessoal diária, o M1 Mac é claramente a melhor e a opção mais rentável hoje em dia.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
Então, como estão os falcoeiros? As suas redes se tornaram inteligentes ou você fez um avanço tecnológico? Fale-me sobre isso!!!!
 

Alguém está familiarizado com este tipo de formação de professores?

Quando o professor não é uma etiqueta mas a própria pessoa, a pessoa clica na imagem que gosta e a AMO tenta separar esta imagem de tudo o resto e encontrar as mesmas imagens com o mesmo resultado na imagem...


Alguém sabe se existe tal treinamento e se sim, como se chama?

Eu sei como implementá-lo, mas talvez haja um ready-made?

 
Eu também tenho vontade de falar em voz alta. Um pensamento sobre o tema da não-estacionariedade. É claro como usar o método K-nearest vizinho nas suas condições. Tomamos os últimos padrões N no tempo, dos quais escolhemos K mais próximo do padrão de formação e tomamos uma decisão baseada nele. A simplicidade vem essencialmente da ausência de aprendizagem. Será que existem outros algoritmos de MO que sejam fáceis de usar de uma forma semelhante?
 
Aleksey Nikolayev:
Eu também queria expressar um pensamento em voz alta. Um pensamento sobre o tema da não-estacionariedade. É claro como usar o método K-nearest vizinho nas suas condições. Tomamos os últimos padrões N no tempo a partir do qual escolhemos K vizinhos mais próximos e tomamos uma decisão com base neles. A simplicidade vem essencialmente da ausência de aprendizagem. Será que existem outros algoritmos de MO que sejam fáceis de usar de uma forma semelhante?

Pesquisei e investiguei muito com este método, bem como o método em si, não sei porquê, mas é o mais próximo e intuitivo para mim...

Este método é da família das "previsões sem modelo".

É conhecido na Rede como "predição por análogos da pré-história" , "método de complexação de análogos do MSUA", etc...

Era uma vez usado para previsão do tempo...

Em essência, é o agrupamento habitual, só que mais preciso... A diferença é apenas que no centro habitual de um cluster (protótipo) é algo no meio entre analógicos, e o método dado o centro de um cluster é o preço actual ou o que quer que seja, assim é possível encontrar analógicos para o momento actual com maior precisão...

Até procurei padrões multidimensionais, até inventei a minha própria mini-metodologia para procurar padrões na pré-história, por isso, estou muito envolvida neste tópico...

 
mytarmailS:

Tenho pesquisado e pesquisado muito com este método e o método em si, não sei porquê, mas é o mais próximo e intuitivo para mim.

Está na família "sem previsões de modelos".

É conhecido na Rede como "predição por análogos da pré-história" , "método de complexação de análogos do MSUA", etc...

Era uma vez usado para previsão do tempo...

Em essência, é o agrupamento habitual, só que mais preciso... A diferença é apenas que no centro habitual de um cluster (protótipo) é algo no meio entre analógicos, e o método dado o centro de um cluster é o preço actual ou o que quer que seja, assim é possível encontrar analógicos mais precisamente para o momento actual...

Até procurei padrões multidimensionais, até inventei o meu próprio mini método para procurar padrões na pré-história, estou muito envolvido neste tópico...

O método é intuitivamente óbvio, por isso é impossível de evitar. Mas eu quero algum tipo de variedade. Por exemplo, algum modelo simples de requalificação, quando um novo exemplo é adicionado e os obsoletos são descartados.

 

Aleksey Nikolayev:

Alguns modelos simples de requalificação, onde um novo exemplo é adicionado e os obsoletos são expulsos.

Ou atirar fora exemplos obsoletos quando o tempo é demasiado importante em comparação com outros.

 
Aleksey Nikolayev:

Ou atirar fora exemplos obsoletos quando o tempo se revela uma característica demasiado significativa em comparação com outros.

Não vejo qual é a diferença entre a sua ideia e a constante reciclagem da AMO na janela deslizante...


Você tira as últimas n imagens da atual, ordenadas pelo tempo, faz uma previsão com base nelas, o que é suposto isso conseguir?

Você só se retrai numa janela deslizante como com o AMO acima, qual é a vantagem?