トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2396

 
Maxim Dmitrievsky:
はい、私の記事から入手することができます。まあ、テスターが一番簡単なんですけどね。Pythonベースのボットの例をいくつかお送りします。

私も、自分のアイデアを素早く検証することに重点を置いて、何かを得ています。でも、普通のテスターで動かして終わりというのは、なんだか勿体ないですね。この習慣をなくす価値があると思いますか?)

 
アレクセイ・ニコラエフ

私も、自分のアイデアを素早く検証するために、研ぎ澄まされたものを手に入れました。でも、結局は普通のテスターで動かしてしまうのがもう癖になっていますね。この習慣をなくす価値があると思いますか?)

モデルを素早く移植できるのであれば、どちらも好きです。
 

MacBookは、MoDのタスクで新しいプロセッサーを使い、涙と悪態をついています。悪いニュースは、CatBoostが まだarmアーキテクチャをサポートしていないことですが、彼らはそれに取り組んでいるようです。

結論

これらのテストから、以下のことがわかります。

  • MLPと LSTMの学習において M1 CPUは テストしたすべてのハイエンドサーバーよりも圧倒的に高速 でした。
  • CNNの学習 用として M 1はテストしたハイエンドサーバーよりもわずかに遅い

もちろん、これらの指標は、今回のテストで使用したのと同様のニューラルネットワークの種類と深さに対してのみ考慮することができます。

大きなトレーニングや20分以上の集中的な計算には、やはりクラウドベースのソリューションが適しています。しかし、このシナリオは、私の仕事の10%に過ぎない特定の研究のためだけのもので、ほとんどは特定のビジネス分野で専門的に使用するためのものです。

機械学習のエンジニアとして、日々の個人的な研究にとって、M1 Macは明らかに現在最高の、そして最もコスト効率の良い選択肢です。

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
では、鷹匠はどうしているのでしょうか。ネットがインテリジェントになったのか、それとも技術的にブレークスルーがあったのか?教えてください!!!!
 

このようなティーチャートレーニングをご存知の方はいらっしゃいますか?

先生がラベルではなく本人である場合、本人が気に入った画像をクリックすると、AMOはその画像を他のものから分離して、画像構造の中から同じ結果の画像を見つけ出そうとする...。


このようなトレーニングがあるかどうか、あるとすればどのようなものか、ご存知の方はいらっしゃいますか?

実装の仕方はわかるのですが、もしかして既製品があるのでしょうか?

 
私も声を大にして言いたい衝動に駆られます。非定常性についての一考察。K-nearest-neighbor方式をその条件下でどう使うかが明確になっている。時間的に直近のN個の パターンを取り出し、その中から形成パターンに最も近いK個を選び、それに基づいて判定を行うのである。シンプルなのは、基本的に学習が不要なためです。同じように使いやすいMOアルゴリズムって他にもあるのかなぁ。
 
Aleksey Nikolayev:
私も声を大にして思いを伝えたいと思いました。非定常性についての一考察。K-nearest-neighbor方式をどのように使うかは、その条件によって明確である。時間的に直近のN個の パターンを取り出し、そこからK個の最近傍を選び、それらに基づいて判定を行うのです。シンプルなのは、基本的に学習が不要なためです。同じような方法で使いやすいMOアルゴリズムって他にもあるんでしょうかね?

このメソッドも、メソッドそのものはもちろん、いろいろと調べてみたのですが、なぜかわからないけど、一番身近で直感的にわかる......。

この方法は、「モデル予測なし」の系列に属します。

ネット上では、「前史からの類推による予測」「MSUAの類推による複合化手法」等と呼ばれている...。

その昔、天気予報に使われたことも...。

要するにいつものクラスタリングなんですが、より精度が高いということで...。通常のクラスタリングではクラスタの中心(プロトタイプ)が類似品間の中間であるのに対し、与えられた手法ではクラスタの中心が現在の価格など であるため、より正確に現在の瞬間の類似品を見つけることができるという違いだけです...。

多次元的なパターンを探したり、先史時代のパターンを探すミニ方法論を自分で考案したりもしましたから、このテーマはとても奥が深いんです......。

 
mytarmailS:

この方法と方法自体でいろいろと調べたり、調べたりしたのですが、なぜかわからないけど一番身近で直感的にわかるんです。

モデル予測なし」の系列です。

ネット上では、「前史からの類推による予測」「MSUAの類推による複合化手法」等と呼ばれている...。

その昔、天気予報に使われたことも...。

要するにいつものクラスタリングなんですが、より精度が高いということで...。通常のクラスタリングではクラスタの中心(プロトタイプ)が類似品間の中間であるのに対し、与えられた手法ではクラスタの中心が現在の価格など であるため、現在の状況下でより正確に類似品を見つけることができるという違いがあるだけです...。

多次元的なパターンを探したり、先史時代のパターンを探すためのミニメソッドを自分で考案したりもしましたから、このテーマはとても奥が深いんです......。

直感的にわかる方法なので、避けては通れないのです。でも、何かしらバリエーションが欲しい。例えば、ある簡単なモデルの再トレーニングでは、新しい例を1つ追加し、古い例を破棄します。

 

アレクセイ・ニコラエフ

新しい例を1つ追加し、古い例を捨てるという簡単なモデルの再トレーニングもあります。

あるいは、時間が他と比較してあまりにも重要である場合に、時代遅れの例を投げ出すこと。

 
アレクセイ・ニコラエフ

あるいは、時間が他と比較してあまりにも重要な機能であることが証明された場合、時代遅れの例を捨てること。

あなたのアイデアと、スライディングウィンドウでAMOを常に再トレーニングすることの違いがわからないのですが...。


現在の画像から時間順に直近のn枚を取り出し、それを元に予測を立てる、そんなことして何になるんだ?

上記のAMOのようにスライディングウィンドウで再トレーニングするだけですが、何か利点があるのでしょうか?

理由: