トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2018

 
マキシム・ドミトリエフスキー

この記事の狙いは...アプローチの要点をスケッチする。まだ、何をやっているのか理解できていません :D

私は、時系列からモデル自身が自動的に特徴を抽出するべきだという考えを持っています(もしあれば)。しかも、手動で何かをする必要はありません。小刻みで十分です。問題は、そのアーキテクチャです。例えば、NLP(神経言語処理)のように、ニューラルネットワーク自身が単語列の文脈、すなわち時系列サンプル間の接続を決定するような場合である。

遺伝子の木とCatBoostのつながりは弱い、CatBoostについて書く予定の記事。私は予測器の指標の安定性の欠点を発見し、それを修正するためにすべての力を投げていると同時に、新しい予測器を作ったという理由で書くのを延期した。今週中には、計算処理を開始し(そうしないと、サーバーがアイドル状態の時に煩わしい)、月末までに記事の最初の部分を書こうと考えています。CatBoostでのモデル作りの厨二病が記事になる予定です。

遺伝木の場合はもっと複雑で、まだ記事にはなりませんが、履歴上のデータの一部を安定的に分類する木の葉、つまり全サンプルの回答の0.5%〜3%を選択するというアプローチです。葉はその類似性によってグループ化され(まだ課題はある)、次にその応答が履歴上で各グループ内で重み付けされ、葉のグループからの信号が発生 する閾値が決定される。追加のフィルタとして、すべての葉または葉のグループのみの反応に基づく遺伝木がある。この手法により、アンバランスなサンプリングでも分類の完全性を大幅に高めることができ、私の場合はターゲットが3つで、ターゲット「0」が約65%という結果でした。

葉の選択基準や葉の集計方法に関する研究は、改善の余地が大きく、その結果、より質の高いモデルを作ることができる。

 
Aleksey Vyazmikin:

プレディクターは何の関係があるのでしょうか?

自分のことを考え、混乱していたに違いない)

 
マキシム・ドミトリエフスキー

私は、時系列からモデル自身が自動的に特徴を抽出すべきだと考えています(もしあれば)。しかも、手動で何かをする必要はありません。小刻みで十分です。問題は、そのアーキテクチャです。例えば、NLP(神経言語処理)のように、ニューラルネットワーク自身が単語列の文脈、つまり時系列サンプル間のつながりを決定する。

アーキテクチャについては、まったく別のアーキテクチャが必要であり、ネットワークのセットが必要だということに同意します。

1.画像の識別

2.画像の空間順序の決定

3.空間に配置された映像のパターンを探す。

今は、1、2のネットワークを自分の脳で解いて、プレディクターを作り、3番目のタスクでCatBoostがやって いる状態です。これらのネットワークを1つにまとめるのは難しいでしょう。もしかしたら、それぞれの方向で別々に作業をしてみて、その後、これらのネットワークを統合するのでしょうか?

 
アレクセイ・ヴャジミキン

今は、1,2のネットワークを自分の頭で解いて、予測式を構成し、CatBoostが3つ目のタスクを処理しているところです。これらのネットワークを1つに統合するのは難しいので、各方面に別々に働きかけてみて、これらのネットワークを統合するのがいいのでは?

技術革新を見なければならない、彼らは常に改良を続けているのです。現代のグリッドは、すべてを一度にこなすという、まったく同じタスクを持っています。

手作業で予測因子を探すのは、ピックで岩を叩くようなものです。そして、誰もが知っているように、それはほとんどうまくいきません
 
マキシム・ドミトリエフスキー

新製品には常に目を光らせていなければなりません。現代のグリッドは、すべてを一度にこなすという、まったく同じタスクを持っています。

手作業で予測因子を探すのは、岩にツルハシを打ち込むようなものです。そして、誰もが知っているように、それはほとんどうまくいきません

すべてを一度に行うには非常に複雑なアーキテクチャでなければならず、複雑になればなるほど処理能力も必要になってきます。

ただ、容量的に必要であれば(古いサーバーやGPUがある)、アイデア次第で提供する用意はあります;)

 
Aleksey Vyazmikin:

アーキテクチャが複雑になればなるほど、より多くの処理能力が必要になります。

しかし、電力が必要な場合(古いサーバーやGPUがある)、アイデアのために提供する用意があります ;)

むずかしくない、理解すればよい

パワーはまったく必要ないんです。私のノートPCのLSTMは、グラフィックカード無しで数分で学習します。パワーについては神話です。

 
Aleksey Vyazmikin:

アーキテクチャが複雑になればなるほど、より多くの処理能力が必要になります。

しかし、電力が必要な場合(古いサーバーやGPUがある)には、アイデアのために提供する用意があります ;)。

直接会って、アイデアを出す準備はできていますか?

 
マキシム・ドミトリエフスキー

複雑なことではなく、ただ理解すればいいのです。

電力はまったく必要ありません。ビデオカードがなくても、私のノートパソコンで数分でLSTMを教えることができるのです。パワーについては神話です。

複雑なアーキテクチャはうまくいかないと、自分で言っていたじゃないですか。複雑でないものは定常性が必要...。のサイクルになります。

数分とはすごいですね!ネットワークトポロジーは何層、ニューロンですか?

 
dr.mr.mom

直接会って話を聞いてみませんか?

直にできるんですね。

 
Aleksey Vyazmikin:

複雑でないアーキテクチャはうまくいかないと、自分で言っていたじゃないですか。複雑でないものは定常性が必要...。のサイクルになります。

すごい、2分ほどでかっこいい!ネットワークトポロジーは何層、ニューロン?

やれやれ...解明という意味では複雑ではありません。

通常、レイヤーを2つほど重ねれば十分で、FXで深みを出す必要はありません。

VRには、lstmよりもっと高度なネットワークがあり、冷静です。そこから利益が出るかもしれない、まだ確認してないが。ブースティングやパーセプトロンのような「古典的」なものは、すべてBPには適さないのです。

理由: