トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2464

 
Dmytryi Nazarchuk#:

MTを使用してモスクワ取引所にアクセスするには、どのブローカーを使用するのですか?

Otkrytie, BKS, Finam.それに関するスレッドが別にありますよ
 
ミハイル・ミシャニン#:

自然界では、最も実用的なもの、つまり最も「必要」なものが生き残り、増殖していくのです。そして、それを一切変えることなく、最も「実用的」な目標を訓練することが必要です。

データについては、そうですね、インプットに供給される情報ですが、理想的には、「目」「耳」「鼻」など、形成/受信することが望ましいですね。

1)ただし、「ニューラルネットワークを学習させるには、慎重に選択された巨大なデータセットが必要である。

新しいニューラルネットワークを作るには、アルゴリズムを設定し、すべてのデータをそれに通し、テストし、最適化を繰り返す必要があります。これは複雑で時間がかかる。そのため、より単純なアルゴリズム、例えば回帰を使う方が簡単な場合もあります。

2)私も最初は単純(回帰)に考えていたのですが・・・。しかし、線形回帰は、私の記憶では、価格は非線形で、リターンは線形(逆はないのか)-少なくとも先物のオプションでは-なので、混乱します...。最も悲しいことは、そのような分析が線形ではなく、リターンが線形であり、逆でない場合 - 少なくとも異なる有効期限のオプションのために、それは常にそのような良さの3D-画像によって正当化されないということです...。そして、このような分析の最も悲しい部分は、DB CMEによると、すべての価格は中央ストライクに整列し、私はレポートで不均衡を見るために、リアルタイムで監視する可能性を見ていないことです(私は仲裁人ではないので、それを気にすることはできません)...。そして、すべてが直線的ではなく、むしろ指数関数的な 論理で、(時間と金利 という2つの要因のモデルで)ワニとサイを交えたくはないのですが...。オプション価格では、すでにすべてがクロスしているようですが......。

3)

Mihail Marchukajtes#:
目標については全て正しいです。私の目標はシグナルからシグナルまで完璧です。シグナルが利益を生むなら1を入れ、負けるなら0を入れ、他には何もありません。ただし、利益はスプレッド条件で計算できます

ベイズの定理を使った機械学習アルゴリズムも考えられます(私にはそう見えました)。"これらのアルゴリズムは、テキスト文書を扱うために使用されます。例えば、スパムフィルタリングに... "です。一方、ニューラルネットワークは、層から層へと、より複雑な方法で動作します(ディープラーニング)...

とにかく、この3つの機械学習アルゴリズム を見て、これまでのところ、確率論の観点から、モデル中の目標関数を除外しないことはそう簡単 ではないこと、ベストからワーストまで過学習にならないこと、そして最も重要なことは、単に履歴に依存することだと実感しています...。アルゴリズム+データ+次のレイヤーへの選択条件=最も論理的と思われる(ただし、大量のデータを扱う場合のみで、常にそうであるとは限らない)

おそらく、だからこそ(3つのアルゴリズムのうち2つが落ちているため)単純回帰やベイズの定理よりも、H.Grid層の方がトレードでは有望なのでは...と。でも、要するに、私としては、ロボットの意思決定を膨大なサンプルを使って統計で裏付けるだけの、ありふれた意思決定プロセスのプログラミングに 終始しているというか......。しかし、残念ながら、そのようなものはあまりなく、出力の詳細を中心に据えるのではなく、出力の集合の可能性の範囲を中心に据えるものです同じレンジで...通常価格が変動する...(変動相場制自体がボラティリティを生むので)・・・。

と、トレーダーの意思決定プロセス(と自身の学習)を自ら学ばずに通すことはできない.トレーダーの意思決定プロセス(と彼自身の学習)は、それ自体を学習することなしにコード化することはできません... それから、ロボットに渡すものがありますが、もちろん、エラー分析アルゴリズムは(彼自身の脳に存在している間は)コーダーに転送することはできません...イムホ

よし、どうしたら逆上しないか(悪い意味でオーバートレーニングにならない ように)、暇なときにでも考えてみようか...。価格、OI、出来高- それはいずれにせよトレーダーの期待と決断のためのデータの一部に過ぎず、需要と供給はトレーダーから生まれるのであって、数学的モデルから生まれるのではない...。イムホ

(すなわち、引用に含まれる2カ国の財政・金融政策を考慮しない5つの要因)

Mikhail Mishanin さん、ありがとうございます。

一点だけ、あなたの見解と少し矛盾していませんか?(リンク先の引用文からはよくわからないが)。

基本的に、隠れ層はある種の数学的な機能を実行します。私たちが設定するのではなく、プログラムが自ら結果を出力するように学習するのです。

馬鹿なブルートフォースパスのようだ・・・。(ぱっくり)

p.s.そして、まだ。

イゴール・マカヌ#:

MOは歴史を覚えていない、モデルの再トレーニングについて話しているのでは?

ということは、単純な判断ではなく、ネットワークのレイヤーを充電するために、今の時点ではあまりデータを集められないということですね......。ということで、TMではなくRMで使える可能性に傾きつつあります。

Искусственный интеллект, машинное обучение и глубокое обучение: в чём разница
Искусственный интеллект, машинное обучение и глубокое обучение: в чём разница
  • skillbox.ru
Компьютер запросто диагностирует рак, управляет автомобилем и умеет обучаться. Почему же машины пока не захватили власть над человечеством?
 
ニューラルネットワークを教える前に、自分自身が何かを知らなければならない。トレードに関しては、自分の手でトレードできなければ、ロボットは役に立ちません
 

フォーラムについては、フィードバックから結論を導き出す方法を知らなければ、自分の脳が役に立たなければ、機械学習すらせずにそのようなロボットを作ることができる...。を、別の荒らしレポータートーカーに。

機械学習システムは、学習した知識を大規模なデータセットに素早く適用できるため、顔認識、音声認識、物体認識、翻訳などのタスクを得意とする。
 
JeeyCi#:

フォーラムについては、フィードバックから結論を導き出す方法を知らなければ、自分の脳が役に立たなければ、機械学習すらせずにそのようなロボットを作ることができる...。を、またもや荒らしレポータからジャンキーに転身させた。

+
 
イゴール・マカヌ#:

MoDは歴史を覚えていない、おそらくあなたは、モデルの再トレーニングについて話している

どうして覚えていないの?まさにその通りです。
ニューラルネットワークベースデータベース」という表現に出会ったことはありますか?一度出会ったことがありますが、NS・ツリーとは何かということを一番よく定義していると思います。

1つの木を最後の分割まで学習させると、すべての履歴を絶対的な精度で記憶する(オーバートレーニングのモデルを得る)ことができる。
最後の分割ではなく、もう少し前の分割(例えば、1枚のシートに10例ずつ)であれば、この最も類似した10例の結果を平均化し、一般化してメモリを 得ることができる。オーバーラーニングが少なくなる。つまり、アンダーラーニングがオーバーラーニングに変わり始めたら、分割を止めなければならないのです。これがメインであり、最も難しい課題です。

 
elibrarius#:

そうでないわけがない。まさにその通りです。
ニューラルネットワークベースデータベース」という表現に出会ったことはありますか?一度出会ったことがありますが、NS・ツリーとは何かということを一番よく定義していると思います。

1つの木を最後の分割まで学習させると、すべての履歴を絶対的な精度で記憶する(オーバートレーニングのモデルを得る)ことができる。
もし、最後の分割ではなく、少し前の分割(例えば、1枚のシートに10個の例がある)を止めると、一般化と、 この最も類似した10個の例の結果の平均化でメモリを 得ることができます。オーバーラーニングが少なくなる。つまり、最小限の過学習で除算の深さを見つけることです。


FXに適用、履歴を記憶し、それを元にトレードを行う?
 
Vladimir Baskakov#:
FXに応用、歴史を覚えてそれを元にトレードをする?

そうですね、歴史が繰り返されることを願っています。おそらく無駄なことです。しかし、それ以外に希望はない。

 
elibrarius#:

そうですね、歴史が繰り返されることを期待しています。おそらく無駄なことです。しかし、それ以外に希望はない。

彼ら自身は「シグナルズ」で警告を書き、過去の実績はその後もそうなるとは言っていない。面白い
 
Vladimir Baskakov#:
彼ら自身は「シグナルズ」で警告を書いていますが、過去の実績は、これがまだ続くとは言っていません。面白い

何が面白いって、誰も保証できないんですよ、他人の行動って。

機械学習は静的なものにしか使えない。マクシムカがそれを証明した。