トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 691 1...684685686687688689690691692693694695696697698...3399 新しいコメント Mihail Marchukajtes 2018.02.18 08:54 #6901 マキシム・ドミトリエフスキーしかし、これらの統計的アプローチはすべてFXには関係ありません :) 頭の中を整理するため市場全般に対してどのようなアプローチをとるかによります。例えば、述語を選択してモデルを得た後、学習させたモデルの結果に対して同じメトリクスを適用することができる。また、複数のモデルが学習されている場合は、これらの指標を使用して適切なモデルを選択します。それがいろいろな面で問題なのです。10機種を入手したら、その中から将来的にベストとなるものを選ぶ必要があります。そして、これはVIや同じ足場でも、得られたモデルの結果に基づいて構築することで実現できる......。IMHO Maxim Dmitrievsky 2018.02.18 09:04 #6902 ミハイル・マルキュカイツ市場全体に対してどのようなアプローチをとるかによります。例えば、予測因子を選定してモデルを得た後、学習させたモデルの結果に対して同じ指標を適用することができる。また、複数のモデルが学習されている場合は、これらの指標を使用して適切なモデルを選択します。それがいろいろな面で問題なのです。10機種を入手したら、その中から将来的にベストとなるものを選ぶ必要があります。そして、これはVIや同じ足場でも、得られたモデルの結果に基づいて構築することで実現できる......。IMHO刻々と変化する市場において、時間がかかりすぎると思います...個人的にはハンドトレードよりも時間がかかります。 効率について言えば、この方法は効率が悪く、低効率である。 だから、私はデータマイニングのためのデータマイニングには興味がない。 СанСаныч Фоменко 2018.02.18 09:20 #6903 Mihail Marchukajtes: 甘口!!!!話題の続きですが...。ご存知のようにRをひねり始め、各入出力間の最大VIを計算できるようになりましたが、それでも入力データを110から20~30に減らすには、出力に関する最大情報を持つ入力データを残すことが必要でした。その結果、私自身のテストにどんどん合格していくようになったのです。フィードバックループでどうなるのか見てみよう。1週間あればわかる。しかし、ここで私は、VI指標は1つでは不十分だと考えています。冗長性を計算して、列の数を減らすようにした方がいいですね。もしかしたら、相互情報以外に入力データを出力に推定できる関数がすでに準備されているかもしれない?はい、このスレッドでも何度も書いています。 機械学習モデル なしで使用される予測因子選択アルゴリズムは、アルゴリズムに組み込まれたものはそのアルゴリズムの一部であり、単に予測因子がその特定のアルゴリズムでどのように使われたかを知らせ、ターゲット変数に対する重要性については知らせないため、良い結果を与えます。 キャレットのアルゴリズムは非常に効果的で、3つあります。一般的にはこのパッケージを使うべきでしょう。データマイニング、つまり予測変数の選択、モデルの束、モデルの選択とその評価だけでなく、すべてが含まれているからです。ともあれ、このキャレットは「どうなるのか」の教科書として活用できる。 以前、自分用に作ったレビューがあるので、参考になるかもしれません。 ファイル: 6cnhh_flg1bj_w97vmencn1f.zip 44 kb Maxim Dmitrievsky 2018.02.18 09:30 #6904 サンサニッチ・フォメンコフルで、このスレッドに書くのは初めてではありません。 機械学習モデルなしで使用される予測因子選択アルゴリズムは、アルゴリズムに組み込まれたものがそのアルゴリズムの一部であり、ターゲット変数に対する重要性よりも、予測因子がその特定のアルゴリズムでどのように使用されたかを単に知らせるので、良い結果を与えます。 一度自分用にレビューしてみたので、参考になるかもしれません。考えてみると?この方法では、機能選択の無限のサイクルに入ることになる と、ほとんどのモデルが木の上に作られている例を挙げていますね(笑) :) Mihail Marchukajtes 2018.02.18 09:36 #6905 マキシム・ドミトリエフスキー刻々と変化する市場において、時間がかかりすぎると思います...個人的にはハンドトレードよりも時間がかかります。 また、データマイニングのためのデータマイニングには興味がありません。計算能力ではなく、取引の準備にかかる時間を考慮すると、なかなか面白いことがわかります。私は次のようなことをしています。 土曜日はモデル制作に4~8時間(営業日)、金曜日はTSの動作状態を判断するためにOOSとして残しています。こうして土曜日は翌週への準備に費やされる。また、市場があまりにも速く変化しているため、5年というタイムフレームでモデルを構築するのは馬鹿げているという事実については、まったくその通りです。原則として、TSはトレーニング期間の50%を鍛えれば、それなりの結果が得られると思います。その結果、モデルが大きいと学習の質が悪くなるので意味がない(学習期間が長いほどモデルが悪くなる)と考え、学習期間を2週間とし、少なくとも1週間はTSに働いてもらえるようにしました。その結果、10個ほどのモデルができ、そのモデルをあらゆる種類のテストにかけ、そして今、あらゆる種類のメトリクスを手に入れた......。これらのテストに合格したものを正確に選び、それをすべてUPUに載せて......というのが、次の土曜日までの無料期間です。ロボットは独立して動作し、私は命令の実行を コントロールするだけです。それで......引っかからないように見張っていてください。以前は毎朝TSをチェックしてパラメータを1つ設定しなければならなかったが、今はこの問題から解放され、TSUには全く行かず、2~3日に一度、それもこの間にトレードがなければだが、それにしても.クソくらえだ。その結果、私の仕事は案件ごとにではなく、数週間単位で見積もられることになりました。1週間で損益を出すのですが、もっと儲かる週を作るのがメインです。しかし、事実はそうです。 次の週はズボンに手を突っ込んで相場のことを考えず、学生にいろいろなコンピュータの技を教えるために、土曜日に5時間を費やしたのです。座って行うマニュアル取引には、デメリットがあります。一日中モニターの前に座っていても、お金を失うだけでなく、時間のロスにもつながる。そしてご存知の通り、時間は再生不可能な資源です!!!!!!! ロボットトレードをするのであれば、市場にいる時間をできるだけ少なくし、市場が失敗した場合に、現実の部門(仕事、作業場など)で何らかの収入を得ることでそれを回避できるようにする必要があります。 常に変化する市場において、大きなモデルを構築する意味はないのです。唯一の違いは、通常、小さなモデルの方が学習結果が良く、構築も速いということです。 市場追随の適応型モデルについても、新しいデータによってモデルの構造が修正されると、そのようなモデルは長生きはしない。時間間隔で自動的に再トレーニングを行い、自分自身を選択するなどの自己トレーニングシステムであれば別ですが。明らかにインテリジェンスの香りがするのですが、まだ先の話だと思います。IMHOは当然!!!! Maxim Dmitrievsky 2018.02.18 09:44 #6906 ミハイル・マルキュカイツ新しいデータによってモデル自体の構造を調整する適応型市場フォローモデルについても、長続きはしない。間隔を空けて自動的に再トレーニングを行い、自ら選択するなどの自己学習型システムであれば別ですが。明らかにインテリジェンスの香りがするのですが、まだ先の話だと思います。IMHOは当然!!!!そして、「活動」の結果をニューラルネットワークで近似し、その推定値を一定の確率で用いて、新たな判断とその後の調整を行うのです。 少なくとも、FXではより論理的なアプローチになります。 大雑把に言えば、このようなシステムは常にさまざまな状態を突き、自分が行ったことを記憶し、結果を分析し、その経験に基づいて判断を下す...ある者は忘れ、ある者は改善する...ということです。これは一種のAIで、ほとんど本物のトレーダーのように取引します:) これは本物の学習であり、これまで行ってきたような通常の近似値ではありません。 Mihail Marchukajtes 2018.02.18 09:54 #6907 サンサニッチ・フォメンコフルで、このスレッドに書くのは初めてではありません。 アルゴリズムに組み込まれた予測変数はそのアルゴリズムの一部であり、ターゲット変数に対する重要性ではなく、単にその特定のアルゴリズムで予測変数がどのように使用されたかを知らせるからである。 キャレットのアルゴリズムは非常に効果的で、3つあります。一般的にはこのパッケージを使うべきでしょう。データマイニング、つまり予測変数の選択、モデルの束、モデルの選択とその評価だけでなく、すべてが含まれているからです。ともあれ、このキャレットは「どうなるのか」の教科書として活用できる。 一度、自分用に復習をしたのですが、参考になるかもしれません。ありがとうございました。キャレットをインストールしました。やってみるよ。しかし、先日ここで気がつきました。今のところ、形にして組み立てることができる最大限のインプットは110くらいです。昔、3年以上前にやって、もしこのインプットが私が考えるほど良いものでなかったらどうしよう、と思ったのが、TSのインプット探しを再開しようと思ったきっかけです!!!!特にスタッツメトリクスを使えば、もっと簡単にできるようになります。まず、すべてを一般的な山に入れ、それをある基準に従ってふるいにかけ、重要なものだけを残すのです。 KDのデニスと連絡を取り、彼は全く違う性質の、しかし市場に関連したデータを入手するのを手伝ってくれると約束してくれました。というのも、この場合、私たちは時間軸を追いながら、価格軸で稼いでいることになるからです。したがって、市場は時間軸ではなく、価格軸(プロファイル)で分析する必要がある。デニスさんは、デルタのプロファイルの構築などに協力することを約束した。そして、このデータこそが、例えばN本の棒にかかるデルタよりも、AIにとって興味深いものになるのです。さらに彼はSMEでマーケットも取っているので、OMに到達する可能性があり、これとボリュームを合わせるとGOGOYOYO!!!!!!!もちろんOMが天候を左右するわけではありませんが、TCの性能に5〜10%プラスされることは、時にこのパーセンテージが足りなくなることもあるので、損はしないでしょう......。 СанСаныч Фоменко 2018.02.18 09:57 #6908 マキシム・ドミトリエフスキー考えてみたらどうでしょう。この方法では、機能選択の無限のサイクルに入ることになる と、ほとんどのモデルが木の上に構築されている例を落としました(笑) :)考えるまでもなく、私にとっては、むしろ実験結果のアーカイブを持つ通過点なのです。 何度も書いていることを繰り返します。 1.ターゲットZZ 2.このターゲットに対して、約200の予測式を考案しました。 3. 「ターゲットへの影響」アルゴリズムを用いて、200の中から27の予測変数が選択された。 4.各バー上の27の予測変数から予測変数を選択し、選択した予測変数の数を6-7から27のうち15に変更しました。 5.フィッティング rf.フィッティングエラーは30%弱。 無限のサイクルはありません。30%というのは非常に良い結果ですが、理論上はそうなります。この結果を使って実用的なExpert Advisorを構築することはできず、トレンド指標を 追加することになりました。現在、GARCHの指標を変更しているところです。 Mihail Marchukajtes 2018.02.18 09:58 #6909 マキシム・ドミトリエフスキーそれはすべて長い間そこにありました :) それは機能し、常に学習しています。そして、「活動」の結果はニューラルネットワークによって近似され、これらの推定値は、新しい決定とその後の調整のために一定の確率で使用されます。 少なくとも、FXではより論理的なアプローチになります。 大雑把に言うと、このようなシステムは、常にさまざまな状態をつつきながら、自分がやったことを思い出し、結果を分析し、その経験に基づいて判断する...一部は忘れ、一部は良くなる...ということです。まるでAIのように、本物のトレーダーとほぼ同じような取引ができる :)これが第一の選択肢で、第二は、比較的短期間に適応しない小型のモデルを作ることです。いわば、市場を荒らすということです。来て最適化し、庶民から2、3の良い取引を奪って、次の機会までお休みです...。 Vladimir Perervenko 2018.02.18 10:00 #6910 予測値の選択、抽出、作成が可能です。しかし、いわゆる「ノイズ」予測因子に加えて、再分割または削除が必要な「ノイズ」例も存在することを忘れないでください。記事でそのすべてを読み、事例を繰り返すことができます ディープニューラルネットワーク(第三部)。例題の選択と次元削減 ディープ・ニューラル・ネットワーク(後編)。予測因子の開発と選択 ディープ・ニューラル・ネットワーク(前 編)。データ作成 機械学習モデルの評価と 変数の選択 グッドラック 1...684685686687688689690691692693694695696697698...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
しかし、これらの統計的アプローチはすべてFXには関係ありません :)
頭の中を整理するため市場全般に対してどのようなアプローチをとるかによります。例えば、述語を選択してモデルを得た後、学習させたモデルの結果に対して同じメトリクスを適用することができる。また、複数のモデルが学習されている場合は、これらの指標を使用して適切なモデルを選択します。それがいろいろな面で問題なのです。10機種を入手したら、その中から将来的にベストとなるものを選ぶ必要があります。そして、これはVIや同じ足場でも、得られたモデルの結果に基づいて構築することで実現できる......。IMHO
市場全体に対してどのようなアプローチをとるかによります。例えば、予測因子を選定してモデルを得た後、学習させたモデルの結果に対して同じ指標を適用することができる。また、複数のモデルが学習されている場合は、これらの指標を使用して適切なモデルを選択します。それがいろいろな面で問題なのです。10機種を入手したら、その中から将来的にベストとなるものを選ぶ必要があります。そして、これはVIや同じ足場でも、得られたモデルの結果に基づいて構築することで実現できる......。IMHO
刻々と変化する市場において、時間がかかりすぎると思います...個人的にはハンドトレードよりも時間がかかります。
効率について言えば、この方法は効率が悪く、低効率である。
だから、私はデータマイニングのためのデータマイニングには興味がない。
甘口!!!!話題の続きですが...。ご存知のようにRをひねり始め、各入出力間の最大VIを計算できるようになりましたが、それでも入力データを110から20~30に減らすには、出力に関する最大情報を持つ入力データを残すことが必要でした。その結果、私自身のテストにどんどん合格していくようになったのです。フィードバックループでどうなるのか見てみよう。1週間あればわかる。
しかし、ここで私は、VI指標は1つでは不十分だと考えています。冗長性を計算して、列の数を減らすようにした方がいいですね。
もしかしたら、相互情報以外に入力データを出力に推定できる関数がすでに準備されているかもしれない?
はい、このスレッドでも何度も書いています。
機械学習モデル なしで使用される予測因子選択アルゴリズムは、アルゴリズムに組み込まれたものはそのアルゴリズムの一部であり、単に予測因子がその特定のアルゴリズムでどのように使われたかを知らせ、ターゲット変数に対する重要性については知らせないため、良い結果を与えます。
キャレットのアルゴリズムは非常に効果的で、3つあります。一般的にはこのパッケージを使うべきでしょう。データマイニング、つまり予測変数の選択、モデルの束、モデルの選択とその評価だけでなく、すべてが含まれているからです。ともあれ、このキャレットは「どうなるのか」の教科書として活用できる。
以前、自分用に作ったレビューがあるので、参考になるかもしれません。
フルで、このスレッドに書くのは初めてではありません。
機械学習モデルなしで使用される予測因子選択アルゴリズムは、アルゴリズムに組み込まれたものがそのアルゴリズムの一部であり、ターゲット変数に対する重要性よりも、予測因子がその特定のアルゴリズムでどのように使用されたかを単に知らせるので、良い結果を与えます。
一度自分用にレビューしてみたので、参考になるかもしれません。
考えてみると?この方法では、機能選択の無限のサイクルに入ることになる
と、ほとんどのモデルが木の上に作られている例を挙げていますね(笑) :)
刻々と変化する市場において、時間がかかりすぎると思います...個人的にはハンドトレードよりも時間がかかります。
また、データマイニングのためのデータマイニングには興味がありません。
計算能力ではなく、取引の準備にかかる時間を考慮すると、なかなか面白いことがわかります。私は次のようなことをしています。
土曜日はモデル制作に4~8時間(営業日)、金曜日はTSの動作状態を判断するためにOOSとして残しています。こうして土曜日は翌週への準備に費やされる。また、市場があまりにも速く変化しているため、5年というタイムフレームでモデルを構築するのは馬鹿げているという事実については、まったくその通りです。原則として、TSはトレーニング期間の50%を鍛えれば、それなりの結果が得られると思います。その結果、モデルが大きいと学習の質が悪くなるので意味がない(学習期間が長いほどモデルが悪くなる)と考え、学習期間を2週間とし、少なくとも1週間はTSに働いてもらえるようにしました。その結果、10個ほどのモデルができ、そのモデルをあらゆる種類のテストにかけ、そして今、あらゆる種類のメトリクスを手に入れた......。これらのテストに合格したものを正確に選び、それをすべてUPUに載せて......というのが、次の土曜日までの無料期間です。ロボットは独立して動作し、私は命令の実行を コントロールするだけです。それで......引っかからないように見張っていてください。以前は毎朝TSをチェックしてパラメータを1つ設定しなければならなかったが、今はこの問題から解放され、TSUには全く行かず、2~3日に一度、それもこの間にトレードがなければだが、それにしても.クソくらえだ。その結果、私の仕事は案件ごとにではなく、数週間単位で見積もられることになりました。1週間で損益を出すのですが、もっと儲かる週を作るのがメインです。しかし、事実はそうです。
次の週はズボンに手を突っ込んで相場のことを考えず、学生にいろいろなコンピュータの技を教えるために、土曜日に5時間を費やしたのです。座って行うマニュアル取引には、デメリットがあります。一日中モニターの前に座っていても、お金を失うだけでなく、時間のロスにもつながる。そしてご存知の通り、時間は再生不可能な資源です!!!!!!!
ロボットトレードをするのであれば、市場にいる時間をできるだけ少なくし、市場が失敗した場合に、現実の部門(仕事、作業場など)で何らかの収入を得ることでそれを回避できるようにする必要があります。
常に変化する市場において、大きなモデルを構築する意味はないのです。唯一の違いは、通常、小さなモデルの方が学習結果が良く、構築も速いということです。
市場追随の適応型モデルについても、新しいデータによってモデルの構造が修正されると、そのようなモデルは長生きはしない。時間間隔で自動的に再トレーニングを行い、自分自身を選択するなどの自己トレーニングシステムであれば別ですが。明らかにインテリジェンスの香りがするのですが、まだ先の話だと思います。IMHOは当然!!!!
新しいデータによってモデル自体の構造を調整する適応型市場フォローモデルについても、長続きはしない。間隔を空けて自動的に再トレーニングを行い、自ら選択するなどの自己学習型システムであれば別ですが。明らかにインテリジェンスの香りがするのですが、まだ先の話だと思います。IMHOは当然!!!!
そして、「活動」の結果をニューラルネットワークで近似し、その推定値を一定の確率で用いて、新たな判断とその後の調整を行うのです。
少なくとも、FXではより論理的なアプローチになります。
大雑把に言えば、このようなシステムは常にさまざまな状態を突き、自分が行ったことを記憶し、結果を分析し、その経験に基づいて判断を下す...ある者は忘れ、ある者は改善する...ということです。これは一種のAIで、ほとんど本物のトレーダーのように取引します:) これは本物の学習であり、これまで行ってきたような通常の近似値ではありません。フルで、このスレッドに書くのは初めてではありません。
アルゴリズムに組み込まれた予測変数はそのアルゴリズムの一部であり、ターゲット変数に対する重要性ではなく、単にその特定のアルゴリズムで予測変数がどのように使用されたかを知らせるからである。
キャレットのアルゴリズムは非常に効果的で、3つあります。一般的にはこのパッケージを使うべきでしょう。データマイニング、つまり予測変数の選択、モデルの束、モデルの選択とその評価だけでなく、すべてが含まれているからです。ともあれ、このキャレットは「どうなるのか」の教科書として活用できる。
一度、自分用に復習をしたのですが、参考になるかもしれません。
ありがとうございました。キャレットをインストールしました。やってみるよ。しかし、先日ここで気がつきました。今のところ、形にして組み立てることができる最大限のインプットは110くらいです。昔、3年以上前にやって、もしこのインプットが私が考えるほど良いものでなかったらどうしよう、と思ったのが、TSのインプット探しを再開しようと思ったきっかけです!!!!特にスタッツメトリクスを使えば、もっと簡単にできるようになります。まず、すべてを一般的な山に入れ、それをある基準に従ってふるいにかけ、重要なものだけを残すのです。
KDのデニスと連絡を取り、彼は全く違う性質の、しかし市場に関連したデータを入手するのを手伝ってくれると約束してくれました。というのも、この場合、私たちは時間軸を追いながら、価格軸で稼いでいることになるからです。したがって、市場は時間軸ではなく、価格軸(プロファイル)で分析する必要がある。デニスさんは、デルタのプロファイルの構築などに協力することを約束した。そして、このデータこそが、例えばN本の棒にかかるデルタよりも、AIにとって興味深いものになるのです。さらに彼はSMEでマーケットも取っているので、OMに到達する可能性があり、これとボリュームを合わせるとGOGOYOYO!!!!!!!もちろんOMが天候を左右するわけではありませんが、TCの性能に5〜10%プラスされることは、時にこのパーセンテージが足りなくなることもあるので、損はしないでしょう......。
考えてみたらどうでしょう。この方法では、機能選択の無限のサイクルに入ることになる
と、ほとんどのモデルが木の上に構築されている例を落としました(笑) :)
考えるまでもなく、私にとっては、むしろ実験結果のアーカイブを持つ通過点なのです。
何度も書いていることを繰り返します。
1.ターゲットZZ
2.このターゲットに対して、約200の予測式を考案しました。
3. 「ターゲットへの影響」アルゴリズムを用いて、200の中から27の予測変数が選択された。
4.各バー上の27の予測変数から予測変数を選択し、選択した予測変数の数を6-7から27のうち15に変更しました。
5.フィッティング rf.フィッティングエラーは30%弱。
無限のサイクルはありません。30%というのは非常に良い結果ですが、理論上はそうなります。この結果を使って実用的なExpert Advisorを構築することはできず、トレンド指標を 追加することになりました。現在、GARCHの指標を変更しているところです。
それはすべて長い間そこにありました :) それは機能し、常に学習しています。そして、「活動」の結果はニューラルネットワークによって近似され、これらの推定値は、新しい決定とその後の調整のために一定の確率で使用されます。
少なくとも、FXではより論理的なアプローチになります。
大雑把に言うと、このようなシステムは、常にさまざまな状態をつつきながら、自分がやったことを思い出し、結果を分析し、その経験に基づいて判断する...一部は忘れ、一部は良くなる...ということです。まるでAIのように、本物のトレーダーとほぼ同じような取引ができる :)これが第一の選択肢で、第二は、比較的短期間に適応しない小型のモデルを作ることです。いわば、市場を荒らすということです。来て最適化し、庶民から2、3の良い取引を奪って、次の機会までお休みです...。
予測値の選択、抽出、作成が可能です。しかし、いわゆる「ノイズ」予測因子に加えて、再分割または削除が必要な「ノイズ」例も存在することを忘れないでください。記事でそのすべてを読み、事例を繰り返すことができます
ディープニューラルネットワーク(第三部)。例題の選択と次元削減
ディープ・ニューラル・ネットワーク(後編)。予測因子の開発と選択
ディープ・ニューラル・ネットワーク(前 編)。データ作成
機械学習モデルの評価と 変数の選択
グッドラック