トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 887 1...880881882883884885886887888889890891892893894...3399 新しいコメント Yuriy Asaulenko 2018.05.07 14:58 #8861 マキシム・ドミトリエフスキーhftはミリ秒、マイクロ秒の単位で、ケーブルの1メートル単位が重要なのです。 ただのスキャルピングだろ。はい、それは承知しています。HFTの方法論は、もっと長い距離でも使えるということです。一部脚色あり。 Aleksey Vyazmikin 2018.05.07 14:58 #8862 エリブラリウスコード例を含むその他の記事はこちら https://www.mql5.com/ru/users/vlad1949/publications いくつかは3回読んで、それらの例がどのように機能するかを理解しようとしました。そうすると、もう自分で何かを作ることができるんです。はい、ありがとうございます、素晴らしい、読みましたが、もっと読みます。非常に難解で、学習レベルごとに戻らないと、言葉の半分も理解できません。 でも、Rattleに新しいサンプルをロードする方法を理解したいのです :) Maxim Dmitrievsky 2018.05.07 14:59 #8863 ユーリイ・アサウレンコ私が言いたいのは、HFTの手法は、より長い距離にも使えるということです。一部脚色あり。でも、FXでは、少なくともECN市場ではそうではないかもしれませんね。 Yuriy Asaulenko 2018.05.07 17:44 #8864 アリョーシャ恥を知れ!残念!!!でも今は、かっこいい!とか、ランダムワンダリングで5%の誤差がある。市場はランダムな浪漫であり、これが自然な状態であり、あらゆる種類のジャンプやダンスは標準からの逸脱であることを彼らは理解したのだろうか)。 Aleksey Vyazmikin 2018.05.07 18:08 #8865 バーアワーのような予測因子を加えてみたところ、大きなジャンプがありました。 チュートリアル版のDeductor Studioは、モデルのテキストファイルへのアップロードをブロックせず、エクセルやhtmlの各種ニコイチへのアップロードのみをブロックすることが判明しました。だから、私は次のようなルールを決めています。 そこで、これらのデータアレイをどのように整理すれば、作業の利便性とスピードアップにつながるのか? Forester 2018.05.07 20:01 #8866 アレクセイ・ヴャジミキンバーアワーのような予測因子を加えてみたところ、大きなジャンプがありました。 チュートリアル版のDeductor Studioは、モデルのテキストファイルへのアップロードをブロックせず、エクセルやhtmlの各種ニコイチへのアップロードのみをブロックすることが判明しました。だから、私は次のようなルールを決めています。 そこで、これらのデータをどのように整理し、利便性とスピードアップを図るか? 今まで配列を崩したことがないんです。その方法と、最も重要な理由を説明してください。 Googled -CollapseArray(nArray) - 配列の中の繰り返し値を削除 する。 これかな?重複した行を削除しますか? Aleksey Vyazmikin 2018.05.07 20:09 #8867 エリブラリウス アレイを崩したことがない。その方法と、最も重要な「理由」を説明してください。 ググってみると、collapseArray(nArray) - 配列の中で繰り返される値を削除 します。 これかな?重複を削除しますか?今、どうしたらいいか考えながら歩いている...。そこで、階段状に配列して、繰り返しの部分を切り捨てるとか...、1行に書いて、それに合わせてプレディクタ(リアルタイムで受信した入力データ)からのデータも1行にまとめるとか...、いろいろ考えたのですが、プレディクタの数だけ文字列長の 制限を超えてしまうので、この辺にしました。 Forester 2018.05.07 20:30 #8868 アレクセイ・ヴャジミキン今、どうしたらいいか考えながら歩いている...。そこで、繰り返しの部分を切り捨てるように階段状に配列する...あるいは、1行で書いて、それぞれプレディクタ(リアルタイムで受信する入力データ)からのデータも1行でまとめる...ということも考えましたが、これではプレディクタの数による文字列長の 制限を超えてしまうので、「1,0,2,3,4,5,6,7...」としました。 繰り返しが必要だと思います、より重要な状況になりますよ。過去に100回繰り返された場合は、1-2回起こった場合よりも未来に起こる可能性が高くなる TheXpert 2018.05.07 20:39 #8869 アリョーシャ私も同感で、pythonはHFTにとって最も上位のカーネルです。研究用ならともかく、生産用とは......信じられません。 Aleksey Vyazmikin 2018.05.07 20:39 #8870 エリブラリウス 繰り返しが必要だと思います、それが重要性を強化することになります。過去に100回繰り返されたことは、1-2回起こったことよりも、未来に起こりそうなことであるだから、サポートや信頼性が高いものだけを取ることにしています。このように、リアルタイムとヒストリー上でインジケータに予測値を生成して文字列に追加し、この文字列を配列で検索して、見つかったらそのバーをエントリーに有利なものとしてマークし、見つからなかったら何もしないという作業を私は行っています。したがって、文字列を2倍にすると配列が増えるだけである。もちろん、色でグラデーションを作り、信頼性や支持率などの情報(一方を掛け合わせることで係数が得られ、値によって色が変わる)を持たせることもできますが、その場合はint型の 配列をインデックスで別に作るだけの方が簡単です。あるいは、何か理解できない...。 1...880881882883884885886887888889890891892893894...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
hftはミリ秒、マイクロ秒の単位で、ケーブルの1メートル単位が重要なのです。
ただのスキャルピングだろ。
はい、それは承知しています。HFTの方法論は、もっと長い距離でも使えるということです。一部脚色あり。
コード例を含むその他の記事はこちら
https://www.mql5.com/ru/users/vlad1949/publications
いくつかは3回読んで、それらの例がどのように機能するかを理解しようとしました。そうすると、もう自分で何かを作ることができるんです。
はい、ありがとうございます、素晴らしい、読みましたが、もっと読みます。非常に難解で、学習レベルごとに戻らないと、言葉の半分も理解できません。
でも、Rattleに新しいサンプルをロードする方法を理解したいのです :)
私が言いたいのは、HFTの手法は、より長い距離にも使えるということです。一部脚色あり。
でも、FXでは、少なくともECN市場ではそうではないかもしれませんね。
恥を知れ!残念!!!でも今は、かっこいい!とか、ランダムワンダリングで5%の誤差がある。
市場はランダムな浪漫であり、これが自然な状態であり、あらゆる種類のジャンプやダンスは標準からの逸脱であることを彼らは理解したのだろうか)。
バーアワーのような予測因子を加えてみたところ、大きなジャンプがありました。
チュートリアル版のDeductor Studioは、モデルのテキストファイルへのアップロードをブロックせず、エクセルやhtmlの各種ニコイチへのアップロードのみをブロックすることが判明しました。だから、私は次のようなルールを決めています。
そこで、これらのデータアレイをどのように整理すれば、作業の利便性とスピードアップにつながるのか?
バーアワーのような予測因子を加えてみたところ、大きなジャンプがありました。
チュートリアル版のDeductor Studioは、モデルのテキストファイルへのアップロードをブロックせず、エクセルやhtmlの各種ニコイチへのアップロードのみをブロックすることが判明しました。だから、私は次のようなルールを決めています。
そこで、これらのデータをどのように整理し、利便性とスピードアップを図るか?
Googled -CollapseArray(nArray) - 配列の中の繰り返し値を削除 する。
これかな?重複した行を削除しますか?
アレイを崩したことがない。その方法と、最も重要な「理由」を説明してください。
ググってみると、collapseArray(nArray) - 配列の中で繰り返される値を削除 します。
これかな?重複を削除しますか?
今、どうしたらいいか考えながら歩いている...。そこで、階段状に配列して、繰り返しの部分を切り捨てるとか...、1行に書いて、それに合わせてプレディクタ(リアルタイムで受信した入力データ)からのデータも1行にまとめるとか...、いろいろ考えたのですが、プレディクタの数だけ文字列長の 制限を超えてしまうので、この辺にしました。
今、どうしたらいいか考えながら歩いている...。そこで、繰り返しの部分を切り捨てるように階段状に配列する...あるいは、1行で書いて、それぞれプレディクタ(リアルタイムで受信する入力データ)からのデータも1行でまとめる...ということも考えましたが、これではプレディクタの数による文字列長の 制限を超えてしまうので、「1,0,2,3,4,5,6,7...」としました。
私も同感で、pythonはHFTにとって最も上位のカーネルです。
研究用ならともかく、生産用とは......信じられません。
繰り返しが必要だと思います、それが重要性を強化することになります。過去に100回繰り返されたことは、1-2回起こったことよりも、未来に起こりそうなことである
だから、サポートや信頼性が高いものだけを取ることにしています。このように、リアルタイムとヒストリー上でインジケータに予測値を生成して文字列に追加し、この文字列を配列で検索して、見つかったらそのバーをエントリーに有利なものとしてマークし、見つからなかったら何もしないという作業を私は行っています。したがって、文字列を2倍にすると配列が増えるだけである。もちろん、色でグラデーションを作り、信頼性や支持率などの情報(一方を掛け合わせることで係数が得られ、値によって色が変わる)を持たせることもできますが、その場合はint型の 配列をインデックスで別に作るだけの方が簡単です。あるいは、何か理解できない...。