トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1227

 
毒性

チップは一般論は二束三文、役に立つことは言いにくいし、具体論は、、、、、。

あなたが時系列の特徴の構築における重大なエラーを回避することができます "ルール "の数があり、特に最も違反の一つは、ターゲットとの特徴の陳腐な "混合 "であり、特徴は厳密に過去からでなければならない、と厳密に未来からのポイントからターゲット、この分離はデータセットにシリーズの変換のアルゴリズムのレベルでなければならず、誰もが指標のすべての種類は、その後トレースしてテストにカット、どこかに何かをシフトするなどしていません。最初のシリーズをカットして、スライディングウィンドウ(過去と未来)を使ってシリーズを実行し、レルネとテスト、あるいは検証のために、特徴とターゲットを別々に取得する必要があるのです。もちろん、特徴のための指標は前を向いていない、目標のための指標は後ろを向いていない、ということが確実に分かっていれば、指標でも可能です。もっと微妙な間違いもあるが、今は語 らないことにする。

変換自体は、些細なもの(帰国子女、バリエーション、ボリューム変化、スタックのデルタ、ディールの配分など)から、あらゆる種類のエキゾチックなものまで、さまざまであろう。) 「トレンド/サマー」(上記のイノケンティが言及)、「オーダー/ハオス」など、「インスピレーション」やクラスタリングによって得られた何十もの特定のカスタム統計は、有用であることが判明した。統計情報の中には、異なる時間枠で有効なものとそうでないものがあり、ある機能はある商品に有効で、他の機能は無効です。いろいろありますが、標準的なARMA モデル、GARCH ...特徴として中長期的なマクロ予測など。ソーシャルネットワークなどからのテキストストリームを分析するためのNLPNLUは まだやっていないんだ。そこで、ディップ・アーニングが必ず必要になる。

Vladimir Pererwenkoの記事を繰り返していたとき、私は追加の実験を行いました - 任意の追加指標 最後の記事のデジタルフィルタ)なしで、すなわち、純粋に価格に基づいて。結果は、2〜3%悪化しただけでした。それにしても、NSのトレーニングがうまくいっていないだけだと思います(重みの混合と初期化が違う、OHLCは論文からではなく、私のサーバーからでした)。NSは、予測に必要であれば、どんな指標も簡単に自分の中に作ってしまう。どのDFがどのようなパラメータ(LPF/FTF/バンドパスや何らかのMA)で予測に有用かを推測する必要はないと思うのです。NSが勝手にOHLCで全部作ってくれる。

でも、微妙な誤差については、やはり気になりますね...。

BPのMOに関する有用な情報が1200ページ以上にわたって散見されるのは残念です。もしワーキングアイデアがなければ、少なくともZZ、PCA、フォワード/バックピークのような行き詰まりはある。

 
地獄に帰れ

だから、「聖杯」はウルトラHFTの文脈でしかありえない、というか、そういう不透明な規制がないときにはあったし、それがなければ危機のときに金を刷ってそれで国債を買えばいいだけの連中が利用できるインサイダーである))。

またか...。

あなたの兆と内部で人々を怖がらせるのに飽きない場合は、諺を知っている "犬が吠えるが、キャラバントラック"、我々はあなたがあなたの最後の百ポンドを残した証券会社へのあなたの侮辱を必要としない、世界は公平ではありません、あなたは不運だった、私は幸運だった一方、私は百から百を作るでしょう、そうしないと私はそれを得るまで、再度試してみます。


ヨットや島を夢見る私たちを止めないで、一歩一歩夢を現実にしていきましょう。ボロノフがどこでダウンロード できるのか、トレンドとフラットの見分け方さえ知らないのです。

 
ケシャ・ルートフ

またか...。

あなたは彼らが言うことを知っている: "雑種が吠え、キャラバンが追跡する。" 我々はあなたが最後の100ポンドを残した証券会社にあなたの侮辱は必要ありません、世界は公平ではありません、あなたは不運でした、私は幸運です、私は100から百を作るでしょう、もしダメなら成功するまで再び試してみるでしょう。


ヨットや島を夢見る私たちを止めないで、一歩一歩夢を現実にしていきましょう。彼らは、ボロノフをどこでダウンロード すればいいのか、トレンドとフラットをどう見分ければいいのかさえ知らない「達人」ばかりです。

どこのDCにお勤めですか?夢の伝道師。
 

誰も試していないけど、もしかしたら。

案件を利益/損失でソートし、案件をクラス分けする際に、利益の大きいものにはより多くの確率を、利益の大きいものには0.5程度の確率を与える。つまり、効率の良い案件を並べ替えて、確率を割り当てるだけで、最も効率の良い案件は少なく、ノイズの多い案件は多く出現することは明らかである。

は、実験する価値があるのでしょうか?

 
マキシム・ドミトリエフスキー

誰も試していないけど、もしかしたら。

案件を利益/損失でソートし、案件をクラス分けする際に、利益の大きいものにはより多くの確率を、利益の大きいものには0.5程度の確率を与える。つまり、効率の良い案件を並べ替えて確率をつけるだけで、最も効率の良い案件は少なく、ノイズの多い案件は多く出現することは明らかである。

実験してみる価値はありますか? 誤差が小さくなるはずですが?

これは回帰ですが、バーの高さではなく、取引の結果によって行われます(おそらく自己学習システムには必要でしょう)。私は5ヶ月間IRに取り組んでおらず、今どのアイデアを試そうかと考えているところなので、アドバイスはしません。ノイズ 予測変数の影響を自動的に減らしたい。結局、支店のはじめにそれは行われたのです。
 

1 2 部分的にはそうで、流行の現象だが、これは私の意見で、「ディープラーニング」自体は、実は回帰・分類そのものではなく、むしろ単純な階層的に整理された特徴を抽出する方法であるある種のデータから、例えば「現実世界」からカメラに入ってくる反射光で描かれた画素の絵は、それ自体は画素の明るさなので、そのまま分類器に詰め込むと非常に悪い特徴になり、CNNは「隣接画素相関」と次元圧縮をすることになるのです。一般に「深層学習」は、複数のパスでクラスタリングを行い、「高レベルの特徴」を通常の分類器に与えるというものです。確かにこのテーマは非常に面白いのですが、恐ろしく遅いバックプロップで学習させた様々なアーキテクチャのニューラルネットワークで「分析」するだけでなく、理論的に発展させる時期に来ているのではないでしょうか。しかし、もう一度言いますが、私はまだdiplerningを市場と友好的にすることに成功していません。問題はオープンですが、ご指摘の通り、この方向で実験するにはコストがかかりすぎるからです。

3 木の葉に定数を入れる必要はなく、線形モデル、あるいはもっと複雑なものを入れれば、点群の先に「外挿」があることになります))

4 何か勘違いして森とブーストはリグレッションができる、問題ない。

3.ソルバーツリーのモデルの葉に他のモデルを組み合わせて入れることができますが、どのように機能するのでしょうか、実例を挙げてください。

4.というのも、これまでのところ、ニューラルネットワークのように多くの出力(従属変数)を持つ回帰問題のscaffoldingでの実装に出会ったことがないからです。
例えば、MQLライブラリalglib.mqhのランダムフォレスト 構築関数を例にとると

//+------------------------------------------------------------------+
//| This subroutine builds random decision forest.                   |
//| INPUT PARAMETERS:                                                |
//|     XY          -   training set                                 |
//|     NPoints     -   training set size, NPoints>=1                |
//|     NVars       -   number of independent variables, NVars>=1    |
//|     NClasses    -   task type:                                   |
//|                     * NClasses=1 - regression task with one      |
//|                                    dependent variable            |
//|                     * NClasses>1 - classification task with      |
//|                                    NClasses classes.             |

すなわち,従属変数の数が1以上である場合,この関数は分類問題しか解くことができない.この問題に対する解決策とあなたの実装を持参し、コードでください、結局のところ、我々はプログラマのフォーラムにいる:)

 
マキシム・ドミトリエフスキー

誰も試していないけど、もしかしたら。

案件を利益/損失でソートし、案件をクラスに分けたとき、最も利益率の高い案件にはより多くの確率を、最も利益率の低い案件には0.5程度の確率を与えます。つまり、単純に効率性で取引を分類し、確率を割り当てると、最も効率的な取引はあまり現れず、ノイズの多い取引は多く現れることが明らかです。

実験してみる価値はありますか? 誤差が小さくなるはずですが?

それはテスターで、間接的に、取引の収益性を通じて、正しいエントリポイントに到達するためにある場合は、なぜ一度にそれらを見つけると理想的な、価格シリーズによって、私はすでにモンテカルロスプレッドでこれを尋ねたが、:)。
 
イワン・ネグレシュニー
テスターで、案件の収益性から間接的に正しいエントリーポイントを見つけるためなら、モンテカルロ・ブランチで既に質問しましたが、なぜ価格系列で一度に、しかも理想的に見つけられないのでしょう:)

となると、事例が少なく、新しいデータでは、私たちは盲目の敗者になってしまう、私たちは彼女の生活の中でできるだけ多くのことを「見る」ことが必要です。

理想的なジグザグを求めると特徴が出なくなるので、すべてを同時に試す両刃のプロセスであるべきなのです :)

2クラスではなく、もっと受講しようかと、すでに考えています

 
マキシム・ドミトリエフスキー

その場合、いくつかの例と、新しいデータnsは、失われたブラインドになる、彼女はできるだけ多くの彼女の生活の中で "参照 "する必要があります。

論理的にはそうなのですが、一方で、常にシグナルを出してリスクを高めるよりも、あまり見ずに確実なものだけを取引したほうが、彼女にとってはいいのかもしれません。
 
Ivan Negreshniy:
は論理的ですが、一方で、シグナルを出し続けてリスクを高めるよりも、あまり見ずに確実なものだけをトレードする方がいいかもしれません。

まあ、私はいつもテストサンプルに誤差を探すのですが。 この「確信犯」は人間にしか現れません、私たちは「考え方」が違うのです。

ニューラルネットワークの考え方は...確実かどうかは気にしない、一般化できる限りは...

0.5の範囲にガラクタを入れて、スパイクがクオリティ・トレードであれば、汎化能力は向上するのだろうか...もちろん、目視では無理 なので、確認した方がいいのだが...。
理由: