トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1374

 
エリブラリウス

つまり、ウラジミールが提案した方法でアライメントが拾われるのですね。

私が思っていたのとはちょっと違うかもしれません。使っていないのでわかりませんが、ヘルプを読まないといけません。

これらのパラメータについて、どこか読めるところはないでしょうか?
 
エリブラリウス

これらのウェイトはブースターだけでなく、フォレストやNSのケースにも投入することが可能です。どうやら、この方法論はMoDの全システムに共通するようだ。
最初に古いデータの影響を減らす実験をしたところ、改善が見られませんでした。

30000行でトレーニングした場合、80000行でトレーニングした場合よりも、テストの方が良い結果になります。80000では取引回数が少なく、誤差が大きくなる。重量を比例的に減らしてみたが(新しいものは1、古いものは0.5)、結果はほぼ同じ。


どうやら、Maximが指摘したように、Vladimirが述べた方法によって、やはり分散のアライメントをとるためのようです。

そうですね、予測変数の分割をツリーの低いレベルに移動する必要がある行の重みを減らすことが可能かどうかということです。新しいデータにウェイトを置くだけでも、市場が変わったと思えば納得できるかもしれませんが...。

 
マキシム・ドミトリエフスキー
これらのパラメータについて、どこか読めるところはないでしょうか?

今まで気にしてなかったけど

 

NSでTSのプロトタイプを作りました。NS予報に基づく取引開始、予報時間-5m。オープニングから5分でクロージング。取引の監視はしていない。

これが最初の結果です。

x - 取引番号、y - ピップ単位の利益。手数料等は考慮しない。試験間隔は3.5ヶ月です。

60回目の取引まで取引する必要はなく、前回の先物終値までなので、そこでの予測はとても無理です。急激なジャンプは、日間ギャップではないでしょうか。

そしてPythonのコード。これ以上ないほどシンプルです。

def Long(i): # сделка Long
    print('long')
    profLS.append(SD.history[i+5][c.c] - SD.history[i][c.c] )
    return i + 5

def Short(i):  # Сделка Short
    print('short')
    profLS.append(SD.history[i][c.c] - SD.history[i+5][c.c] )
    return i + 5

while i < LenHist:
    x = []
    for j in range(0, 20): #Подготовка данных для НС
        x.append((SD.history[i-j][c.c]/SD.history[i][c.c]-1)*1000)
    out = MLP.Predict([x]) # запрашиваем прогноз НС
    if out >= 3.0:
        i = Long(i)       
        tmp.append('L')
    elif out <= -3.0:
        i = Short(i)        
        tmp.append('S')
    i += 1
 
elibrarius:

今まで気にしてなかったけど

xgboostの ウェブサイトでは見つけられませんでしたが、「パラメータチューニング」のセクションがあり、バイアスと分散のトレードオフについて書かれています。

なんだか、私が考えていたことと似ているような気がします。

は使わないので、ちょっとだけ興味があります。

 
ユーリイ・アサウレンコ

NSでTSのプロトタイプを作りました。オープンから5分後(予測時間)に取引を終了します。取引の監視はしていない。

これが最初の結果です。

xは取引番号、yは利益(pips)です。手数料等は考慮しない。試験間隔は3.5ヶ月です。

60回目の取引まで取引する必要はなく、前回の先物終値までなので、そこでの予測はとても無理です。急激なジャンプは、日間ギャップではないでしょうか。

そしてPythonのコード。これ以上ないほどシンプルです。

夜間閉館や10時開店でないことを考慮すると面白そう?

 
アレクセイ・ヴャジミキン

面白そうだが、夜間閉店や10時開店を考慮しているのだろうか?

何も考慮されていない。歴史の連続した流れ NSに直接閉じる。NSの予報に合わせてオープンし、5mでクローズします。

 
マキシム・ドミトリエフスキー

xgboostのウェブサイトでは、そのような設定は見つかりませんでしたが、「パラメータチューニング」のセクションに、バイアスと分散のトレードオフに関するすべての情報があります。

なんだか、私が考えていたことと似ているような気がします。

使っていないので、ちょっと気になる。

xgb.train ficのパッケージのPDFの説明にはこう書いてあります。

weight - 入力の各行に対する重みを表すベクトル.

そして、それだけです。

ELMも同じものを持っています。どこかで見たことがあるような。

 
エリブラリウス

xgb.train関数のパッケージのPDFの説明には、こう書かれています。

weight - 入力の各行に対する重みを表すベクトル.

以上です。

ブーストの担当者に聞いてみたら、後で答えが出るかもしれない。

 
ユーリイ・アサウレンコ

何も説明されていない。履歴の連続表示 NSに直接クローズ。予報通りに開店して、5mでバカみたいに閉店。

トレーニングの時は良い結果が出たのですが、10時にストップで引かずに閉めるのは非現実的であることがわかりました。

理由: