In the first step a dictionary of all of the unique characters is created to map each letter to a unique integer: Character dictionary : {‘h’: 0, ‘a’: 1, ‘t’: 2, ‘M’: 3} Our encoded input now becomes: MathMath = [3, 1, 2, 0, 3, 1, 2, 0] Step 1: Create batches of data This step is achieved by the user specifying how many batches (B), or sequence...
データはどうなっているのですか?
毎分購入は、SLとTPを100から2500まで5桁単位で設定し、開設します。つまり、1分間に625個の買い物が開かれているのです。すべて開店直後の価格です。
デコード後、このように表示されたはずです。
いいえ、エントリ価格(*10^5)、unix時間、年、月、日、分、秒、曜日、日、..., 出口はすべて同じ, ...PPのSL、価格のSL、PPのTP、価格のTP、貿易の結果。
森はそれを素直に受け止めればいいのです。クラスターに分解してみるのも面白いですね。
毎分購入は、SLとTPを100から2500まで5桁刻みで開設しています。つまり、1分間に625個の買い物が開かれているのです。すべて開店直後の価格です。
デコード後、このように表示されたはずです。
いいえ、エントリ価格(*10^5)、unix時間、年、月、日、分、秒、曜日、日、..., 出口はすべて同じ, ...PPのSL、価格のSL、PPのTP、価格のTP、貿易の結果。
森はそれを素直に受け止めればいいのです。イントゥ・クラスターも分解してみると面白いですよ。
私の場合は10ptステップではなく、100,200,300,500,700,1000,2000としました。これを適用すると、1分間に49通りの組み合わせとなり、約13倍のデータ量となります。
高TP/SCLではファインピッチは必要ないと思います、2400と2500では微妙に違うでしょうし、省資源は13倍ですからね。
また、CPOLの組み合わせも、1つのファイルにまとめてではなく、別々のパスを作成しました。
TP/SLを等しくすることで、システムの収益性を即座に評価することができます。例えば、TP=50の場合。私は53~55%の成功案件を獲得しています。テスターで
TP=SL=50は長年有効な組み合わせであったが、ボラティリティが上がった3月以降は使用できない。3月以前は50ptで10~20分程度稼げたが、3月は1~2~5分程度で稼げた。
今は、テスターでエントリーポイントを検索して、その場で結果を推定したいだけです。どんな揮発性でも、より普遍的に使えるようになると思います。
例えばTP=SL=100の組み合わせを1つ取って、モデルを学習させてみてください。パワーは十分あるはずなんだけどな。もしOOSで55%より高くなるなら、あなたのデータは私のより優れていることになります)また、OOSではなく、クロスバリデーションでチェックする方がより信頼できます。
私もTP/SCLで同じことをしました。
私の場合は10ptステップではありませんが、100,200,300,500,700,1000,2000グリッドで、これを適用すると1分間に49種類の組み合わせになり、約13倍のデータ量になります。
高TP/SCLではファインピッチは必要ないと思います、2400と2500では微妙に違うでしょうし、省資源は13倍ですからね。
また、CPOLの組み合わせも、1つのファイルにまとめてではなく、別々のパスを作成しました。
TP/SLを等しくすることで、システムの収益性を即座に評価することができます。例えば、TP=50の場合。私は53~55%の成功案件を獲得しています。テスターで
TP=SL=50は長年有効な組み合わせであったが、ボラティリティが上がった3月以降は使用できない。3月以前は50ptで10~20分程度稼げたが、3月は1~2~5分程度で稼げた。
今は、テスターでエントリーポイントを検索して、その場で結果を推定したいだけです。どんな揮発性でも、より普遍的に使えるようになると思います。
例えばTP=SL=100の組み合わせを1つ取って、モデルを学習させてみてください。パワーは十分あるはずなんだけどな。もし、OOSで55%より高くなるなら、あなたのデータは私のより優れています)また、OOSではなく、クロスバリデーションでチェックする方がより信頼できます。
ほとんどの場合、データを薄くする必要があります
おそらく、データを薄くする必要があります
SP/SL=50や100で学習させた場合、クロスバリデーションで結果を書くと55%以上出るかな。
SL/TPの比率を変えて1日1回買いを開くシステムをテスターで10年運用しました。生き残った人のうち、SLとTPが同じシステムはなく、ほとんどがTP<SLであった。自分で走ら せることができる。
また、エミュレーションを 行ったところ、SL<SLのシステムの方が黒字になるのが早いことがわかりました。
またネットワークに手を出したのか?)
テスターでやっとバグを発見。今、すべてがうまくいっている。
テスターで同じミスをした可能性が高い。
トピックを閉じました)急遽、ランバが延期になりました。
日付はわかったけど、あとはどう処理していいかわからない、そんな力はない(((
今はインデックスが1列のcsvで、重さは1ギガです。解読」後の2進数は 、17倍の重さになる。
誰が必要としているのか?
CatBoostは このデータを飲み込みます。大きなファイルでも問題なく動作します。ただ、ターゲットが何なのかがわからない...。
ターゲットと一緒にcsv形式のデータを用意していただければ、私のところで実行することができます。
SL/TPの比率を変えて1日1回買いを開くシステムをテスターで10年運用しました。生き残ったシステムのうち、SLとTPが同じシステムはなく、ほとんどがTP<SLのシステムであった。自分で走ら せることができる。
また、エミュレーションを したところ、TP<SLを使ったシステムの方がプラスで出てくるのが早いことがわかりました。
TPがSLを2-3倍上回るシステムを作ることができましたが、別の問題があります。20-25%の利益取引があり、負けエントリーを除外するモデルを適切に訓練することができません。
確認したところ、テスターではよりよく動作しています。また調べてみます )
リカバリーを始めたばかりなのですが、とてもクールで勉強になります。
Z.U.はちゃんとやったんだ......とても悲しくなるほど勉強になる。
と思いきや、いや~またまた体験談))
なぜ、悲しいのか?マキシム 再発に関する資料のリンクはないのですか?トレーニング中のウェイトが具体的にどのように更新されるのか、興味があります。
同じように再教育される
googleにいろいろな情報があります
これはいい
https://towardsdatascience.com/gate-recurrent-units-explained-using-matrices-part-1-3c781469fc18