もちろん、安定した性能と効果的な予測のためには、モデルを正しく学習させることが非常に重要で、そのためにはまず、入力データを正しく定式化することが必要です。この目的のために、私はまず、"The Principle of Superposition and Interference in Financial Instruments" で行ったことに類似した方法で入力データのスケーリングを行い、次にスケーリンググリッドをシフトして、市場がどう変化しても、データが常に同じダイナミックレンジに なるようにしました。従来の正規化方法は、データをあまりに歪めすぎるので拒否 したのです。次の段階では、学習が行われたベクトルが入力変数で完全にカバーされていることを確認しようとした( 図1)。- 重なり具合が悪い、図2にて。- の方がはるかに優れており、それに伴って学習の精度も大幅に向上する(黒線が学習を行うベクトル、他の線が入力信号)。
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
私の意見は、あくまでもOpenかticsです。
まあ、それは意見の分かれるところですが。時間の確実性という点では、クローズが最も正確です。
そして、どなたか答えていただけるとありがたいのですが。このスレッドを読み始めたところです。100ページほど読み進めたところです。面白い、初期の頃の作者に感謝。まるで日記のようです。失敗、発見、失望、成功の喜び、打ち砕かれた希望...。良い意味での小説。 新しいことを学び、古いことを思い出し、笑い(これがないわけではない)。本格的な探鉱者の日常をそのままに。質問は簡単で、この機械学習において、「機械」はブラックボックスのままなのでしょうか?インプット/プリセットを与えて、その日のうちに答えを出したかったのか? Rrrが何を、どのように調理しているのか、「ガッツリ」調べたのか......?もしかしたら、ここで見つけたMQL言語にマシンを翻訳しようとしたのでは?
このスレは多分最後まで見ます、今のところ順調ですが、ネタバレをお願いします)
まあ、それは意見の分かれるところですが。時間の確実性という点では、クローズが最も正確です。
ローソク足の不確実性という点では、時間か価格のどちらかを正確に知ることができます。)
比喩的に、15.58から16.03までダニがない場合(そして、これは通常の状況であり、そのような穴の典型的な瞬間がある)、その後クローズは時間16.00を知っているが、間違った価格、および間違った時間を開くために正しい/関連する価格である。
そして、どなたか答えていただけるとありがたいのですが。このスレッドを読み始めたところです。100ページほど読み進めたところです。面白い、初期の頃の作者に感謝。まるで日記のようです。失敗、発見、失望、成功の喜び、打ち砕かれた希望...。良い意味での小説。 新しいことを学び、古いことを思い出し、笑い(これがないわけではない)。本格的な探鉱者の日常をそのままに。質問は簡単で、この機械学習において、「機械」はブラックボックスのままなのでしょうか?インプット/プリフィクスを与えて、その日のうちに答えを出したいと思っていませんか? 何をどのように調理するのか、「ガッツリ」調べてみましたか......?もしかしたら、ここで見つけたMQL言語にマシンを翻訳しようとしたのでは?
このスレは多分最後まで見ます、今のところ順調ですが、ネタバレをお願いします)
悟りを開くには、まずOnyxのブランチを始めて、それからこのブランチを始めてください *sarcasm。
本を読む
この哲学はシンプルだと思います。
(H+L)/Close。つまり、現在(!)の瞬間に最も公正な(均衡のとれた)ものとして、H/Close+L/Close、タイムスパンの端数の合計として、+または-、すなわち上下の運動量の結果...と。イムホ
.質問は簡単で、この機械学習において、「機械」はブラックボックスのままなのでしょうか?入力や述語を与えて、その日のうちに答えを出したいのか?
理論的にはそうですが、重みのベクトルや正逆の座標変換はどこにあるのでしょうか?
MNCは ほぼ万能の手法で、なんというか・・・。抽象的な話ですが、それを実現するためには、物理学が必要なんです......。
..VMNC - Weighted MNC (分散などのスケール)...一般に、輝かしいものはシンプルであるべきだと思うのですが.
何を作っているのかわからない
MOの予測因子であろう(スケールが関係している)
のような関数を作っているのではないでしょうか。
価格 = a1*y1+a2*y2+...aN*yN
りろんりろん
さきがおもいやられる
分割する場合のみ、各部に角度に関連した何かを掛ける必要があると思われます。多項式 - 多変量解析用(そしてあなたの式 - linear!- ちなみに、係数aはy(xは角度) です。単一要因の場合 - 典型的な直線方程式 (y=kx+bias)...
と、ここからが微分の一番面白いところで、多項式の次数(=その曲がり角の数-1、トレーニング開始から終了までの信号伝搬)--確かに調子に乗ってはいけませんが、現実が dy/dx=a^3x(線形 依存性ではない)以上であるならば。-- となると、ここでやることはあまりないと思うのですが、あるものを微分する(1sと2sの差の関数として微分する⇒多項式の次数を選ぶ、という推奨をどこかで見たような気がしますが、見つけられません)...ということです。あるいはCDFを検討し、極端なパーセンタイルは捨てる...。平均を求めるイミフまたは、平均からの乖離を分析する際のシグナルとして利用 する...。イミフマクシム・ドミトリエフスキーは、MLで このように表現している。
+ とか、グラデーションが減衰したり増えたりする問題も常に議題に上がりますが...こういう時に適切なウェイト付けが有効なんでしょうね...。重み付けの哲学は、「重みを自由に選べる」支持者とはまた違うかもしれませんが...私はロシア語の自由戦士は嫌いです(だから、彼らは数式でも本当の相関や因果関係を歪め始める)--正しい微分(つまり正しい変数)は正しい重みを与え、正しいNNアーキテクチャは重みの意味を学習結果にもたらす のに役立ちます......。 イムホ
追伸
とにかく、HとLの端数は、単に近いというだけでなく、より信頼できるものだと思います。- そして、ミハイル・ミシャニンが すでに言っているように(このスレッドが洪水と口論に沈む前に)、「最も重要なものを生き残らせ、進化させる」のです。
NNで-ほとんどTitanikのように
こんな多項式で取引して、汗をかかない
先ほども言ったように、多項式そのものは、それを求める方法ほど重要ではありません。しかし、簡単なフレーズが理解できないと、誰でも耳が遠くなる...。まだ、クローズのH株、L株の方が信頼できるのですが...。
自分で補足・反論する。
とここで再び同じ問題 -ここの 勧告 -分数は万能ではないかも しれませんが、ダイナミックレンジは、すべての "2閉鎖の間の周期の違い "ではないかもしれません。
もちろん、安定した性能と効果的な予測のためには、モデルを正しく学習させることが非常に重要で、そのためにはまず、入力データを正しく定式化することが必要です。この目的のために、私はまず、"The Principle of Superposition and Interference in Financial Instruments" で行ったことに類似した方法で入力データのスケーリングを行い、次にスケーリンググリッドをシフトして、市場がどう変化しても、データが常に同じダイナミックレンジに なるようにしました。 従来の正規化方法は、データをあまりに歪めすぎるので 拒否 したのです。次の段階では、学習が行われたベクトルが入力変数で完全にカバーされていることを確認しようとした( 図1)。- 重なり具合が悪い、図2にて。- の方がはるかに優れており、それに伴って学習の精度も大幅に向上する(黒線が学習を行うベクトル、他の線が入力信号)。
つまり,分散に関する標準的な正規化 であり,特に適切なものではありません.(
受信データの配給係数に、WMAを加えるか、あるいは単純に重量で加えるか - 結局のところ、それはダイナミクスを反映しています(ただし、ラグがあります)。
追伸
1)でも、たぶん「ダイナミックレンジ」は、2本のMAの交点という痛いほど単純なもので、期間を正しく把握することが重要なのでしょう...。50と200を見るのはOTFだけ...。しかし、ビッグデータ解析では、(他の関連要因を考慮すれば)ニューラルネットワークメモリによって、より好ましいMA期間が見つかるかもしれない...。イムホ
2) 個人的には、「ダイナミックレンジ」とは、価格がまだLevelからLevelへ正規分布していた時期(クラスターとでも言うのでしょうか--マークアップを行い、先に市場で定義された重み・特性・記憶によって再び作業・分類する--新しいOTFの登場前)のことだと思われますが.........。しかし、この論理を入力配分にどう生かすかは、まだわかりません(t統計だけでなく、すべて同じdy/dxにすること以外は)...。もちろん、ストラテジーテスター自身が機能(インデックス)を選択するわけではなく、与えられたもの(しかもクリーンなソース情報からはほど遠いもの)に対してのみ最適化が可能なのは悪いのですが......。- だから、人々はMLに行かなければならない
金鉱を持ちながら足元が見えないあなたへ
SVMは非線形な依存関係を線形に分離できることは明らかなのですが...(ただし、次元削減は何らかの 調整が必要で、それなりのニュアンスがあります)。が、まず多変量解析(多項式重回帰の出力)は、すべての要因が互いに影響しあっている場合、私にはまあまあで、ライブラリがどのように特徴抽出を行うのか(統計学には多くのニュアンスがある)分からない.そして第二に、PythonでSVMのための正しいハイパーパラメータを選ぶには、何らかの形でライブラリを知る必要がある...。が多く、このあたりを踏ん張っています(ライブラリはまともです)。このライブラリを使ったモデリングプロセスを説明したニュアンスで、過学習・過少学習・過学習のモデルを生成しない限りは...。
この図書館を理解するために、初めて見る人は、足元をずっと見なければならない......。
金」の部分は議論の余地がありますが......。ロボットのせいでトレンドが掴めず、早く飛び出してしまうことにまだ懐疑的です......。でも、ロボットが何かに気づかなかった時のドローダウンも嫌だし......。だから、ML以前に、50/50の確率を高めるために、質の高い統計モデルを作るだけでも価値があると思うのですが...イムホ
あるいは、CDFを考えて、極端なパーセンタイルは捨てる...。真ん中を探すのはイマイチ...。または、それらを利用する
PDFのテールの確率(これは実際にはCDFから導かれるもので,つまりPDFは微分PDF です): 1-P(a<=X<=b) , ここで [-infinity,a] と [b,+infinity] は分布のテールを表します.