Градиентный бустинг является сильным алгоритмом машинного обучения. Суть метода заключается в построении ансамбля слабых моделей (например, деревьев принятия решений), в которых (в отличие от бэггинга) модели строятся не независимо (параллельно), а последовательно. Говоря простым языком, это означает, что следующее дерево учится на ошибках...
は、すべてをランダムに列挙して書き、そこから学習可能なもの+遺伝子を選択して検索を短縮し、数ヶ月間コンピュータから離れるべき...。
Pythonでランダムサンプリングについての記事を書こうとしています。
ということです)
https://www.mql5.com/ru/articles/8642
RNNやCNNなどとも比較する予定です。しかし、その前にキャットバストにもう少し手を加えてください。
私は、パターンの後にパターンを探すのではなく、このパターンに関連する反発価格を探す方が良いと思います、正式にはもっと難しいのですが、私にはそう思われます
例えば、ある一定のパターン(算術平均、二乗平均平方根)で物価が何%上昇したかを履歴から計算することができる。
履歴から、例えばあるパターンで何%値上がりしたか(算術平均、標準偏差)などを計算することができます。
例えばパターンを0~1の範囲に正規化し、このパターンを基準に空間を正規化すればいいだけです。
言ってることがわかるか?例えば、パターンを0-1の範囲で正規化し、そのパターンに基づいて空間を正規化すればよいのです。
ということです。理解できない。
ここに今のパターンがあります。
'長い' パターン = X ,
パターン「short」=B。
過去の出来事=L。
歴史を使って、いつ頃がそうだったかを探すことができる。
そして、そのパターンに相対して空間を正規化する。 固定範囲(または最大値から25%下の部分など)の関数の種類によって。
理解できない。
ほら、もっと単純に、私も何年も頭を悩ませてきたんです......。
x1パトレイバーがあります。
x1 <- rnorm(40)
x1と同じであるが、ボラティリティが異なる2つのパターンx2、x3がある。
最初の5点をパターンとし、それ以降の点はパターンに対して相対的な空間とする。
1) パターンは、0-1 のような単一の範囲に収まるようにする。
ノーマライゼーション
三者三様
今度はパターンに対して空間を正規化する
これは、関数r02によって行われます。
ここで、" y "は空間、" x "は正規化されたパターンではありません。
そして、関数r01とr02の変換結果を1つの行(ベクトル)につなげます
となり、0-1の範囲で正規化されたパターンが得られ、このパターンを基準に空間が正規化されます。
類似性は相関ではなくユークリッドメトリックで探索する必要がある
値が小さいほど、パターンが互いに近くなる
なるほど、違うんですね。
あなたのパターンは価格を、私のパターンはセグメント(短い、長い)を記述しています。パターンがBと等しい場合、同じBだけが同一となる。
揮発性があるので柄の周りのスペースはもちろん違うが、形式(短いか長いか)を気にするので必要ない。
なるほど、違うんですね。
あなたのパターンは価格を、私のパターンはセグメント(短い、長い)を記述しています。あるパターンがBと等しい場合、同じBだけが同一となる。
比べてどうするんだ?
10-20-10と20-40-20は同じパターンですか、違いますか?
比較するものにどんな違いがあるのでしょうか?
パターンサイズ10-20-10と20-40-20は同じパターンなのか、違うのか?
0110と1001のように、はっきりと表記されたパターンがいくつかあるのですが、どれも違うんです。
サイズとは? 明確に記載されたパターンがいくつかあるのですが、0110と1001のように全部違うんです。
さて、セクションはあなたのものです。
10本のキャンドル - 20本のキャンドル - 10本のキャンドル
焦らずに)
さて、セクションはあなたのものです。
10本のキャンドル - 20本のキャンドル - 10本のキャンドル
焦らずに)
10-20-10はどのキャンドルですか?