トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1966 1...195919601961196219631964196519661967196819691970197119721973...3399 新しいコメント Valeriy Yastremskiy 2020.08.13 12:44 #19651 マキシム・ドミトリエフスキー: pythonに切り替えて、例をあげるから、それを使ってください。RLは初心者レベルの話題ではないので、フォーラムで議論する意味がないと思います。 本を読み終えたら、すぐに聞きます))))相場がわからないのであれば、その通りかもしれませんね。時間が分からない場合は、別の作戦になるかもしれません。 Evgeni Gavrilovi 2020.08.13 13:32 #19652 マキシム・ドミトリエフスキー: pythonに切り替えて、例をあげるから、それを使ってください。RLはエントリーレベルの話題ではないので、フォーラムで議論する意味はないと思います。 メールを送ってもらえますか? eugen420@gmail.com Maxim Dmitrievsky 2020.08.13 14:01 #19653 Evgeni Gavrilovi: メールで送ってもらえますか? 本人にだけ、あとは有料で。 mytarmailS 2020.08.13 14:07 #19654 マキシム・ドミトリエフスキー: pythonに切り替えて、例をあげるから、それを使ってください。RLはエントリーレベルのトピックとは程遠いので、フォーラムで議論する意味はないと思います 試してみます。 Maxim Dmitrievsky 2020.08.13 14:21 #19655 mytarmailS: 試してみます。 youtubeでイントロビデオをチェックしてみてください。Rと同じで、独自の特集を組んでいるだけです。移行に問題はないはずです。しかし、mt5からkotierを取り出し、トレードを開始することができます。 mytarmailS 2020.08.13 14:24 #19656 Maxim Dmitrievsky: YouTubeで紹介されている動画を見てみてください。 ええ、それが私の仕事です)) Maxim Dmitrievsky 2020.08.14 01:37 #19657 mytarmailS: はい、そうです)) 間違いのないマニュアルを作れば、理解も早くなる。 クラスタ層はコホネンベクトル量子化(LVQ)ニューラルネットワークである。クラスタ層は、標準的な LVQ アルゴリズムに従って樹状突起の結果をグループ化する。LQVは 教師不要のオンライン学習を実装して いることを思い出してください。 第一に、頭文字が混ざっていること(正しくはLVQ)、第二に、WITH A TUTORという教授法であること。 ティーチャーレス方式はVQ(vector quantizatinon)と呼ばれていますが、それならLVQではなく、ニューロンである可能性が高いです。 ここで重要なのは、LQVサブネットが前回の入力信号の記憶をLQVニューロンの最後の出力の記憶として保持したことである。そのため、ニューラルネットワークの入力に直接与えられる情報よりも、より多くの情報が利用できるようになった。 まだ理解できていません。最も意味するところは、ニューロンに戻るサブネットワークの出力のこれらの接続である可能性が高いです。過去の行動に関する情報を記憶しているだけなのです。 つまり、メモリにはLQVサブネットワークが格納されている。 mytarmailS 2020.08.14 04:12 #19658 マキシム・ドミトリエフスキー: 間違いのないマニュアルを作れば、理解も早くなる。 クラスタ層はコホネンベクトル量子化(LVQ)ニューラルネットワークである。クラスタ層は、標準的な LVQ アルゴリズムに従って樹状突起の結果をグループ化する。LQVは 教師不要のオンライン学習を実装して いることを思い出してください。第一に、頭文字が混ざっていること(正しくはLVQ)、第二に、WITH A TUTORという教授法であること。で、教師がいない方式をVQ(vector quantizatinon)と呼ぶとすると、LVQではなく、神経細胞にある可能性が高いです。 dunno...4回読んでもわからない、もしかして先生はそこの補強なのか? + レイヤーからの投票もある。 マキシム・ドミトリエフスキー LQVサブネットは、LQVニューロンの最後の出力の記憶として、前の入力の記憶を保持していたことが重要である。そのため、ニューラルネットワークの入力に直接与えられる情報よりも、より多くの情報が利用できるようになった。 まだ理解できていません。最も意味するところは、ニューロンに戻るサブネットワークの出力のこれらの接続である可能性が高いです。過去の行動に関する情報を記憶しているだけなのです。つまり、メモリにはLQVサブネットが格納されている。 そうですね、 LQVにおける 記憶は、LQVニューロンの最後の出力という 形になっていますが、それは、私の理解では、記憶は1段階しか戻っていないのですが......。 やかんとコーヒーに例えるのはどうでしょう? それこそ、全財産です。 何も言われなかったんですか? こんなのどこで教えてるんだろう。 サイバネティックスとかロボット工学とか...。 データシンシアンは技術研究所の物理学者に過ぎない) ============================================================== ダイナミックLVQ - - dlvqもあります。 https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq 詳細 dlvq : DLVQを使用するためには、入力データを正規化する必要があります。 DLVQ学習:各クラスの平均ベクトル(プロトタイプ)を計算し、(新たに作成した)隠れモジュールに格納する。 その後、ネットワークは最も近いプロトタイプを用いて各パターンを分類する。 もしパターンがクラスxではなくクラスyと誤分類された場合、プロトタイプクラスyをパターンから遠ざけ、プロトタイプクラスxをパターン側に移動させる。この手順を分類に変化がなくなるまで繰り返し、各クラスごとに新しいプロトタイプを新しい隠れ単位としてネットワークに導入し、そのクラスにおける誤分類テンプレートの平均ベクトルで初期化する。 ネットワークアーキテクチャ:ネットワークはプロトタイプごとに1つのユニットを含む1つの隠れ層のみを持つ。 プロトタイプ/隠れユニットはコードブックベクトルとも呼ばれる。 SNNSはユニットを自動的に生成し、ユニット数の事前指定を必要としないため、SNNSの手順は 動的 LVQと呼ばれる。 学習関数の3つのパラメータは、2つの学習率(正しく分類されたケースとそうでないケース)および平均ベクトルを計算する前にネットワークの学習を行うサイクル数を定義します。 参考文献 古今東西(1988)、自己組織化と連想記憶、Vol.8, Springer-Verlag. ========================================================= 男 このLVQを読むと、まるでコホーネン(SOM)のようですが、先生が います。 https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like. Aleksey Vyazmikin 2020.08.14 06:13 #19659 ターゲットを参考に数値範囲を定量化する問題を解決したのは誰ですか?私の場合は、非一様な「量子化」、つまり、数値表現における範囲の最小桁や窓そのものを制限してターゲットにオートチューニングするプロセスですが、まだ決定していません。 CatBoostを 用いた実験では、量子化が結果に強く(場合によっては15%までアキュラシー)影響することが示されています。 mytarmailS 2020.08.14 06:35 #19660 Aleksey Vyazmikin: ターゲットを参考に数値範囲を定量化する問題を解決したのは誰ですか?私の場合は、非一様な「量子化」、つまり、数値表現における範囲の最小桁や窓そのものを制限してターゲットにオートチューニングするプロセスですが、まだ決定していません。CatBoostを使った実験では、量子化が結果に強く(場合によっては15%まで)影響することが分かっています。 https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html ターゲットに対して離散化(量子化)するためのパッケージです。 1...195919601961196219631964196519661967196819691970197119721973...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
pythonに切り替えて、例をあげるから、それを使ってください。
RLは初心者レベルの話題ではないので、フォーラムで議論する意味がないと思います。
本を読み終えたら、すぐに聞きます))))相場がわからないのであれば、その通りかもしれませんね。時間が分からない場合は、別の作戦になるかもしれません。
pythonに切り替えて、例をあげるから、それを使ってください。
RLはエントリーレベルの話題ではないので、フォーラムで議論する意味はないと思います。
メールを送ってもらえますか?
eugen420@gmail.com
メールで送ってもらえますか?
本人にだけ、あとは有料で。
pythonに切り替えて、例をあげるから、それを使ってください。
RLはエントリーレベルのトピックとは程遠いので、フォーラムで議論する意味はないと思います
試してみます。
試してみます。
YouTubeで紹介されている動画を見てみてください。
ええ、それが私の仕事です))
はい、そうです))
間違いのないマニュアルを作れば、理解も早くなる。
クラスタ層はコホネンベクトル量子化(LVQ)ニューラルネットワークである。クラスタ層は、標準的な LVQ アルゴリズムに従って樹状突起の結果をグループ化する。LQVは 教師不要のオンライン学習を実装して いることを思い出してください。
第一に、頭文字が混ざっていること(正しくはLVQ)、第二に、WITH A TUTORという教授法であること。
ティーチャーレス方式はVQ(vector quantizatinon)と呼ばれていますが、それならLVQではなく、ニューロンである可能性が高いです。
ここで重要なのは、LQVサブネットが前回の入力信号の記憶をLQVニューロンの最後の出力の記憶として保持したことである。そのため、ニューラルネットワークの入力に直接与えられる情報よりも、より多くの情報が利用できるようになった。
まだ理解できていません。最も意味するところは、ニューロンに戻るサブネットワークの出力のこれらの接続である可能性が高いです。過去の行動に関する情報を記憶しているだけなのです。
つまり、メモリにはLQVサブネットワークが格納されている。
間違いのないマニュアルを作れば、理解も早くなる。
クラスタ層はコホネンベクトル量子化(LVQ)ニューラルネットワークである。クラスタ層は、標準的な LVQ アルゴリズムに従って樹状突起の結果をグループ化する。LQVは 教師不要のオンライン学習を実装して いることを思い出してください。
第一に、頭文字が混ざっていること(正しくはLVQ)、第二に、WITH A TUTORという教授法であること。
で、教師がいない方式をVQ(vector quantizatinon)と呼ぶとすると、LVQではなく、神経細胞にある可能性が高いです。
dunno...4回読んでもわからない、もしかして先生はそこの補強なのか?
+ レイヤーからの投票もある。
LQVサブネットは、LQVニューロンの最後の出力の記憶として、前の入力の記憶を保持していたことが重要である。そのため、ニューラルネットワークの入力に直接与えられる情報よりも、より多くの情報が利用できるようになった。
まだ理解できていません。最も意味するところは、ニューロンに戻るサブネットワークの出力のこれらの接続である可能性が高いです。過去の行動に関する情報を記憶しているだけなのです。
つまり、メモリにはLQVサブネットが格納されている。
そうですね、 LQVにおける 記憶は、LQVニューロンの最後の出力という 形になっていますが、それは、私の理解では、記憶は1段階しか戻っていないのですが......。
やかんとコーヒーに例えるのはどうでしょう? それこそ、全財産です。
何も言われなかったんですか?
こんなのどこで教えてるんだろう。 サイバネティックスとかロボット工学とか...。
データシンシアンは技術研究所の物理学者に過ぎない)
==============================================================
ダイナミックLVQ - - dlvqもあります。
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
詳細
dlvq : DLVQを使用するためには、入力データを正規化する必要があります。
DLVQ学習:各クラスの平均ベクトル(プロトタイプ)を計算し、(新たに作成した)隠れモジュールに格納する。 その後、ネットワークは最も近いプロトタイプを用いて各パターンを分類する。 もしパターンがクラスxではなくクラスyと誤分類された場合、プロトタイプクラスyをパターンから遠ざけ、プロトタイプクラスxをパターン側に移動させる。この手順を分類に変化がなくなるまで繰り返し、各クラスごとに新しいプロトタイプを新しい隠れ単位としてネットワークに導入し、そのクラスにおける誤分類テンプレートの平均ベクトルで初期化する。
ネットワークアーキテクチャ:ネットワークはプロトタイプごとに1つのユニットを含む1つの隠れ層のみを持つ。 プロトタイプ/隠れユニットはコードブックベクトルとも呼ばれる。 SNNSはユニットを自動的に生成し、ユニット数の事前指定を必要としないため、SNNSの手順は 動的 LVQと呼ばれる。
学習関数の3つのパラメータは、2つの学習率(正しく分類されたケースとそうでないケース)および平均ベクトルを計算する前にネットワークの学習を行うサイクル数を定義します。
参考文献
古今東西(1988)、自己組織化と連想記憶、Vol.8, Springer-Verlag.
=========================================================
男 このLVQを読むと、まるでコホーネン(SOM)のようですが、先生が います。
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.
ターゲットを参考に数値範囲を定量化する問題を解決したのは誰ですか?私の場合は、非一様な「量子化」、つまり、数値表現における範囲の最小桁や窓そのものを制限してターゲットにオートチューニングするプロセスですが、まだ決定していません。
CatBoostを 用いた実験では、量子化が結果に強く(場合によっては15%までアキュラシー)影響することが示されています。
ターゲットを参考に数値範囲を定量化する問題を解決したのは誰ですか?私の場合は、非一様な「量子化」、つまり、数値表現における範囲の最小桁や窓そのものを制限してターゲットにオートチューニングするプロセスですが、まだ決定していません。
CatBoostを使った実験では、量子化が結果に強く(場合によっては15%まで)影響することが分かっています。
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
ターゲットに対して離散化(量子化)するためのパッケージです。