トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2221 1...221422152216221722182219222022212222222322242225222622272228...3399 新しいコメント Maxim Dmitrievsky 2020.12.04 11:31 #22201 mytarmailS: まあランダムじゃなくてもいいんだけどね。)彼の役割は何なのか、まだ理解できていません。 ジグザグとか神頼みより、タギングが普通。 mytarmailS 2020.12.04 11:37 #22202 Maxim Dmitrievsky: マークを作るのは、ジグザグやGod knows whatよりも、私には普通だと思う。 dunno...理解できないかもしれない。 Maxim Dmitrievsky 2020.12.04 11:40 #22203 mytarmailS: どうだろう...私が理解していないことがあるのかもしれません。 理解することは何もない、アルゴリズムで最も重要な部分ではない。あなたの方法でマークアップすることができます Fast235 2020.12.04 11:41 #22204 スピードアップするまで待ってください。 Maxim Dmitrievsky 2020.12.04 11:41 #22205 Fast235: 待ってください、すぐ行きます。 出て、綺麗に入る🤣🤣 分かった、面白い人たち、また来るね Fast235 2020.12.04 11:43 #22206 Maxim Dmitrievsky: 美しく入る。 嗜好の話なら、まだしも。 mytarmailS 2020.12.04 11:53 #22207 マキシム・ドミトリエフスキー: とにかく...やった まだ何もトレーニングしていませんが、目視では何も問題ありません。 psaは5コンプの兆しがある とシミュレーションデータで Maxim Dmitrievsky 2020.12.04 12:00 #22208 mytarmailS: とにかく...やりましたまだ何もトレーニングしていないのですが、目視では何も問題はないようです。rsaは5コンプの気配がある。とシミュレーションデータを使って 少なくとも、クラスターはより高密度になっています。排出量も少ないはずです。 mytarmailS 2020.12.04 12:04 #22209 マキシム・ドミトリエフスキー: のクラスターは、控えめに言っても密度が高いです。排出量も少なくなるはずです。 試してみないと...。 正規化されていない 価格がrsaに提出された場合、その違いを見ることができます。 が、無格付けを使うのは意味がない。 Vladimir Perervenko 2020.12.04 12:07 #22210 mytarmailS: 分類や回帰のために設計されたほとんどすべてのパッケージから、「最小」ニューロンを訓練する方法がわかりました。主なものは、このパッケージによってニューラル・スケールにアクセスし、修正することができるということです。レシピは以下の通りです。1) ニューラルネットワークを訓練する、何があっても、主なものは、重みのあるモデルを得ることである2) 最適化手法の選択(遺伝学、ムラビ、群れ、アニーリングシミュレーションなど)3) 適合性関数を書く4) ニューロンの重みを取り出し、最適化のためのパラメータとして表現するオール!!!)))neuronkaをトレーニングして、利益を出すようにしたり、メガインディケータみたいなものを作らせたりすることができます。 もうとっくに考えてありますよ!Rパッケージ - "automl "を参照! 1...221422152216221722182219222022212222222322242225222622272228...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
まあランダムじゃなくてもいいんだけどね。)
彼の役割は何なのか、まだ理解できていません。
マークを作るのは、ジグザグやGod knows whatよりも、私には普通だと思う。
dunno...理解できないかもしれない。
どうだろう...私が理解していないことがあるのかもしれません。
待ってください、すぐ行きます。
美しく入る。
嗜好の話なら、まだしも。
とにかく...やった
まだ何もトレーニングしていませんが、目視では何も問題ありません。
psaは5コンプの兆しがある
とシミュレーションデータで
とにかく...やりました
まだ何もトレーニングしていないのですが、目視では何も問題はないようです。
rsaは5コンプの気配がある。
とシミュレーションデータを使って
少なくとも、クラスターはより高密度になっています。排出量も少ないはずです。
のクラスターは、控えめに言っても密度が高いです。排出量も少なくなるはずです。
試してみないと...。
正規化されていない 価格がrsaに提出された場合、その違いを見ることができます。
が、無格付けを使うのは意味がない。
分類や回帰のために設計されたほとんどすべてのパッケージから、「最小」ニューロンを訓練する方法がわかりました。
主なものは、このパッケージによってニューラル・スケールにアクセスし、修正することができるということです。
レシピは以下の通りです。
1) ニューラルネットワークを訓練する、何があっても、主なものは、重みのあるモデルを得ることである
2) 最適化手法の選択(遺伝学、ムラビ、群れ、アニーリングシミュレーションなど)
3) 適合性関数を書く
4) ニューロンの重みを取り出し、最適化のためのパラメータとして表現する
オール!!!)))
neuronkaをトレーニングして、利益を出すようにしたり、メガインディケータみたいなものを作らせたりすることができます。
もうとっくに考えてありますよ!Rパッケージ - "automl "を参照!