トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3164 1...315731583159316031613162316331643165316631673168316931703171...3399 新しいコメント Maxim Dmitrievsky 2023.08.01 12:28 #31631 Forester #:どのように検索するのか?Go through all chunks (e.g. 100 by 5000 pp) and see how successfully the other 500,000 rows on that model predict? 、フレンドリーなフレンドリーなフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリー。 Dmytryi Nazarchuk 2023.08.01 12:39 #31632 mytarmailS #:笑いすぎて涙目になったよ(笑)。バルドにロシア語で書いてくれと頼んだら、彼は間違えて書いていた、よくあることだ。ロシア語は母国語ではないので、要するにここでしか使わない のだが......。と答えた。)わかったかい?彼は私を荒らし始めました )))残酷だ))) 彼はあなたを荒らしてはいない。 君が書いたruSkiはセルビア語で「ロシア語」だ。 だから彼はセルビア語であなたに手紙を書いているんだ。 mytarmailS 2023.08.01 12:43 #31633 Dmytryi Nazarchuk #:彼はあなたを荒らしてはいない。あなたはrusskiと書いたが、それはセルビア語で "ロシア人 "の意味だ。だから彼はセルビア語であなたに手紙を書いているんだ ああ))) mytarmailS 2023.08.01 12:49 #31634 mytarmailS #:木と木における強化学習についての興味深い記事。https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/ このアルゴリズムを市場データでテストしてみた。 アルゴリズムは、Forestと比較して、新しいデータでも安定して動作する.... アルゴリズムは再教育されておらず、すべての検証サンプルにおいて、結果はテストサンプルよりも良いか、はるかに良いかのどちらかである。 AkurasiはForrestより平均2-4%優れています。 Forrestが0.58なら、RLTは~0.62です。 いずれにせよ、最初のテストによれば、このアルゴリズムは価値があるが、学習には長い時間がかかる...。 СанСаныч Фоменко 2023.08.01 12:54 #31635 Forester #: 自家製。実験の可能性は無限だ...。 そうだね。自家製について議論する意味はない。 なぜ自作に時間を費やすのか?何百万人ものユーザーが実際に使っているアルゴリズムを持つ、自家製でないものは何十種類もあるのだから......。 Aleksey Nikolayev 2023.08.01 14:41 #31636 mytarmailS #:を市場データでテストした。このアルゴリズムは、Forestに比べ、新しいデータでも安定的に機能する......。アルゴリズムは再学習しない。全ての検証サンプルにおいて、結果はテストサンプルより良いか、はるかに良い。Akurasiは平均してForrestより2~4%優れているので、Forrestが0.58ならRLTは~0.62となる。いずれにせよ、最初のテストによれば、このアルゴリズムは価値があるが、学習には長い時間がかかる...。 彼らの理論によると、うまく機能する「強い」形質がいくつかあるはずで、問題はそれを残りの「弱い」形質から分離することだ。彼らの専門分野である遺伝学では、おそらくそうなのだろう。しかし、我々の状況は明らかに異なっている。形質は強さにおいてほぼ等しく、しばしば共線的であり、その強さの評価は時間の経過とともに変化しうる。 一般的に、情報量の多い形質を選択するだけなら、秘伝の方法を持つサン・サンチはとっくの昔に一兆長者になっているだろう)。 mytarmailS 2023.08.01 14:47 #31637 Aleksey Nikolayev #:彼らの理論では、うまく機能する "強い "形質がいくつかあり、唯一の問題はそれを残りの "弱い "形質から分離することだと仮定している。彼らの専門分野である遺伝学では、おそらくそうなのだろう。しかし、我々の状況は明らかに異なっている。形質は強さにおいてほぼ等しく、多くの場合共線的であり、その強さの評価は時間の経過とともに変化しうる。一般的に、情報量の多い形質を選択するだけなら、秘伝の方法を持つサン・サンチはとっくの昔に一兆長者になっているはずだ)。 さて、このアルゴリズムは本当に機能し、より安定していて、よりアクラシが良く、よりカッパが良い...言い換えれば、より良く機能する...。 そして、それは1000の新しい観測の後でも、20 000の後でも 機能します...そして、誤差は同じか、より良いです。 アレクシー・ニコライエフ#: 符号の強さはほぼ同じです まあ、ここで私は同意することはできません。 このアルゴリズムの重要性 Forester 2023.08.01 17:55 #31638 СанСаныч Фоменко #:そうだね...ー自家製をーなんてー。Why waste time on homemade ones?何百万人ものユーザーに実際に使われているアルゴリズムを持つ、自家製でないものが何十種類もあるのだから......。 私はパッケージについて議論しているのではなく、アイデアについて議論しているのです。 mytarmailS 2023.08.02 07:27 #31639 Forester #: 私はパッケージについて議論するのではなく、アイデアについてだけ議論することを提案している。 ここで議論されているアイデアを実装した人は何人いますか?そして、そのうちの何人が、既製のライブラリを使った場合よりも良い結果を得たのでしょうか?ゼロに等しいのでは?そして、ライブラリーは再現可能なコードであり、誰もがそれを実行することができ、誰もがイエス・ノーの答え+経験と知識の付加という形で、再現可能な結果、本当の結果を得ることができる。議論は時間の無駄で、議論して、議論して、忘れて、誰もコードを一行も書かなかった。 Maxim Dmitrievsky 2023.08.02 08:44 #31640 知識が減少しているように感じる。 1...315731583159316031613162316331643165316631673168316931703171...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
どのように検索するのか?Go through all chunks (e.g. 100 by 5000 pp) and see how successfully the other 500,000 rows on that model predict?
、フレンドリーなフレンドリーなフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリー。
笑いすぎて涙目になったよ(笑)。
バルドにロシア語で書いてくれと頼んだら、彼は間違えて書いていた、よくあることだ。ロシア語は母国語ではないので、要するにここでしか使わない のだが......。
と答えた。)
わかったかい?
彼は私を荒らし始めました )))
残酷だ)))
彼はあなたを荒らしてはいない。
君が書いたruSkiはセルビア語で「ロシア語」だ。
だから彼はセルビア語であなたに手紙を書いているんだ。
彼はあなたを荒らしてはいない。
あなたはrusskiと書いたが、それはセルビア語で "ロシア人 "の意味だ。
だから彼はセルビア語であなたに手紙を書いているんだ
ああ)))
木と木における強化学習についての興味深い記事。
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
このアルゴリズムを市場データでテストしてみた。
アルゴリズムは、Forestと比較して、新しいデータでも安定して動作する....
アルゴリズムは再教育されておらず、すべての検証サンプルにおいて、結果はテストサンプルよりも良いか、はるかに良いかのどちらかである。
AkurasiはForrestより平均2-4%優れています。 Forrestが0.58なら、RLTは~0.62です。
いずれにせよ、最初のテストによれば、このアルゴリズムは価値があるが、学習には長い時間がかかる...。
自家製。実験の可能性は無限だ...。
そうだね。自家製について議論する意味はない。
なぜ自作に時間を費やすのか?何百万人ものユーザーが実際に使っているアルゴリズムを持つ、自家製でないものは何十種類もあるのだから......。
を市場データでテストした。
このアルゴリズムは、Forestに比べ、新しいデータでも安定的に機能する......。
アルゴリズムは再学習しない。全ての検証サンプルにおいて、結果はテストサンプルより良いか、はるかに良い。
Akurasiは平均してForrestより2~4%優れているので、Forrestが0.58ならRLTは~0.62となる。
いずれにせよ、最初のテストによれば、このアルゴリズムは価値があるが、学習には長い時間がかかる...。
彼らの理論によると、うまく機能する「強い」形質がいくつかあるはずで、問題はそれを残りの「弱い」形質から分離することだ。彼らの専門分野である遺伝学では、おそらくそうなのだろう。しかし、我々の状況は明らかに異なっている。形質は強さにおいてほぼ等しく、しばしば共線的であり、その強さの評価は時間の経過とともに変化しうる。
一般的に、情報量の多い形質を選択するだけなら、秘伝の方法を持つサン・サンチはとっくの昔に一兆長者になっているだろう)。
彼らの理論では、うまく機能する "強い "形質がいくつかあり、唯一の問題はそれを残りの "弱い "形質から分離することだと仮定している。彼らの専門分野である遺伝学では、おそらくそうなのだろう。しかし、我々の状況は明らかに異なっている。形質は強さにおいてほぼ等しく、多くの場合共線的であり、その強さの評価は時間の経過とともに変化しうる。
一般的に、情報量の多い形質を選択するだけなら、秘伝の方法を持つサン・サンチはとっくの昔に一兆長者になっているはずだ)。
さて、このアルゴリズムは本当に機能し、より安定していて、よりアクラシが良く、よりカッパが良い...言い換えれば、より良く機能する...。
そして、それは1000の新しい観測の後でも、20 000の後でも 機能します...そして、誤差は同じか、より良いです。
符号の強さはほぼ同じです
まあ、ここで私は同意することはできません。
このアルゴリズムの重要性
そうだね...ー自家製をーなんてー。
Why waste time on homemade ones?何百万人ものユーザーに実際に使われているアルゴリズムを持つ、自家製でないものが何十種類もあるのだから......。
私はパッケージについて議論しているのではなく、アイデアについて議論しているのです。
私はパッケージについて議論するのではなく、アイデアについてだけ議論することを提案している。