トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3298 1...329132923293329432953296329732983299330033013302330333043305...3399 新しいコメント Andrey Dik 2023.10.11 13:35 #32971 fxsaber #:どうやら、人間の脳は潜在意識のレベルでは、今でも極めて少ないデータから「パターン」を見つけ出すことができるようだ。運とは呼べない。不思議だ。 ー実際、ー実際、ー トレーダーはー トレーダーはー トレーダーはー トレーダーはー トレーダーーーー Maxim Dmitrievsky 2023.10.11 13:47 #32972 Andrey Dik #:ここで、あなた自身が、偽のデータを使って事前に訓練された脳が、それまで知らなかった特定の問題を解決することを示している。 そんなことは言っていない、嘘をつくな😀。サインは知識ではない。 СанСаныч Фоменко 2023.10.11 13:50 #32973 Andrey Dik #:あなたは「極値」と「シャープピーク」(関数が微分を持たない点)の概念を混同している。 平らな表面にも極限はある。もうひとつは、FFは常に、FFの表面ができるだけ滑らかになるように、そして大域的極値が唯一になるように選択しようとする。唯一の大域的極限は、問題の唯一の明確な解でなければならない。もしFFの大域的極限が唯一のものでない場合、さらにそれが微分を持っていない場合は、FF(モデル評価の基準)の選択が正しくないことを意味する。これを誤解すると「オーバーフィッティング」と呼ばれるようになり、これを誤解すると曖昧な局所極値を探すことになる。例えるなら、専門家(医師)は訓練を受け、資格認定試験(FF)が開発され、医師には「オーバートレーニング」や「オーバーフィット」という概念は存在しない。そしてあなたによれば、優秀な医師は常に訓練不足の非科学者であるべきだという。繰り返しになるが、「オーバートレーニング」の問題は、モデルを評価する基準の選択を誤ったことにある。このようなクールな専門家がこのフォーラムにはいるようだが、彼らは何度も同じ間違いを繰り返す。正しい推定基準を開発することは、予測因子を選択することに劣らず重要であり、そうでなければモデルを適切に推定することは不可能である。異論が飛び交うことが予想されるが、大丈夫だ。誰かの役に立つのであれば素晴らしいことだし、役に立たない人はどうでもいい。 スーパーフィットモデルは最適化とはまったく関係ない。 引用の理想的なオーバーフィットモデルとは、引用そのものである。他のモデル構築のケースと同じように、最適化は存在しないし、そのようなモデルの推定は縮退している。 あなたは「モデル」という言葉の意味を理解していない。例えば、ニュートンの万有引力の法則のモデル。真空で、宇宙に他の物体がない、という理想的な条件下で適用される。とはいえ、これによって練習に十分な精度で多くの計算を行うことができる。 そして、モデルを構築するすべての問題は、実際のデータとの誤差が私たちに合うものを見つけることである。私たちが目にする誤差は、必ずしも将来のものであるとは限らず、ある信頼区間内のものであることを理解すべきである。したがって、私たちが探しているのは、実際に許容できる範囲内の誤差を持つモデルなのです。極値は必要ありません。 fxsaber 2023.10.11 14:02 #32974 Forester #:1,500億のニューロン、1ニューロンあたり1つの出力ではなく、多数の出力。AIがこのレベルの知性に到達するのは、ずっと先か、あるいは一生先のことだろう。 NSの知能レベルはゴキブリに例えられる。 人類の数十億の個体数を掛け合わせれば、現在の文明は、超少量のデータで、多くの観察された現象を正確に予測し、さらには観察されていない現象を再現することができる仮説を打ち立てることが可能であることを示している。 fxsaber 2023.10.11 14:04 #32975 Maxim Dmitrievsky #: 一発学習。事前に訓練された大規模なNS(脳)が、わずか数例の左データで事前訓練された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。 このようにして、特に大規模な言語モデルは、新しいタスクのために、事前に訓練される。しかし、これらの新しい例を長時間学習させると、以前の経験を忘れ始め、新しいデータに偏り始める。 カブの年齢に対する一発学習の質をグラフにすると面白いだろう。 Forester 2023.10.11 14:08 #32976 まあ......。木には最適化がある。最適な分割を選択する。すべての列/属性がチェックされ、さまざまな分割が行われ、分類の場合はクラスの不純物値が最小になるもの、回帰の場合は精度が最大になるものが採用される。ランダムフォレストの 場合は、ここで終わりです。例えばー ブーー ブーー ブーー しかしー しかしー しかしー しかしー しかしー 尤もー 尤もー 尤ー 尤ー テスターの中で、モデルの符号や教師(例えばTP/SLの選択)を変更するパラメータの値を検索することによって行う最適化とは異なります。 Andrey Dik 2023.10.11 14:34 #32977 Maxim Dmitrievsky #:標識は知識ではない標識を何だと思ってるんだ?知識とは何だ?あなたは今日、最適化とMOは関係ないと言ったが、その後、関係あると認めた。待って、今、私たちはサインが知識であるというところまで来ている。 fxsaber 2023.10.11 14:51 #32978 fxsaber #: 仔馬の年齢から一発学習の質をグラフにするのは興味深い。 おそらくNSの脳は、特にNS形成の最も急速な時期である幼児期に、環境(およびデジタル)の影響を大きく受けているのだろう。 このような同年齢のNSを、一方は2~3歳からガジェットを使い、もう一方はガジェットを使わずに、異なるタスクで比較するのは興味深い。 つまり、どのようなNSの発達が特定の課題の解決にプラス/マイナスに影響するかを理解するためである。 おそらく、思慮深いTCの発明は、表面的なクリップ思考よりも成功率が低いのだろう。 Maxim Dmitrievsky 2023.10.11 14:57 #32979 Andrey Dik #:冷静になろう。知識とは何か?あなたは今日、最適化とMOは関係ないと言ったが、その後、関係あると認めた。待って、今、私たちはサインが知識であるというところまで来ている。 最適化とIOは関係ないとどこで言った?私なしで来てください。 Andrey Dik 2023.10.11 15:33 #32980 Maxim Dmitrievsky #: 最適化は国防総省とは無関係だと私がどこで言った?。。、、、、、、、、、、、、、ー 1...329132923293329432953296329732983299330033013302330333043305...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
どうやら、人間の脳は潜在意識のレベルでは、今でも極めて少ないデータから「パターン」を見つけ出すことができるようだ。運とは呼べない。不思議だ。
ー実際、ー実際、ー トレーダーはー トレーダーはー トレーダーはー トレーダーはー トレーダーーーー
ここで、あなた自身が、偽のデータを使って事前に訓練された脳が、それまで知らなかった特定の問題を解決することを示している。
あなたは「極値」と「シャープピーク」(関数が微分を持たない点)の概念を混同している。
平らな表面にも極限はある。
もうひとつは、FFは常に、FFの表面ができるだけ滑らかになるように、そして大域的極値が唯一になるように選択しようとする。唯一の大域的極限は、問題の唯一の明確な解でなければならない。
もしFFの大域的極限が唯一のものでない場合、さらにそれが微分を持っていない場合は、FF(モデル評価の基準)の選択が正しくないことを意味する。これを誤解すると「オーバーフィッティング」と呼ばれるようになり、これを誤解すると曖昧な局所極値を探すことになる。
例えるなら、専門家(医師)は訓練を受け、資格認定試験(FF)が開発され、医師には「オーバートレーニング」や「オーバーフィット」という概念は存在しない。そしてあなたによれば、優秀な医師は常に訓練不足の非科学者であるべきだという。
繰り返しになるが、「オーバートレーニング」の問題は、モデルを評価する基準の選択を誤ったことにある。このようなクールな専門家がこのフォーラムにはいるようだが、彼らは何度も同じ間違いを繰り返す。正しい推定基準を開発することは、予測因子を選択することに劣らず重要であり、そうでなければモデルを適切に推定することは不可能である。
異論が飛び交うことが予想されるが、大丈夫だ。誰かの役に立つのであれば素晴らしいことだし、役に立たない人はどうでもいい。
スーパーフィットモデルは最適化とはまったく関係ない。
引用の理想的なオーバーフィットモデルとは、引用そのものである。他のモデル構築のケースと同じように、最適化は存在しないし、そのようなモデルの推定は縮退している。
あなたは「モデル」という言葉の意味を理解していない。例えば、ニュートンの万有引力の法則のモデル。真空で、宇宙に他の物体がない、という理想的な条件下で適用される。とはいえ、これによって練習に十分な精度で多くの計算を行うことができる。
そして、モデルを構築するすべての問題は、実際のデータとの誤差が私たちに合うものを見つけることである。私たちが目にする誤差は、必ずしも将来のものであるとは限らず、ある信頼区間内のものであることを理解すべきである。したがって、私たちが探しているのは、実際に許容できる範囲内の誤差を持つモデルなのです。極値は必要ありません。
1,500億のニューロン、1ニューロンあたり1つの出力ではなく、多数の出力。AIがこのレベルの知性に到達するのは、ずっと先か、あるいは一生先のことだろう。
NSの知能レベルはゴキブリに例えられる。
人類の数十億の個体数を掛け合わせれば、現在の文明は、超少量のデータで、多くの観察された現象を正確に予測し、さらには観察されていない現象を再現することができる仮説を打ち立てることが可能であることを示している。
一発学習。事前に訓練された大規模なNS(脳)が、わずか数例の左データで事前訓練された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。
まあ......。木には最適化がある。最適な分割を選択する。すべての列/属性がチェックされ、さまざまな分割が行われ、分類の場合はクラスの不純物値が最小になるもの、回帰の場合は精度が最大になるものが採用される。
ランダムフォレストの 場合は、ここで終わりです。例えばー
ブーー ブーー ブーー
しかしー しかしー しかしー しかしー しかしー 尤もー 尤もー 尤ー 尤ー テスターの中で、モデルの符号や教師(例えばTP/SLの選択)を変更するパラメータの値を検索することによって行う最適化とは異なります。
仔馬の年齢から一発学習の質をグラフにするのは興味深い。
おそらくNSの脳は、特にNS形成の最も急速な時期である幼児期に、環境(およびデジタル)の影響を大きく受けているのだろう。
このような同年齢のNSを、一方は2~3歳からガジェットを使い、もう一方はガジェットを使わずに、異なるタスクで比較するのは興味深い。
つまり、どのようなNSの発達が特定の課題の解決にプラス/マイナスに影響するかを理解するためである。
おそらく、思慮深いTCの発明は、表面的なクリップ思考よりも成功率が低いのだろう。
最適化は国防総省とは無関係だと私がどこで言った?