トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3399 1...33923393339433953396339733983399 新しいコメント Maxim Dmitrievsky 2024.02.24 14:03 #33981 mytarmailS #:何十億もの単語データセットで訓練されているため、うまく一般化できる。もしニューロンを話すように訓練したら、何をするように訓練するつもりですか?多くの視覚化が必要だからだ。ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか? ボロンツォフはビデオの中でこう言っている。ファンダメンタルモデルの概念について、1時間目から。 私はこう尋ねた。 mytarmailS 2024.02.24 14:14 #33982 Maxim Dmitrievsky #:ボロンツォフはビデオで話している。ファンダメンタルモデルのコンセプトについて。 ああ、思い出した。 これは一種の概念で、どんな情報もベクトルに還元することができる。 LLMはテキストを埋め込むために訓練されているのであって、それ以上のものではありません。 ですから、もしあなたが独自のOHLCエンベッディングをLLMに与えたとしても、何も起こりません ))) 。 異なる埋め込み、異なるタスク、異なるターゲット......同時に、テキストを書き、絵を描き、話す......つまりマルチモーダリティで、ゼロから訓練する必要があります。 テキストが書けるネウラにOHLCを与えても、うまくいかないでしょう。 Maxim Dmitrievsky 2024.02.24 14:18 #33983 mytarmailS #:ああ、思い出した。つまり、どんな情報でもベクトルに還元することができるという概念なんだ。LLMはテキスト埋め込みのために訓練されたのであって、それ以上のものではないんだ。だから、OHLCを使って独自の埋め込みを行ったとしても、何も起こりません )))知識の蒸留は、モデルがその一般的な「知識」をあなたの領域に転送するときに起こるかもしれません。ーちょっとー曖昧ですがーー。知識は数字やテキスト、絵、さらには音やプログラムコードに変換することができる。 mytarmailS 2024.02.24 14:22 #33984 Maxim Dmitrievsky #:知識の蒸留は、モデルがその一般的な「知識」をあなたのドメインに転送するときに発生する可能性があります。ちょっとあいまいですが、こんな感じです。 何も起こらない。 あるデータで訓練されたPCAを想像してほしい。 そこに見慣れないデータが加わると、それはただ孤立した点の集まりのようなもので、ニューロンはそれをどう扱えばいいのかわからない。 なぜなら、そのクラスターは彼女が働いたことのない座標にあるからだ。 Maxim Dmitrievsky 2024.02.24 14:24 #33985 mytarmailS #:何も起こらないよ。あるデータに対してPCAが訓練されたことを想像してほしい。そこに見慣れないデータを加えても、それは一種の孤立した点の集まりとして現れるだけで、ネウラにはそれをどう扱っていいのかわからない。なぜなら、そのクラスターは彼女がこれまで働いたことのない座標にあるからだ。まあ、今時はみんなそうしていることだけどね。例を探さないといけないね。 モデルの重み(リンク)を更新するのであって、新しい点を追加するわけではない。 mytarmailS 2024.02.24 14:28 #33986 Maxim Dmitrievsky #:まあ、最近は誰もがそうしていることだよ。例を探す必要があるね。 あなたはモデルの重みを更新しているのであって、新しいポイントを追加しているわけではありません。 わかってないね。 Maxim Dmitrievsky 2024.02.24 14:29 #33987 mytarmailS #:君には理解できない。 それは分かるけど、そういう仕組みじゃないんだ。あらゆる情報を意味的なベクトルにエンコードし、データの性質は関係ない。すでにすべての記号を知っている。重要なのはその順序なんだ。 Maxim Dmitrievsky 2024.02.24 14:44 #33988 ああ、邪魔はしていないよ。ただ、当面の間、"やってみる "ための話題なんだ :) 1...33923393339433953396339733983399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
何十億もの単語データセットで訓練されているため、うまく一般化できる。
もしニューロンを話すように訓練したら、何をするように訓練するつもりですか?
多くの視覚化が必要だからだ。
ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか?
ボロンツォフはビデオの中でこう言っている。ファンダメンタルモデルの概念について、1時間目から。
私はこう尋ねた。
ボロンツォフはビデオで話している。ファンダメンタルモデルのコンセプトについて。
ああ、思い出した。
これは一種の概念で、どんな情報もベクトルに還元することができる。
LLMはテキストを埋め込むために訓練されているのであって、それ以上のものではありません。
ですから、もしあなたが独自のOHLCエンベッディングをLLMに与えたとしても、何も起こりません ))) 。
異なる埋め込み、異なるタスク、異なるターゲット......同時に、テキストを書き、絵を描き、話す......つまりマルチモーダリティで、ゼロから訓練する必要があります。
テキストが書けるネウラにOHLCを与えても、うまくいかないでしょう。
ああ、思い出した。
つまり、どんな情報でもベクトルに還元することができるという概念なんだ。
LLMはテキスト埋め込みのために訓練されたのであって、それ以上のものではないんだ。
だから、OHLCを使って独自の埋め込みを行ったとしても、何も起こりません )))
知識の蒸留は、モデルがその一般的な「知識」をあなたの領域に転送するときに起こるかもしれません。ーちょっとー曖昧ですがーー。
知識は数字やテキスト、絵、さらには音やプログラムコードに変換することができる。知識の蒸留は、モデルがその一般的な「知識」をあなたのドメインに転送するときに発生する可能性があります。ちょっとあいまいですが、こんな感じです。
何も起こらない。
あるデータで訓練されたPCAを想像してほしい。
そこに見慣れないデータが加わると、それはただ孤立した点の集まりのようなもので、ニューロンはそれをどう扱えばいいのかわからない。
なぜなら、そのクラスターは彼女が働いたことのない座標にあるからだ。
何も起こらないよ。
あるデータに対してPCAが訓練されたことを想像してほしい。
そこに見慣れないデータを加えても、それは一種の孤立した点の集まりとして現れるだけで、ネウラにはそれをどう扱っていいのかわからない。
なぜなら、そのクラスターは彼女がこれまで働いたことのない座標にあるからだ。
まあ、今時はみんなそうしていることだけどね。例を探さないといけないね。
モデルの重み(リンク)を更新するのであって、新しい点を追加するわけではない。まあ、最近は誰もがそうしていることだよ。例を探す必要があるね。
あなたはモデルの重みを更新しているのであって、新しいポイントを追加しているわけではありません。わかってないね。
君には理解できない。
それは分かるけど、そういう仕組みじゃないんだ。あらゆる情報を意味的なベクトルにエンコードし、データの性質は関係ない。すでにすべての記号を知っている。重要なのはその順序なんだ。