トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3388 1...338133823383338433853386338733883389339033913392339333943395...3399 新しいコメント Aleksey Vyazmikin 2024.01.23 09:29 #33871 Maxim Dmitrievsky #:なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用。学習サンプルから同じ例を見つける確率、特徴の数に依存する。 よくわからない。訓練サンプルと同じ例が見つかる確率? Maxim Dmitrievsky 2024.01.23 09:36 #33872 Aleksey Vyazmikin #:何も明らかではない。トレーニング・サンプルと同じ例がどこにあるかを見つける確率は?データセット中の同じ行1,000行しかない場合大雑把に言って、18以上の特徴量がある場合、すべての行を記憶するように分類器を訓練することになる。 因果推論では、統計量を計算するために例をマッチさせることはできない。 mytarmailS 2024.01.23 09:53 #33873 Aleksey Vyazmikin #:1.この行列はどうやって作るのですか?そこにある数字は何ですか?2.私はルールについて話している。私のアプローチでは、ルールが何からどのように導き出されるかは気にしませんが、もし反応がトレーニングサンプルの別のものと似ているなら、それは追加情報を持ちません。 1. 特徴の値2.驚かせるかもしれないが、特徴量がどのように作られたかなんて誰も気にしていない。 mytarmailS 2024.01.23 09:55 #33874 Maxim Dmitrievsky #:なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用する。学習サンプルから同じ例を見つける確率、特徴の数に依存する。特徴量が14個以上(10個でも)あると、損失なく削減できないルールがたくさん出てくる。 これはすべて、カジュアルな枠組みの中での話です。非構造化特徴(テキスト、画像)を持つモデルでは。数千の属性が普通です。 Maxim Dmitrievsky 2024.01.23 10:00 #33875 mytarmailS #: 全ては気軽な範囲だが...。 構造化されていない特徴(テキスト、写真)を持つモデルでは。 数千の属性は普通だ。 sec2secのようなニューロニック内部で効率的な圧縮アルゴリズムを使っているので、それも事実。 mytarmailS 2024.01.23 10:07 #33876 Maxim Dmitrievsky #:sec2secのようなニューロニック内部の効率的な圧縮アルゴリズムを使っているので、公平でもある。 もしテキストについて話すなら、95%のケースで通常の単語カウントが使われる。0, 1, 103..そして、特徴行列の占有スペースを小さくするために、「スパース行列」という形式をとっています。 写真は畳み込みです。そして、seq2seqは珍しい問題に対してエキゾチックである。 Maxim Dmitrievsky 2024.01.23 10:13 #33877 mytarmailS #: もしテキストについて話しているなら、95%のケースで通常の単語カウンターが使われている。0, 1, 103.. また、特徴量の行列の占有率を低くするために、「疎行列」の形式をとります。これは、行列の値の95%がゼロであるため、好都合です( )。 写真では、畳み込み。 また、seq2seqは珍しい問題でエキゾチックである。 これらは異なるアーキテクチャ、レイヤーケーキだ。比較するのは難しい。我々は通常の分類や回帰について話している。この場合、普遍的な法則のように見える。 mytarmailS 2024.01.23 10:39 #33878 Maxim Dmitrievsky #:これらは他のアーキテクチャー、レイヤーケーキだ。比較するのは難しい。普通の分類や回帰の話です。この場合、普遍的な法則のように見えます。 すべて同じことです。 ニューロンの話ではなく、フィードフォワードの構造の話です。 ----------------------------------------------------------------------そういえば、バッグ・オブ・ワードって言うんだった。 新しいもの、よくわからないもの、理解できないもの、複雑なもの?同じ符号表+任意の手口これは構造化されていないデータ(テキスト)を使っている。 Maxim Dmitrievsky 2024.01.23 11:07 #33879 mytarmailS #: 全部同じだよ。 ニューロンの話ではなく、形質フィードの構造の話をしているんだ。 ----------------------------------------------------------------------ああ、思い出した、言葉の袋ってやつだ。新しいもの、よくわからないもの、理解できないもの、複雑なもの?同じ符号表+任意の手口これは構造化されていないデータ(テキスト)を扱っている。 これは別のトピックから。どのように変換しても、入力ベクトルの次元は指定されたしきい値より低くなければならない。カテゴリー的なものは、おそらくベクトル長の制限がより大きい。さらに、行数依存性も考慮する。巨大なデータでは、特徴数はもっと大きくなるかもしれない。 mytarmailS 2024.01.23 11:15 #33880 Maxim Dmitrievsky #: それは別問題だ。どのように変換しても、入力ベクトルの次元数は指定されたしきい値より小さくなければならない。カテゴリカルなものは、おそらくベクトル長の制限が大きい。さらに、行数依存性も考慮する。巨大なデータでは、特徴数はもっと大きくなるかもしれない。 その他))世界中がやっていて、みんなハッピーだ)) 1...338133823383338433853386338733883389339033913392339333943395...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用。
学習サンプルから同じ例を見つける確率、特徴の数に依存する。
よくわからない。訓練サンプルと同じ例が見つかる確率?
何も明らかではない。トレーニング・サンプルと同じ例がどこにあるかを見つける確率は?
データセット中の同じ行
1,000行しかない場合
大雑把に言って、18以上の特徴量がある場合、すべての行を記憶するように分類器を訓練することになる。
因果推論では、統計量を計算するために例をマッチさせることはできない。1.この行列はどうやって作るのですか?そこにある数字は何ですか?
2.私はルールについて話している。私のアプローチでは、ルールが何からどのように導き出されるかは気にしませんが、もし反応がトレーニングサンプルの別のものと似ているなら、それは追加情報を持ちません。
なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用する。
学習サンプルから同じ例を見つける確率、特徴の数に依存する。
特徴量が14個以上(10個でも)あると、損失なく削減できないルールがたくさん出てくる。
全ては気軽な範囲だが...。
sec2secのようなニューロニック内部で効率的な圧縮アルゴリズムを使っているので、それも事実。
sec2secのようなニューロニック内部の効率的な圧縮アルゴリズムを使っているので、公平でもある。
もしテキストについて話しているなら、95%のケースで通常の単語カウンターが使われている。0, 1, 103..
)。
これらは異なるアーキテクチャ、レイヤーケーキだ。比較するのは難しい。我々は通常の分類や回帰について話している。この場合、普遍的な法則のように見える。
これらは他のアーキテクチャー、レイヤーケーキだ。比較するのは難しい。普通の分類や回帰の話です。この場合、普遍的な法則のように見えます。
----------------------------------------------------------------------
そういえば、バッグ・オブ・ワードって言うんだった。
新しいもの、よくわからないもの、理解できないもの、複雑なもの?
同じ符号表+任意の手口
これは構造化されていないデータ(テキスト)を使っている。
全部同じだよ。
----------------------------------------------------------------------
ああ、思い出した、言葉の袋ってやつだ。
新しいもの、よくわからないもの、理解できないもの、複雑なもの?
同じ符号表+任意の手口
これは構造化されていないデータ(テキスト)を扱っている。
それは別問題だ。どのように変換しても、入力ベクトルの次元数は指定されたしきい値より小さくなければならない。カテゴリカルなものは、おそらくベクトル長の制限が大きい。さらに、行数依存性も考慮する。巨大なデータでは、特徴数はもっと大きくなるかもしれない。