トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3388

 
Maxim Dmitrievsky #:

なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用。

学習サンプルから同じ例を見つける確率、特徴の数に依存する。

よくわからない。訓練サンプルと同じ例が見つかる確率?

 
Aleksey Vyazmikin #:

何も明らかではない。トレーニング・サンプルと同じ例がどこにあるかを見つける確率は?

データセット中の同じ行

1,000行しかない場合

大雑把に言って、18以上の特徴量がある場合、すべての行を記憶するように分類器を訓練することになる。

因果推論では、統計量を計算するために例をマッチさせることはできない。
 
Aleksey Vyazmikin #:

1.この行列はどうやって作るのですか?そこにある数字は何ですか?

2.私はルールについて話している。私のアプローチでは、ルールが何からどのように導き出されるかは気にしませんが、もし反応がトレーニングサンプルの別のものと似ているなら、それは追加情報を持ちません。

1. 特徴の値

2.驚かせるかもしれないが、特徴量がどのように作られたかなんて誰も気にしていない。
 
Maxim Dmitrievsky #:

なぜ大量のサインは悪なのか?コズールに関する本から興味深いグラフを引用する。

学習サンプルから同じ例を見つける確率、特徴の数に依存する。

特徴量が14個以上(10個でも)あると、損失なく削減できないルールがたくさん出てくる。


これはすべて、カジュアルな枠組みの中での話です。
非構造化特徴(テキスト、画像)を持つモデルでは。
数千の属性が普通です。
 
mytarmailS #:
全ては気軽な範囲だが...。
構造化されていない特徴(テキスト、写真)を持つモデルでは。
数千の属性は普通だ。

sec2secのようなニューロニック内部で効率的な圧縮アルゴリズムを使っているので、それも事実。

 
Maxim Dmitrievsky #:

sec2secのようなニューロニック内部の効率的な圧縮アルゴリズムを使っているので、公平でもある。

もしテキストについて話すなら、95%のケースで通常の単語カウントが使われる。0, 1, 103..

そして、特徴行列の占有スペースを小さくするために、「スパース行列」という形式をとっています。

写真は畳み込みです。

そして、seq2seqは珍しい問題に対してエキゾチックである。
 
mytarmailS #:
もしテキストについて話しているなら、95%のケースで通常の単語カウンターが使われている。0, 1, 103..

また、特徴量の行列の占有率を低くするために、「疎行列」の形式をとります。これは、行列の値の95%がゼロであるため、好都合です(
)。

写真では、畳み込み。

また、seq2seqは珍しい問題でエキゾチックである。

これらは異なるアーキテクチャ、レイヤーケーキだ。比較するのは難しい。我々は通常の分類や回帰について話している。この場合、普遍的な法則のように見える。

 
Maxim Dmitrievsky #:

これらは他のアーキテクチャー、レイヤーケーキだ。比較するのは難しい。普通の分類や回帰の話です。この場合、普遍的な法則のように見えます。

すべて同じことです。

ニューロンの話ではなく、フィードフォワードの構造の話です。

----------------------------------------------------------------------

そういえば、バッグ・オブ・ワードって言うんだった。



新しいもの、よくわからないもの、理解できないもの、複雑なもの?


同じ符号表+任意の手口


これは構造化されていないデータ(テキスト)を使っている。

 
mytarmailS #:
全部同じだよ。

ニューロンの話ではなく、形質フィードの構造の話をしているんだ。

----------------------------------------------------------------------

ああ、思い出した、言葉の袋ってやつだ。



新しいもの、よくわからないもの、理解できないもの、複雑なもの?


同じ符号表+任意の手口


これは構造化されていないデータ(テキスト)を扱っている

これは別のトピックから。どのように変換しても、入力ベクトルの次元は指定されたしきい値より低くなければならない。カテゴリー的なものは、おそらくベクトル長の制限がより大きい。さらに、行数依存性も考慮する。巨大なデータでは、特徴数はもっと大きくなるかもしれない。
 
Maxim Dmitrievsky #:
それは別問題だ。どのように変換しても、入力ベクトルの次元数は指定されたしきい値より小さくなければならない。カテゴリカルなものは、おそらくベクトル長の制限が大きい。さらに、行数依存性も考慮する。巨大なデータでは、特徴数はもっと大きくなるかもしれない。
その他))
世界中がやっていて、みんなハッピーだ))
理由: