As the CTO of one late-stage data startup put it, AI development often feels “closer to molecule discovery in pharma” than software engineering. This is because AI development is a process of experimenting, much like chemistry or physics. The job of an AI developer is to fit a statistical model to a dataset, test how well the model performs on...
GMM以外のクラスタリングを試したことがありますか?
GMM以外のクラスタリングを試したことがありますか?
クラスタリングは必要ない、密度推定が必要だ。エンコーダーとGANがあれば大丈夫です。
MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ使いこなせていません。
例えば、こんな仕掛けがあります。尾を引いた分布(増分はまさにそのような分布を形成する)の場合、新しいデータで何かを行うには、学習のためのサンプルサイズがほぼ無限でなければなりません。そして、これは証明されています。いかがでしょうか?
必要なのはクラスタリングではなく、密度推定なのです。エンコーダーとGANがあれば大丈夫です。
MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ手をつけていないんです。これは文字通り、最新のものです。
どうしてもわからないんです。
2つのクラスタでモデルを学習させました。
という流通です。
または
と、それをシミュレートする方法(類似のものを繁殖させる)。
そして、それは証明されています。いかがでしょうか?
爆弾だ
どこで読んだのですか?
爆弾だ
どこで読んだのですか?
いくつかの記事を拝見しました。
をご覧ください。
https://venturebeat.com/2020/08/14/how-to-improve-ai-economics-by-taming-the-long-tail-of-data/
どうしてもわからないんです。
2つのクラスターでモデルを学習させました。
分布はどうなっていますか
または
と、それをシミュレートする方法(類似のものを繁殖させる)。
学習済みモデルからサンプリングできるパッケージを探す
学習済みモデルからサンプリングできるパッケージを探す
3つの分布(線)があります。
こんな感じでいいんでしょうか?
3つのディストリビューション(線)があります。
こんな感じでいいんでしょうか?
これらは、ガウスパラメータ
必要なのはクラスタリングではなく、密度推定なのです。エンコーダーとGANがあれば大丈夫です。
MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ手をつけていないんです。
例えば、こんな仕掛けがあります。尾を引いた分布(増分はまさにそのような分布を形成する)の場合、新しいデータで何かを行うには、学習のためのサンプルサイズがほぼ無限でなければなりません。そして、これは証明されています。いかがでしょうか?
まあちょうどそこで、尾を引いた増分が価格系列とSBの類似性を証明したわけですが))))そして結論として、それが機能するためには、系列全体、つまり未来の系列も見なければならないし、系列が無限であることを認めれば、未来の系列も認識されることになるのです。まるで、無限のシリーズに無限のバリエーションがあり、その上で訓練して見るという結論のように。
練習には役に立たないが、理解する必要がある。
ZSと、密度の面では評価後にセクションに分けることができます。まあ価格系列とSBの類似性を証明しただけなんですけどね()))テイルズインクリメントで。そして、結論として、うまくいくのは、全シリーズ、つまり未来のシリーズも見られること、あるいは、シリーズが無限であることを認めれば、未来のシリーズも認められることになるのでしょう。まるで、無限のシリーズに無限のバリエーションがあり、その上で訓練して見るという結論のように。
練習には役に立たないが、理解するためには必要なことである。
SZYと、評価後の密度という点では、セクションに分けることができます。セクションに分け、最も頻度の高い例を選び、残りはノイズとして捨てる。
またはその逆で、稀な事象に境界線を引く。
記事からわかるように、これはFXだけでなく、現実世界の問題です。そして、MOはさまざまな分野で苦労しています