上記のライブラリから、私のライブラリを通して、様々な生成モデルを比較しました。GMMは表形式データ(dataframe with increments)に対してより効果的であることが判明した。そして、2番目に効率的なのがコピュラである。タブルガンなどのニューラルネットワークモデルは、もっと悪い動きをしました。しかし、私は何か間違ったことをしたのかもしれない。こんな 選択肢もあるんですね。
上記のライブラリから、私のlibを通して、様々な生成モデルの比較をしてみました。GMMは表形式データ(dataframe with increments)に対してより効果的であることが判明した。そして、2番目に効率的なのがコピュラである。タブルガンなどのニューラルネットワークモデルは、もっと悪い動きをしました。しかし、私は何か間違ったことをしたのかもしれない。こんな 選択肢もあるんですね。
ガンを書いたのだから、何も複雑なことはない。でも再帰的じゃないから、やり直さないとね。
Torchでの一例。
以下はその一例 です。時間が出来たら、考えてみます。
時間があれば、試行錯誤してみる。
上記のライブラリから、私のライブラリを通して、様々な生成モデルを比較しました。GMMは表形式データ(dataframe with increments)に対してより効果的であることが判明した。そして、2番目に効率的なのがコピュラである。タブルガンなどのニューラルネットワークモデルは、もっと悪い動きをしました。しかし、私は何か間違ったことをしたのかもしれない。こんな 選択肢もあるんですね。
上記のライブラリから、私のlibを通して、様々な生成モデルの比較をしてみました。GMMは表形式データ(dataframe with increments)に対してより効果的であることが判明した。そして、2番目に効率的なのがコピュラである。タブルガンなどのニューラルネットワークモデルは、もっと悪い動きをしました。しかし、私は何か間違ったことをしたのかもしれない。こんな 選択肢もあるんですね。
ネットワークはノイズ耐性が低いようで、そのせいで結果が悪くなっているのかもしれませんね。
エポックごとのデータにノイズを混ぜたかったのですが、手が回りませんでした。
ネットワークはノイズに弱いようで、そのため結果が悪くなっているのかもしれません。
エポックごとにデータにノイズを加えたいと思ったのですが、手が出ませんでした。
まるで、一生懸命に平均をとっているように見えます。出力は似たようなサンプルで、ばらつきが少ない。潜像ベクトルをどう変えても、近すぎる値が出てしまうのです。
すごく平均化されている感じですね。出力は似たようなサンプルで、ばらつきが少ない。潜像ベクトルをどう変えても、値が近すぎるのです。
歴史の深さを減らしてはどうか。
奥行きを減らすのはいかがなものか。
いろいろやってみましたが、autoencoderもgmも出力は強く平均化された値が出ますね。オートエンコーダーが定義上、圧縮するのであれば、GANはなぜ圧縮するのかが不明です。ドロップアウトもしょうがないようです。
オートエンコーダーとgmの両方の出力は、高度に平均化された値を与える。オートエンコーダーが定義上圧縮するのであれば、GANが圧縮する理由は不明である。ドロップアウトもしょうがないようです。
平均化とぼかしは、だいたい同じようなものですよね?こんな記事を 見つけました。
平均化とぼかしは、だいたい同じようなものですよね?こんな記事を 見つけました。
まあ、そうですね、データ圧縮ですね。
数字ならわかるけど、表形式のデータはもっと効きが悪い。
ということで、TabularGANがあります。上のパッケージの中。
まあ、そうですね、情報圧縮ですね。
数字ならわかるが、表形式のデータはもっとひどい斜め読みすると、ノイズ分布の違いや不適切な測定基準について書かれているようです。
温室環境下でのテストデータで確認するのがよいでしょう。グリッドリバーサルという興味深いテーマ。
入力にノイズを供給する。出力でスペクトルを取得する。
https://arxiv.org/pdf/1806.08734.pdf