This post did not end up quite the way I’d imagined. A quick follow-up on the recent Time series prediction with FNN-LSTM, it was supposed to demonstrate how noisy time series (so common in practice) could profit from a change in architecture: Instead of FNN-LSTM, an LSTM autoencoder regularized by false nearest neighbors (FNN) loss, use...
じゃあ、見てないのか、見たけど聞いてないのか...。
コンテクスト空間、考え方、コードに実装できる方法...。
VAE 、CNNも同じだが、主属性から副属性を作る特殊なケースとして、どんなデータでも使えるという。
コンテキストスペースは再帰などで実装されていますが、彼は何を発明したのでしょうか?
水量が多いから、コードに言及してないんだ。
12時間分のコードがあります)彼はただ、電卓だけでなくメモリも含めて脳全体をシミュレートしたいだけなのです。
計算機だけでなく、記憶も含めて脳全体をシミュレートしたいとのことです。
メモリは再帰の潜在的な状態によってモデル化される
冗談で言ってるんだろうけど。
コンテキストスペースは再帰などで実装されています。 彼は何を発明したのでしょうか?
説明する気はない、自分でも理解できていない・・・。
簡単に言うと、ある変換を属性に適用し、何十億もの変換を行い (MGUA さん)、属性に何らかの「正しい」反応を与える変換があれば、「コンテキスト」を見つけたことになるので、何千ものコンテキストがあり、我々は一種の属性(コンテキスト)の 新しい空間へと 移動する...ということです。
そして今、私たちは主要な特徴を見る必要さえなく、認識には文脈が必要です...。
なぜ、今の技術の1000倍も優れているかというと、それはビデオを見ていただくとして、このアプローチにこそ未来があるのだと信じています。
彼は多くのビデオを持っています
説明はしない、自分でもよくわからないから・・・。
簡単に言うと、ある変換を特徴量に適用して、何十億もの変換 (こんにちはMGUA)を行い、特徴量に対して何らかの「正しい」反応を与える変換があれば、「コンテキスト」を見つけたことになるので、何千ものコンテキストが存在し、特徴量の新しい空間(コンテキスト)に移動するようなものです...」。
そして今、私たちは主要な特徴を見る必要さえなく、認識には文脈が必要です...。
なぜ、今の技術の1000倍も優れているかというと、それはビデオを見ていただくとして、このアプローチにこそ未来があるのだと信じています。
彼はたくさんのビデオを持っています。
ビデオをパラパラ見て...ピラミッドのくだりになって、消した)
私が理解した限りでは、彼は波動脳理論のようなものを主張しているようです。エソテリック、要するに
風来坊という印象がある。
ビデオに目を通すと...ピラミッドのくだりが出てきて、消しました ))
私は風来坊という印象があります。
目を通さないで、ビデオを見てください。もちろん、ピラミッドに関するものではありません。男が多才なのは悪いことなのか?
彼はクールな男で、AIの研究者なんだ...。
シールズにグリッドを鍛えれば
と言って、傷だらけのソファの写真をあげれば、教室でなくても大丈夫でしょう。
しかし、文脈から、彼女は猫がいたことを認識する。そして、どのように、なぜそうなるのかを説明し、私たちはちょうどそのように、文脈を通して考えるのです。
葉っぱで読んじゃダメだよ。 ほら、でもピラミッドのことはもちろんダメだよ。多才であることの何が悪い?
クールな男、AI研究者...。
何が見えるって、NSコードはどこだ? 1時間、言葉の下痢を聞かされるのはおもしろくない。
何を見るのか、NSコードはどこなのか。 1時間の言葉の下痢は聞いていて楽しくない。
なんだろう、全部口を開けて見てたんだけど...。
ピラミッドだって...。
なんだろう、全部口を開けて見てたんだけど...。
ピラミッドだって...。
精神異常者の戯言としか思えなかった)