Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
音声ファイルや音楽ファイルはdtwで圧縮されており、これもVR
;)
このテーマについて、私なりに研究した結果、次のようなことがわかりました。
)) 圧縮とは一体何なのでしょうか?あなたがそこで勉強したことは明確ではありませんが、間違いなくそうです。
なぜ財源の圧縮が必要なのか :)
なんでやねん:))
入力データを単純に離散化し、例えば5桁を4桁に変換することができます。そして、データはすでに10個単位になります。
あるいは、以前提案したように、alglib forestを構築して、シート内の目的の深さまたは例の数に達したときに分岐を停止させることもできます。
サンプリングは、猫マンガ+ヴァンホットよりも効果的で、大きな改善は見られない。
とか、本当になぜ?:))
引用をZIPアーカイブに圧縮して、そのサイズを見て、それは新しいフィックになることができます。
)) 圧縮とは一体何なのか? あなたが何を研究してきたのか知らないが、間違いなく違うものだ。
投稿する前にWikiを読むくらいの教養を身につけましょう。
dtwアルゴリズムは、信号の時間成分を分析し、一定の値に調整します。 この値を知っていれば、信号の情報部分の間を取り除くだけで、時間成分なしのデータパケットと一定の時間軸変換アルゴリズムが得られます。
引用符をZIPアーカイブに圧縮することができます、そのサイズを見て、彼らは新しい機能になります。
まさか、ZIPアルゴリズムは厳密な変換アルゴリズムであり、1バイト違いのデータを同じデータとして識別することはできないのです。
厳密なデータ処理アルゴリズムは必要ない、どれも元データにロスがある。 作り込まなければjpg-ロスで圧縮され、内容の近いデータは最終的にほぼ同じものが復元されるが、視覚的には!?- チェックサムも違えば、バイト自体の値も違う......。
が、NSのトレーニング例として、必要なのは、つまり、任意のデータ(写真ではない)のjpgかもしれません。
うまくいきません。ZIPアルゴリズムは厳密な変換アルゴリズムであり、1バイト異なるデータを同じデータとして識別することはできないのです。
厳密なアルゴリズムを使わなくても、どれも元のデータを作り込まないと、損失があるんですよ~jpgなんですけどね~損失で圧縮して、内容が近いデータは最終的にほぼ同じに復元されるんですけど、視覚的に!?- チェックサムも違えば、バイト自体の値も違う......。
しかし、NSのトレーニング例としては、おそらく必要なもの、つまり、任意のデータ(写真ではない)のjpgファイルです
冗談です ))オートエンコーダーやコンボリューションを使えば、うまくいきますよ。ウラジミールの記事にはエンコーダーがありますが、コンボリューションにはありません。
seq2seqも基本的にはデコーダ・エンコーダである。例えば、機械翻訳の場合、ロシア語の単語と英語の単語では文字数が異なる。そこですべてが圧縮され、分析され、そして解凍される。
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4私はdtwについての何かを読み始めたが、金融シリーズにそれを適用する方法と私がそれを必要とする理由を理解していなかった )しかし、それは興味深いトピックだと思います。
プロットに意味性を見出すプロセスの延長線上にDTWがあるというコンセプトもありましたが、結局はウェーブレットを使う方が簡単なんでしょう(違うか)。
それは冗談です ))オートエンコーダーやコンボリューションで十分なのですが。ウラジミールの記事には、コンボリューションではなくエンコーダーがあります。
seq2seqも基本的にはデコーダ・エンコーダである。例えば、機械翻訳の場合、ロシア語の単語と英語の単語では文字数が異なる。これをすべて圧縮し、分析し、そして解凍する。
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4昨年、エンコーダーについて読んだのですが、いつものように、すべては、価格チャート上の大きなスタッドに依存しているのです。)
例えば、そもそもサンプル数がフラットであれば、そういう作業には良い解決策かもしれませんね。
PS: はい、フォーラムにDTWがありました、さらに検索https://www.mql5.com/ru/code/10755
昔は回したけど...。は、すべて使用前にファイルで処理する必要があります )))
DTWがグラフのセンバランス探索処理の延長というコンセプトもあったが、結局はウェーブレットの方が簡単なのだろう(そうでもないかもしれない)。
PS: はい、フォーラムにDTWがありました。https://www.mql5.com/ru/code/10755 を検索しても。
一度ひねったけど...はすべて使用前にファイリングする必要があります ))))
いやいや、そんなことより、ニューラルネットワークをひねり出すことにしますよ。私はそんなことは信じていません。
ああ、もうだめだ、ニューラルネットワーキングに戻ろう。私はそんなことは信じていません。
私はNSを回転させたくありません、私はMT5テスターとそのGAで忙しいです、GAはかなり適切に動作します、あなたはすぐに(4.5×10^142バリアントをテスト! - 約2〜3時間)自動TSを構築し、それを転送でテストできます、結果はかなり受け入れられます、イモです。
HH:しかし、GAも最終的にファイルを必要とする、それは入力パラメータを拾うことは困難である - 多くの5年間のテストになります与える、あなたは正しい入力データではないとして切断を開始 - ここで運としてまたはちょうど停止する場所を見つけ、すべてで見つけることができませんかどうかを確認しました
私はNSもやりたくないので、MT5テスターとそのGAを使いました。GAはかなり適切に機能します。素早く(4.5 x 10^142 variants tested!-約2-3時間)自動TSを構築し、それをフォワードでテストできます。
近々モニターをやるか、記事を書くか...わざわざ記事にするのは入力が面倒なので。
今はすべてPythonでやっています。時間を大幅に節約できます。
GA の欠点は、一般化できないことです。