市場のエチケット、あるいは地雷原でのマナー - ページ 58

 
gpwr >> :

また誤解されたようですね。

グローバルな最小誤差を求めるために、この多項式の係数にどのように影響を与えるのか(つまり学習するのか)、本当に理解できないのです。訓練されたニューロンの重みを表示します。


同じベクターで3回の実験。一番右の体験が一番成功した。つまり、トポロジーの準備ができれば、このトポロジーを非常にうまく滑らかにするような多項式を選ぶことは(理論的には)難しくないことは理解できますが、このトポロジー(すでに訓練されたメッシュ)を訓練されていないメッシュに対してどうやって計算するのか、説明してください。つまり、学習誤差関数の減少につながる、kfに影響を与えるアルゴリズムとは何でしょうか?知っていますか?

 
Neutron >> :

あなたのために特別に作りました。

FZが常に存在し、コチラのシャープな動きに視覚的に現れていることがよくわかります。

セルゲイ、この話題はつまらないし、まったく役に立たないので、もうあなたと議論することはないでしょう。そして、次に超ド級の素晴らしいアイデアを思いついたとき、その実現には1つか2つの研究機関とPCのクラスタが必要だと考えたとき、ちょっと考えてみてください - たぶん、あなたはただ知らないか、理解していないのだと思います。結局のところ、それは「画期的な発見」よりも、それまで長い間すべてを踏みにじってきた領域での可能性が高いのです。


さて、位相差(という言葉)が2つのケースで存在すると考えてみましょう。



率直に言って、そしてあなたは私を退屈させる:o)

 
HideYourRichess >> :

これをまさに80%実証したアルゴリズムがあることに驚いています。エラーを探しています。見た目はとてもシンプルです。そういうわけにはいきません。

数学者でない私が正解したのだから、プロがどうのこうの言っても仕方がない。:о)))

 

to中性子


High/LowとCloseの間に位相差はありますか?:о)))つまり、あなたの視覚的な手法によれば、あるのです。




それはどこから来るのでしょうか?


訂正と追記:誰も見ていない限り、小さな訂正をします。急ぎすぎて、上の写真のOpenとCloseで、ちょっと失敗してしまいました。一方の信号は他方の信号に対して遅れていますが、この特殊なケースでは位相のずれではありません。


位相遅れはありません。シフトを起こすような数理演算は実行 されていない。いきなり現れる位相差はない。その代わり、プロセスの選択、「それがプロセスだ」というルールがあります。


シフト」を、オープンが先でクローズが後と考えるなら、そうです-「シフト」はあります(それに反論するつもりはありません)。 しかし、この特殊なケースで、どの計算方法がシフトを「発見」してくれるのかもわからない。 これらの信号は互いに代替し合う。




そして、「クローズ」を予測に選ぶには、ありえないほど精度の高いシステムが必要です。また、私の単純なアイデアでは、(H+L)/2の遅延は全く効果がありません。


PS:イエス、セリョーガセリョーガ、-これらのプロセスはモノペニックである、絶対に。もうこれで終わりです、さようなら。グッドラック

 

to 中性子

新しいMatkadを待っている間、私は学んだことを繰り返し、つまり一重をいじっているのです。エラーベクトル長を示せと言われたので、それを示しました。


Xの統計、Lの長さ(合っているかどうか)。

このように計算されます。


ここでi は統計量に関するループ X は入力ベクトル(現在の学習ベクトルの全長の総和)である。誤差の二乗は、学習ベクトルの二乗と合わせて全エポックに累積される。


そして、あるエポックの終わりには、次のようにカウントされます。


ここで、nは エポックにわたる周期である。

すべて正しく行われているか?

 

図から判断すると、どこかに誤差がある。エポックからエポックに移るにつれて、ネットワークの学習が 徐々に進む(誤差ベクトルの長さが減少する)ことがわかるはずだ。これは見えません。理由は、いつものようにワゴン車と小型の荷車かもしれません。例えば、エポックからの誤差ベクトルの大きさではなく、既に学習済みのネットワーク(最後のエポック)の誤差ベクトルの大きさを独立した実験番号の関数としてグラフ表示する...。それは、「Xの統計によって...」というあなたの言葉から導かれるもので、何の統計なのでしょうか?ここに入力するわけではないんです。そして、こちらは「...」。by L length", - Lはデータベクトルの長さで正規化され、1付近に位置し、円周の端に向かって徐々に減少する必要があります...私たちは、違うものを見ているのです。

ここで、どのように見えるかを見てみましょう。

ここで、青色は学習サンプルに対する誤差ベクトルの長さを示しています(グリッドの学習方法を見ているのであって、予測方法を見ているのではありません)。この場合、ネットは完全に学習され(誤差はゼロ)、単に学習サンプルを暗記するだけであることを示すために、すべてにおいて200トレーニングエポックとk=1を 使用し、分かりやすくしました。さらに速くなりました。問題は、このような重みを持つテストサンプルでは、加算器がアフリカの天気を示すことである。つまり、汎化能力が完全に失われている。図の赤い線は一連の実験(n=50)の分散(ばらつき)、青い線は平均を表しています(私は統計をとっていますが、皆さんとは違う方法でとっていますので、後でお話しします)。

最後の2つの式はほぼ正しいのですが、統計に関するインデックスがないこと(1つの実験だけを行い、統計のセットなしで新しいコードが必要)と、最初の式が理解できないことを除けばです。それはどこから来るのか?似たようなブロックで、こんなのがあります。

ここで、j, は学習ベクトルに対するループである。インデックスが2乗になると、私のインデックスは明らかに小さくなることに注目してください

P.S. ところで、ウェイトにsqueeze関数を使うのは、最初は1層用、次に2層用であきらめました。それがなければ、結果は同じで、手間もかからない。

 
grasn >> :

数学者でない僕が取れても不思議じゃないんだから、プロはすごいよ。:о)))


図式化した。私がやっていたことは、ARの原始的なバージョンとも言えますし、逆にARは私がやっていたことの改良版とも言えるでしょう。

 
Neutron >> :

最後の2つの式は、統計に関するインデックスがあるべきでないことを除けば、ほぼ正しいのですが(あなたはONE実験しかしていないので、統計のセットがなくても、新しいコードが必要です)、最初の式が理解できません。それはどこから来るのか?似たようなブロックで、こんなのがあります。

ここで、j, は学習ベクトルに対するループである。インデックスが2乗になると、私のインデックスは明らかに小さくなることに注目してください

P.S. ところで、ウェイトにsqueeze関数を使うのは、最初は1層用、次に2層用であきらめました。それがなければ、結果は同じで、手間もかからない。

最初の式は、誤差ベクトルの長さを計算し、データベクトルの長さに正規化しています(つまり、私がこれまで理解してきた方法です)理由は、おそらく統計セットなしで新しいコードが本当に必要だからです。今すぐやります。

圧縮機能については、私には直ぐに効果が出なかった(=結果が明らかでなかった)ので、使っていません。

 
paralocus писал(а)>>

最初の式は、誤差ベクトルの長さを計算し、それをデータベクトルの長さで正規化するものです(つまり、私がこれまで理解してきた方法です)。

では、最後の2つの表現は何を表しているのだろうか。

2番目はベクトルの長さの2乗を求めるもので、3番目は正規化された長さを求めるものだと思っていました。その場合、なぜ最初の表現なのでしょうか?

 
HideYourRichess >> :

もう、わかったから。私がやったことは、ARの原始的なバージョンとも言えますし、逆にARは私がやったことの改良版とも言えます。

モデル識別、つまりサンプル長やモデル順序の最適な定義は含まれませんでした。それらがあれば、90%までは可能だと思います。きっと同じように、あるいはそれ以上に良い結果が得られると信じています。;)