市場のエチケット、あるいは地雷原でのマナー - ページ 19

 
paralocus >> :

ここで、さらにポイントになることがあります。

1.システムに感染させるもう1つの方法は、ニューロンまたはニューロン群、つまり器官に追加のランダムな入力を導入することである。

2.「つまり、各器官ニューロンは、そのグループ(器官またはファミリー)の他のどのニューロンの出力にもあるものを「知っている」のであり、各グループは器官の出力にあるものを知っているのである。このようなNSは、ダイナミックな自己適応が可能で、学習の必要性が支配的なものの一つとなる。つまり、システムは意図的かつ自己動機的に必要な知識を探し、一般化することができるのだ。私たちの仕事は、そのための障害物を設置し、知識の断片をあちこちに散りばめることです -:)

行き詰まり--(ネットワークの構成やトレーニングが)すべて正しく行われた場合、ある回数トレーニングを繰り返せば、身体は分離されるでしょう。


もうひとつ、デルタルールに比較的小さなランダム成分を導入して、学習プロセスに「感染」させると、場合によっては学習率が上がり、ローカルミニマムからも効果的に抜け出せます。これはすでに実績のある方法です。

 
TheXpert >> :

行き詰まり--(ネットワークの構成やトレーニングが)すべて正しく行われた場合、ある回数トレーニングを繰り返せば、身体は分離されるでしょう。



ちゃんとしてないんだな...。

肝臓が脾臓の機能を妨げないように、臓器は臓器である。ネットワークにとって重要なエントロピーの減少、つまり「死」であるため、すべての臓器を分離することはありません。

まあ、何か落ちたら余計にね。

 
paralocus писал(а)>>

このスレッドのメインテーマは、私はすでに評価する機会を得ました-:)あなたは天才です!冗談抜きで。

思いついたことがあります。かなり、新鮮です。昨晩、「ショートサーキット」が発生しました...。私の個人的な神経ネットワークのすべてのレベルで)

私はこれまでずっと人間を研究してきましたが、それは社会的、個人的な実現という文脈だけでなく、存在の全体的な現象、「意識の器」としての人間を研究してきたのです。今日、一夜にして、長年にわたって蓄積されたすべてのものが、事実と仮定の単純な順序の集合体から、それ自体としての完全性へとシステム化(自己組織化)されたのです。

興奮を隠せません!まあ、いいや...。というのは、歌詞の余談でした。

発想はシンプルです。

規模や目的を問わず、NSの堅牢性を高めるには、試してみるしかない...。を感染させる。チューリングマシンの決定論的論理にとって、ウイルスは確かに致命的です。NSや人工知能にとっては、適切に「投与」すれば、ただの「生きた水」になるのかもしれません。では、ひとつひとつお話ししていきましょう。

1.すべての生物はニューラルネットワークのエッセンスである。大胆すぎる発言と思われるかもしれないが、これは現象学的な事実である。

2.すべての生物は、学習するために攻撃的な環境に置かれます。私たちはそれを進化と呼んでいます。形の進化とともに、その形に内包される個々の意識の進化が進行していることを忘れてはならない。意識そのものは、システム(神経回路網)の複雑さの効果であり、その進化的な「プランク」(:)は、システムの複雑さとシステムのエントロピーの比であると私は推測しています。

3.エントロピーがある限界値以下になった系はそれ以上進化できないので滅びるが、エントロピーがある限界値以上になった系も自滅する。したがって、結論としては、あるシステムがうまく進化するためには、そのエントロピーがある期間、周期的に、与えられたシステムにおいて許容される最大値に達する必要がある、ということである。そのような状態を私たちは「病気」と呼んでいます。病気といっても広い意味で、健康そうに見える犯罪者が病気なのです。ただ、病気なのは体ではなく、心であり、受ける痛みは、ほとんどが熱やインフルエンザという形ではなく、いわゆる「重い十字架」「運命」などという形である。しかし、この「社会的」な痛みは、進化の連続体の一種の教育的影響であり、生き物のエントロピーを耐えられる限界まで引き上げてしまうのだ。これは、先生とその目的についての哲学的な質問を提起するものです...しかし、それは、私たちのフォーラムの議論の範囲をはるかに超えています -:).

4.生き残る人は - 免疫を開発している - 広い意味で - すなわち、病原性の細菌や社会に対してだけでなく、進化にとってさらに重要であるもの - 取引外部と取引内部を。

5.どんな生命体にも、免疫力が十分に低下すれば必ず死んでしまうような「細菌」が存在する。なぜ、自然はこのようなことをしたのでしょうか。まさに、同じシステムが生き残るための絶え間ない内部「訓練」によって、環境の要因に抵抗する能力を高め、その結果、個体進化を継続する機会(時間)をより多く持つことを目的としている。

6.進化するシステムの課題は、(あらゆる意味での)免疫を発達させることだと仮定してみよう。しかし、面白いことに、生きているNSの入力の数、出力の数(さらに少ない)は、その神経細胞や接続の数に比べて、とんでもなく少ないことがわかったのですつまり、中間層(入力、隠れ、出力の3層がある場合)のニューロンの数を急激に増やし、今度はNSに「感染」させてみるのです。これは、重さの補正の際に、計量されたランダムな誤差を導入することで実現できますさらに、このランダムエラーの頻度や振幅を増減させることで、NSの代替トレーニングも可能である。

例えば、重みの補正を行う前に、1000 回の呼び出しに一度、ある範囲からランダムな値(例えば +0.01 / -0.01 )を返すような関数で補正器に小さな誤差を加えてみるのです。いつ、どのニューロンで小さな誤増分が発生するかはわからない。このような増分が頻繁に起こるほど、システムのエントロピーは高くなる。この場合、NSが考慮しなければならないのは...。己の過失だ!

ここでもうひとつ重要なポイントがあります。

1.システム汚染のもう一つのバリエーションは、ニューロンまたはニューロングループ、つまり器官に追加のランダムな入力を導入することです。

2.「つまり、各器官ニューロンは、そのグループ(器官またはファミリー)の他のニューロンの出力にあるものを「知って」おり、各グループは器官の出力にあるものを知っているのである。このようなNSは、ダイナミックな自己適応が可能で、学習の必要性が支配的なものの一つとなる。つまり、システムは意図的かつ自己動機的に必要な知識を探し、一般化することができるのだ。私たちの仕事は、障害物を設置し、知識の断片をあちこちに散りばめることです。)

+5

自分もそんなことを思っていました。AIを扱うと、多くの興味深い、自明ではない依存関係が生まれます。

例えば、少し前に「なぜ夢が必要なのか」ということに気づいたのですが...。睡眠中、脳は前に見たことを経験することでシナプスを鍛え、その結果、必然的にジストロフィー(交換プロセスが常に行われ、エラーが蓄積される生物学的物体である)をなくすことが判明した。 もし睡眠がなかったら、1年ですべての認知能力と長期記憶を失ってしまうのだ!- 私たちは、見たものしか覚えていない、単なるエキストラに成り下がっていたかもしれません。強力な経験(人生を変えるような出来事に関連するもの)が常に私たちの睡眠中につきまとっているため、有用な知識を斧で固めてしまうのです。

 
Neutron >> :

強力な経験(人生を変えるような出来事に関するもの)が常に夢の中でつきまとうので、有用な知識を斧で固めてしまうのです。

まあ......なんとかなるでしょ。学びの文脈は、ネガティブである必要はありません。期待されていることを「把握」し、その目標を自分のものとして「受容」したシステム(第一の目的=生きる意味)にとって、夢は悪夢でなくなり、夢の中で非常に速いスピードで学習を続けることができるのです。

 
中性子 完全に系のエントロピーを操作する学習に切り替わると、クラスとしてローカルミニマムが消滅してしまうと思うんです。しかし、学習にはより多くのエポックが必要となり、すべてのグリッドが学習を完了できるわけではありません。でも、できる人は...。どんなことができるのか、想像もつきません。
 
Neutron >> :


Neutron、やはりインプットを白くすること、そして次のレベルにも誤差を広げていくことをお話したいと思います

 

こんにちは、paralocus です。

現在、MatkadのZig-Zag~(頭のどこかで不具合)をいじりながら、同時にNSの入力データの正規化を行っています。前回は次のような結果でした。整数直線上に定義された任意の増分の分布を持つ入力データがあるとします。この分布を棚上げされた確率密度関数(SP)分布を持つ±1範囲にマッピングするアルゴリズムを見つける必要がある。

EURUSD 1mシリーズを例に、差分d[i]=Open[i]-Open[i+1]のSP分布を左図にプロットしてみましょう。

良い指数分布が得られたので、単位棚に変換してみます。そのために、SPから単純に可換和を求め(図右)、各枝の符号を考慮して1にフィッティングすることでSPのPDFを構築する(あらかじめSP分布の最大値で「ゼロ」に対応する値だけ曲線をシフトしておく)。シグモイド状のパターンを得ることができました。ここで、最初の一連のインクリメントを、シグモイドを演算子として作用させ、単位棚に対応させることにします。そのために、結果のシグモイドの引数にインクリメント値d[i]を代入するだけである。

その結果、まさに棚ぼたではないものの、それに近いものが出来上がりました。元の分布と比較してみてください。出来上がった分布の中心部に間隔があるのは、どこかを伸ばさないと厚みが出ないので仕方ないことなのです。NSのインプットカクテルとして最適だと思います。

P.S. なぜ完璧な棚にならなかったのか、不思議です。根本的に無理なのか、手法の限界なのか、それとも私の作りが甘いのか?

 
イエーイ!突然、興味を失ったかと思いきや......。-:)

書いてあることを突き詰めていくと、答えが見えてきますよ。

 
Neutron >> :

P.S. なぜ完璧な棚がないのか不思議です。根本的に無理なのか、手法の限界なのか、それとも私の作りが甘いのか?

私も昨日、考えました...。(もちろん、あなたのように数学的にできるわけではないのですが......)一般的には、何か理由があるのではないかと疑っていますだから、何も見逃していないのです。

d[i]=Open[i]-Open[i+1]のプロパティには、何か特別なものがあるのです。この場合、フラクタルBPが入力としてあり、連続演算子(例えばth(x)やシグモイド)の影響を注意深く受けているので、理想的な棚は機能しません - Open[i]-Open[i+1] 確率分布はおそらくHurstianです。私の持っているのは粗いものなので、真ん中の-0が完全に抜けています。ところで、なぜオーラップを飲むのですか?

 

形になっていないものをいじるのは好きではありません。マトカドの癖で、TSをテストするときに意図しない未来を「見る」ために歩道に指を2本立てるようなものですこれに対する唯一の保証は、形成されたバー、つまり始値である。確かに跳ねないですね。

ヒントをください。入力信号の相関関係で何が問題なのでしょうか?入力に何を使っているのか、なぜその問題があると思うのか。結局のところ、それを解決するよりも、存在しないことを確認する方が簡単なのです :-)