トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1747

 
ミハイル・マルキュカイツ
これは一体何なんだ?

あれは何だったんだろう(笑)。復活してくれて嬉しい))))

 
NSの数学的原理を理解する術はない。

理解したこと。

学習サンプル - 意味的不変性の修正された表現を含むデータの孤立したブロック。

2.NSの構造 - 「ニューロン」の連続した層の集合体。最初の層はデータを受け入れ(そのために必要な数のニューロンを持つ)、他の層は最初の層で処理されたデータを一般化して不変なものにすることを目的とし、明確なプログラムロジックによって操作される。

3."ニューロン" - 学習サンプルデータの断片を順次取り込み、この断片を「重み」に変換して次の層に渡す機能。

データそのものではなく、その「重み」を補正することで、「殻」から何層ものフィルタリングを経て、データ中の非自明な不変性が数学的にクリアされるというのは、私には理解できない。
 
レグ・コノウ
NSの数学的原理が分からなくて困っています。

理解したこと。

1.学習サンプリング - 意味的不変性の修正された表現を含むデータの孤立したブロック。

2.NSの構造は、「ニューロン」の連続した層の集合体であり、最初の層はデータを受け入れ(そのために必要な数のニューロンを持つ)、他の層は最初の層で処理されたデータを一般化して不変なものにすることを目的とし、明確なプログラム論理で操作される。

3.「Neuronは、学習サンプルデータの断片を順次受け取り、それを「重み」に変換して次の層に転送する機能である。

データそのものではなく、その「重み」を補正し、何層ものフィルターを通して「殻」から自明でない不変性を数学的にクリアする仕組みは、私には理解できない。

雲の中で一番高い丘を探すと、雲の向こうで高度が見えない。低周波では、標高の始まりを見つけてその付近を測量し、標高がないところでは測量しない。高台のはじっこを測量して、狭い範囲を測量しないことも可能です。スマートなサンプリングといったところでしょうか。しかし、いずれにせよアルゴリズムである。いずれにせよ、非常に小さな確率でフルブルートフォースは、任意の検索ロジックで、異なる亜種に負けることはありません、を介して、開始する両端では、検索されたロジックでより速い検索を見つけるの確率は、フルシーケンシャルよりも高いです。

 
レグ・コノウ
NSの数学的原理を理解できていない。

理解しようとするのではなく、作り上げようとするのです。

NSの数学的基礎を理解するには、Kolmogorov - Arnold - Hecht-Nielson理論を読むとよいでしょう。

 
アレクセイ・ニコラエフ

理解しようとするのではなく、作り上げようとするのです。

NSの数学的基礎を理解するには、コルモゴロフ-アーノルド-ヘクト-ニールソン理論を読むとよいでしょう。

明確に説明されることは稀です。そして、数式から理解できる人はほとんどいません))))

 
アレクセイ・ニコラエフ

理解しようとするのではなく、作り上げようとする...。

ある程度は必要なことだと思います。自分で作ったものしか、本当に理解することはできません。NSのコンセプトの原型を再現しようとしているのです。
 

不変定義誤差のバックプロパゲーションと、ニュートンまたは準ニュートン最適化法によるニューロン関数の局所または大域的極値の探索により、異なる勾配ステップを調整する。

これは、ピーターにはより理解しやすい

 
ヴァレリー・ヤストレムスキー

雲の中で一番高い丘を探して、雲の向こうに見える標高のないところ。低周波では、標高の始まりを見つけてその付近を測量し、標高がないところでは測量しない。高台のはじっこを測量して、狭い範囲を測量しないことも可能です。スマートなサンプリングといったところでしょうか。しかし、いずれにせよアルゴリズムである。いずれにせよ、非常に小さな確率でフルサーチは、異なるバリアントに負けることはありません、検索のロジックで、スルー、開始する両端で、検索のロジックで検索で高速を見つける確率は、フルシーケンシャルよりも高くなります。

アハハハハ))

 
ヴァレリー・ヤストレムスキー

雲の中で一番高い丘を探して、雲の向こうに見える標高のないところ。低周波では、標高の始まりを見つけてその付近を測量し、標高がないところでは測量しない。高台のはじっこを測量して、狭い範囲を測量しないことも可能です。スマートなサンプリングといったところでしょうか。しかし、いずれにせよアルゴリズムである。いずれの場合も、非常に小さな確率でフルサーチは、検索の任意のロジックで、異なるオプションを失うことはありません、を介して、開始する両端には、フルシーケンシャルよりも高い所望のロジックで検索で高速検索を見つけることの確率を。

この説明の方がGAに適していると思います))
 
マキシム・ドミトリエフスキー

不変定義誤差のバックプロパゲーションと、ニュートンまたは準ニュートン最適化法によるニューロン関数の局所または大域的極値の探索により、異なる勾配ステップを調整する。

これは、ピョートルにとって、より明確なものになるでしょう

NSの仕事は、一方的にオプティマイゼーションと結びついているわけですね。
理由: