トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2451

 
Alexei Tarabanov(アレクセイ・タラバノフ #:

その先にあるのは

どういうことですか?

 

孫娘がペルシャ語と中国語を習っています。また、スパイするために日本語を要求する。

 
Alexei Tarabanov(アレクセイ・タラバノフ #:

孫娘はペルシャ語と中国語を習っています。また、スパイするために日本語も要求する。

もちろんカッコイイけど、先進性がない(親のせい)、思考力も養えるプログラミング言語を学ばせた方がいいのでは...。

翻訳者は今とても優秀です。10年後には、すべての言語の翻訳を含む多くの良い機能を持つチップを脳に埋め込むことができると思います、彼らは脳に接続する方法を学びました、それは時間の問題です ...

つまり、たくさんの言語を学ぶことは、パイロットやトラックの運転手、タクシーの運転手になることを夢見ているようなもので、テスラがすでに完全自動操縦であなたの前を走っていることに気づかない......ということです。もうすぐ多くの仕事が永遠になくなってしまう、そのことを考えなければならない...。

 
Pythonとファーストネームで呼び合う仲になる
 
Alexei Tarabanov#:
Pythonとファーストネームで付き合う。

冷ややか

 
Maxim Dmitrievsky#:
ニューロンの半分がクラス1、半分が他のクラスに対するものである。そんな原始的なロジックに基づきもし偏りがあるのなら、クラスのバランスが悪いのかもしれません。また、極端な値を設定すると、グラデーションが爆発したり、フェードアウトしたりするようです

マックス、結論を急ぐな。

あなたの投稿にある「可能性がある」という言葉は、この質問の定式化について考えていないことを示唆していますね?

一般的なニューラルネットワーク、特にMLPは非常に柔軟なもので、同じネットワークで同じように特徴のセットを分割しても、ニューロンの重みの値が違えば......ということが可能です。そうだろ?- そこで、これらの重みのセットのうち、どのバリエーションがよりロバストなのか、という疑問が生じます。

そして、私の投稿に返信してくださった2番目の方とは、もう対話を続ける必要はない、無意味だと考えています。

 
Alexei Tarabanov(アレクセイ・タラバノフ #:

Zhi, shi は i で表記されます。

例外もあります。;)

 
アンドレイ・ディク#:

マックス、結論を急ぐな。

あなたの投稿にある「たぶん」という言葉は、この質問の定式化について考えていないことを示唆していますね。

一般的なニューラルネットワーク、特にMLPは非常に柔軟なもので、同じネットワークで同じように特徴のセットを分割しても、ニューロンの重みの値が違えば......ということが可能です。そうだろ?- そこで、これらの重みのセットのうち、どのバリエーションがよりロバストなのか、という疑問が生じます。

そして、私の投稿に返信してくださった2番目の方とは、もう対話を続ける必要はない、意味がない、と思っています。

無意味なことに手を出すな。テストでは機種を選択するようにと正答されています。そして、クロスバリデーションやバリュエーションフォワードではさらに優れています。

経験は実践で積むものですが...。勉強) そして、テストに臨みます。

 
elibrarius#:

無意味なことはするな。テストで機種を選べというのは、正しくその通りです。あるいはクロスバリデーションやバリュエーションフォワーディングでも良い。

経験は実践で積むものですが...。テストはあとから来るものです。

テスト中...?テストは関数の微分と同じで、同じ曲線、同じ点での接線であっても、2つの異なる関数になることがあります。

このスレッドにいる古参の方々を不快にさせるつもりはありませんが、何年も経っているのですから基本的なことは知っているはずです。

 

.

理由: