要は、ニューロン層が出力に向かう途中で通過しても、分散が大きくならないようなNSアーキテクチャを構築することだと思うのですが......。imho(そのまま使えるのに、なぜ蓄積するのか、は暴論)...そして、統計学の古典的な論理...。そして、非常に深い歴史であっても、ロバストな瞬間を定性的に分析するためのサンプルは十分ではありません(人生にはあらゆることが起こります)...。 Mihail Marchukajtesの 分類モデルでは、外れ値も起こり得ると思うのですが......。(シーケンサーはどう対処すべきか、考える必要がある)
実用化はいつから?
このスレッドを(何度も)脅かすことなく、さっさと申請して、売買のシグナルを出すようになったら- 私の仕事はあなたの仕事ではありません!...あなたの練習は私の頭の痛いところではありません...。- 好きなように、好きなように...。
さっさと申請すればいい...支店中を脅かして(何度も)売買シグナルを聞くようなことはしない...- 私の仕事はあなたの仕事ではありません!...あなたの練習は私の頭の痛いところではありません...。- 好きなように、好きなように...。
...と言うことで
というのは、あなたのこれまでの荒らしや野暮ったさは、あなたに反応しなかったことによる反応と結果であり、あなたは何も建設的な見返りをもたらさないということです...。で、誰もあなたのために市場エントリーを生成する義務はない(単に、あなたが強引で不十分な取り方しか知らないから)。
は、あなたのこれまでの荒らしや無作法が、あなたに応答しなかったことによる反応と結果であることが判明したと言っています -- あなたは何も建設的な見返りをもたらさない...そして、誰もあなたのために市場参入を生み出す義務はない(単に、あなたが押し付け、物乞い、不十分さしか知らないから)。
Examples are possible?
そして、私の時間を自分のために使うことはできない...。あなたは枝の0です(前〜3000pp参照)。
そして、私の時間を確保することはできない...。汝が枝に0である
実用化はいつから?
ということで、Tensorflow.keras を使って、(Evgeny Dyuka が持っているような?
SKLearnの方が面白そう - 機械学習結果の解釈(ライブラリはイマイチかも しれないが、評価ロジックは与えられる)。
追伸
付いていない...
を論理に ...NSは、形質の要因依存性を記述する公式の欠如を回避する必要がある場合に使用される...ということです。の重み付けが使用される...が、NSの標準的/古典的な統計処理の前後で...例えば,PDF=F'(X)=dF(x)/dxしかなく(母集団分析の結論はすべてPDFによってなされるので,CDFは必要ありませんが),揮発性のデータを持っている場合 - まず,それらの共同分析の可能性のために分布を均一化する必要があり,ここでは重み付けが役立ちます(ここでは数学は志しません)...が、分析自体はNSとは関係ないし、それ(NS)に対する結論もない...。このような推定は粗いかもしれないが、古典統計学も不完全である(例えば、増分の対数を使うこと自体、すでに結論に傾向性を導入している-純粋に数学的欠陥である)...。どんなモデルにも「前提」があります。
市場参加者は、予測を待つのではなく、リスクとボラティリティを 評価し、 それに基づいて取引(およびヘッジ)を決定する...この分析には、ボラティリティとタイムウィンドウという2つの変動要因がありますが、NSはサンプルを統一するのに役立ち(ただし、GARCHを使うこともできます)、単一の統計モデルで一緒に分析することができ、水平線を決定するのに役立ちます...。そんな時、数学の公式がない、必要ない(この世界ではすべてが変化する)...。しかし,重み付け,重み付け,そしてまた重み付け(ある回帰への圧縮のため)により,1つの統計モデル内で共同分析を行い,できればノイズなしで,あるいは少なくともその最小化で...です。
ガウシアンに対するベイズ推論ロジックは覚えておいて 損はないだろう ...
要は、ニューロン層が出力に向かう途中で通過しても、分散が大きくならないようなNSアーキテクチャを構築することだと思うのですが......。imho(そのまま使えるのに、なぜ蓄積するのか、は暴論)...そして、統計学の古典的な論理...。そして、非常に深い歴史であっても、ロバストな瞬間を定性的に分析するためのサンプルは十分ではありません(人生にはあらゆることが起こります)...。 Mihail Marchukajtesの 分類モデルでは、外れ値も起こり得ると思うのですが......。(シーケンサーはどう対処すべきか、考える必要がある)
いまのところimport scipy.stats as stats も見てみる。
追伸
リンクありがとうございます
次の「NSはサンプルを均一化するのに役立つ」という言葉が少し気になります。どうですか?
さらに、「要は、 ニューロン層が出力に向かう途中で通過しても分散が増えない ようなNSのアーキテクチャを構築 することだ」という。質問があるのですが、より詳細に、より具体的にというのはどういうことでしょうか。ただ、私には理解できない常識があると思い込んでいるのです。ところで、アイデアの拡散を避けたいのであれば、個人アカウントにしましょう、私もあなたの意見を共有し、聞くことができれば幸いです。確実な結果を出せないのはNSのせいではなく、木を見て森を見ずになっているのではないか、という思いがあります。これを回避する方法について、何かアイデア(とそれに応じたコードでの実験)があれば教えてください。
.また、私が何か見逃していたら説明してください。簡略化 せざるを得なかったのは、あなたのメッセージにたどり着くのに15分ほどかかったからです)))
ジェイソン・ブラウンリー(『Deep Learning With Python』『Statistical Methods for Machine Learning』の著者)-。
- 初心者が陥りがちな3つの間違い。
1.実務担当者が統計を知らない
2.実務担当者が統計を知らない実務家は間違った統計データを研究している
3.実務家の統計勉強法は間違っている
どの属性も重要です。ランキングでどの位置を占めるかは関係なく、特に属性はそれほど多くないので、SKLearnを 使わずに重要度の高い順にランク付けすることができます。
条件によって重要になる属性が違う...。が、勢いよく正しく順位がつけられると思ったらAIか...(何の精度で何の誤差かわからないけど)
何を入力するか - 自分で決める、自分で試す、仮説の確認を忘れない(Studentのt-testはscipyモジュールのstatisticsクラスにあります) ...一般に、neuronkiは統計学において大規模なサンプルを扱う難しさを克服するための便利なツールですが、統計的論理に取って代わるものではなく、それを実装するものです... サンプルは代表的であるべきで、天井からではない(サンプルの数!および質[不均一性]を含む)ことを理解するなど、...斯くあるべし