トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 500

 
マキシム・ドミトリエフスキー

申し訳ありませんが、あなたは今までの私の質問で自分の価値を証明していません、少なくとも私はそれを見ていません。

そして、Captain Obviousのように書いて、すべてをひっくり返して、自分をまた少し重要視することに意味はありません。


基本的なことを混同していますね。学ぶ - 自分のために、学ぶ必要がある。 折れずに学ぶ...


遅効性

そして、私はあなたに何かを証明する必要はありません。

 
Oleg avtomat:

基本的なことを勘違いしている。学ぶ - 自分のために、学ぶ必要がある。 折れずに学ぶ...


.

そして、私はあなたに何かを証明する必要はありません。


後一歩足場から推定できるかどうかという単純な質問には答えず :D

私は明確な例として、「いいえ」を挙げました。私は議論されたが、誰も説明することができなかった、そして今、私は誰もクソを知っているので、本を読んで行かなければならない)

MOに詳しい人にとっては、とても素朴な疑問だったのですが、誰も知らないということがわかりました。

そしてもちろんみんな馬鹿で、特にハブラや記事を書いている人たちは、レオ・ブレイマンも馬鹿らしい

 
マキシム・ドミトリエフスキー

又とない至高森が外挿できる のかどうかという素朴な疑問に答えるのではなく :D

私は明確な例として、「いいえ」を挙げました。論破されたけど、誰も説明できないし、誰も知らないから、本を読みに行くしかない :)

MOに詳しい人にとっては、とても素朴な疑問だったのですが、誰も知らないことがわかりました。


そんな質問をしたら、もう理解度や意識の高さをアピールしているようなものですからね。

 
Oleg avtomat:

そのような質問をすることは、すでにあなたの理解度、認識度を示していることになるのです。


オール、グッドバイ )

 
マキシム・ドミトリエフスキー

では、さようなら(笑)


乾杯 学ぶ

 
Dr.トレーダー

ほぼ正しい、結果に付加的に加えられるバイアスもある

y1, y2, y3 の値は、内側のニューロン層で使われている可能性が高く、これらの値自体も次の層の入力値として使われるはずである

あるいは、Y1,Y2,Y3が出力値であれば、複数の出力ニューロンを使って分類します。例えば、Y1,Y2,Y3のうち最大の値がY1であれば、結果は「クラス1」、最大の値がY2であれば、結果は「クラス2」、最大の値がY3であれば、結果は「クラス3」です。もしニューロンが分類ではなく回帰に使われるなら、出力ニューロンは1つだけとなる。2つのクラスがある場合、1つの出力ニューロンだけを使うことができます(結果が<0.5ならクラス1、>0.5ならクラス2になります)。

ニューロンの活性化関数にシグモイドを追加するのは非常に簡単で、次のような関数が必要です。

そして、これによって、内部層(3つのパーセプトロンを持つ)と1つの出力パーセプトロンを持つ本格的なニューロンをすでに持っているのです。

result = perceptron4[0]です。


返信ありがとうございました私にとってはかなり有益な情報です。

バイアスニューロンということですね?説明には、入力がゼロの時に役立つと書いてあります。バイアス神経細胞は何に使われ、どのような重みを選択すればよいのでしょうか?基本的には重さだけなんですけどね。

シグモイド変換後のしきい値、または変換後のしきい値を確認する方法は?

 
Dr.トレーダー

ニューロンの重みの数は数万個以上になることもある。mqlやRでは、ニューロンを作成したり訓練したりするための特別なbibiloteksが用意されているので、それを使って作業するのがよい。


例えば、mql4では最大15個のパラメータを同時に最適化することができ、mql5ではさらに多くのパラメータを最適化することができるという意味です。

そして、1つのレイヤーを調整し、最適化された1つ目のレイヤーで2つ目のレイヤー、といった具合に見えるのです。しかし、すべてのレイヤーを一度に最適化できればいいのですが、計算能力的にそれは無理でしょう。

レイヤーを1枚ずつ最適化していくと、あるパターンがシステムから見えなくなるのではないかという仮説があります。

1つのレイヤーが解析されても、次のレイヤーは1つ目のレイヤーの前提になる。

 
マキシム・ドミトリエフスキー

又とない至高森が外挿できるかどうかという単純な質問に答えるのではなく、 :D


あと一息森は外挿できるのか、できないのか、という単純な質問には答えず :D

また、ランダムフォレストは甘いのか塩辛いのか、という質問もできます。 一般的には、バカバカしい質問を連発して、インターネットで参考文献を拾ってくることだってあります。


もっと体系的な教育を受けたフォーラムメンバーが数人いれば、答える必要はないのだが、この件に関してはムスッとしている。


ランダムフォレストには「外挿」という言葉がないため、外挿はできない。ランダムフォレストは、他の機械学習モデルと同様に、将来の値を予測することができますが、それは「抽出」ではなく、実際、「抽出」という言葉は統計学では全く通用しません。


そして、その理由はこうです。

元々、関数に対するEXTRAPOLATIONという言葉は、数式を持つ普通の関数です。

例えば、こんな感じです。

у = а+ bх

この式によると、関数の値を元の定義域の内側で計算(内挿)し、外側で計算(外挿)することができます。


統計学にそのような公式はない。

そして、この「ランダムフォレストが外挿できるか」というのは、統計学でいうところのアナログのようなものと関係があるのです。

у ~ а + bх

一次関数と線形回帰を区別するために、イコールの代わりにチルダを使用します。

この区別は、チルダが示すように、一次方程式の'a'は線形回帰の'a'ではない、という事実を表しています。b "も同様です。

最初の式で「a」は定数ですが、2番目の式では「a」は数学的期待値で、分散値と、我々が見る「a」のその値が存在しないという帰無仮説の確率を伴う推定値を伴います。もし、これが存在しない確率が10%以上であれば、"a "の値は無視できる。


さて、ご質問の件です。

- 回帰式から外挿できるのか?

- いいえ、できません。しかし、信頼区間内の 値をとる確率変数の将来の値を予測することはできます。その信頼区間が95%(帰無仮説の下では5%の確率)であれば、その信頼区間の内側に「y」が入ることになる。そして、その値の分散倍数で「a」の推定値を得ても、全く予測できない。


関数の存在下で意味をなすあなたの質問が、統計学では全く意味をなさないことを詳しく説明できたと思います。

 
サンサニッチ・フォメンコ


さて、ご質問の件です。

- 回帰式から外挿できるのか?

- いいえ、できません。しかし、信頼区間 内の値をとる確率変数の将来値を予測することは可能である。その信頼区間が95%(帰無仮説の下では5%の確率)であれば、その信頼区間の内側に「y」が入ることになる。そして、その値の分散倍数で「a」の推定値を得ても、全く予測できない。


さて、注意してください、そんな質問はなかったのですが...。)

などの質問がありました。

Dr.トレーダー

外挿は、学習時に知っている予測値を超えて新しいデータを予測することを意味します。

予測値ではなく、目標値であることを付け加えておきます。予測値であれば、外挿ではなく内挿を扱っていることになるからです。

つまり、ランダムフォレストは補間はできても(入力を正規化する必要もない)、外挿はできないのです。

統計学では確立された過去の傾向を将来の期間に拡張すること(時間外挿は前向きな人口推定に用いられる)、サンプルデータを観測されていない集団の別の部分に外挿すること(空間外挿)で ある。

回帰木は、例えば1.4500以上の相場に対して、その結果をNEWデータに伝播させることはできず、常に1.4500の予測を与えるが、1.3000以上でも以下でもない、それは例えば1.3000-14500のサンプルで(目標として)訓練されているからで、これは決定木の原理からくるものである。

木とは異なり、線形回帰とニューラルネットワークは、異なる原理で構築されているため、簡単にこれを行うことができます。

もう一度言いますが、学習区間外の新しいデータを新しいRFサンプルの入力に与えても、完璧に補間してくれます。しかし、出力では外挿を行わない。つまり、予測値は学習された出力区間を超えることはない。

 
マキシム・ドミトリエフスキー

さて、注意してください、そんな質問はなかったのですが...。)

例えば、指摘されたような疑問があった。

Dr.トレーダー

外挿とは、学習時に知っている予測変数の値を超えて新しいデータを予測することを意味します。

予測値ではなく、目標値であることを付け加えておきます。予測値であれば、外挿ではなく内挿を扱っていることになるからです。

つまり、ランダムフォレストは補間はできても(入力を正規化する必要もない)、外挿はできないのです。

統計学では確立された過去の傾向を将来の期間に拡張すること(時間外挿は前向きな人口推定に用いられる)、サンプルデータを観測されていない集団の別の部分に外挿すること(空間外挿)で ある。

回帰木は、例えば1.4500以上の相場に対して、その結果をNEWデータに伝播させることはできず、常に1.4500の予測を与えるが、1.3000以上でも以下でもない、それは例えば1.3000-14500のサンプルで(目標として)訓練されたからで、これは決定木の原理から来るものである。

木とは異なり、線形回帰とニューラルネットワークは、異なる原理で構築されているため、簡単にこれを行うことができます。

もう一度言いますが、学習区間外の新しいデータを新しいRFサンプルの入力に与えても、完璧に補間してくれます。しかし、出力では外挿を行わない。つまり、予測値は学習された出力の間隔を超えることはない。


あなたは私の投稿を何も理解していない。全くありません。


いらっしゃるので、書き込み失礼しました。