Piligrimusは、ニューラルネットワークのインジケーターです。 - ページ 2

 
Piligrimm >> :

いずれにせよ、改良の余地は大いにあり、滑らかさを大幅に向上させたり、追加信号を導入したりすることができます。

スムージングとは、専門用語では高周波成分をカットすること

信号の最大周波数と1オクターブ上の周波数の間で、何デシベルの減衰が達成されたでしょうか?

 
EvgeTrofi писал(а)>>

バタバタのVFDはどこで手に入るのか、教えてください。

はい、お願いします!

Kはフィルタの次数である。2枚以上貼らない方が良い - FSが大幅に増加します。

ファイル:
baterlout.mq4  2 kb
 

zfs писал(а) >>
В чем смысл вашего индикатора, товарищ... он напоминает обычную среднюю.

何が言いたいのか?などと説明する。あなたのインジケータは単純平均に見えるので、..........................。

ニューラルネットワークは、人間の脳神経細胞の働きをシミュレートする要素で作られた自己学習システムである。

マッカロク・ピッツ社のニューロンモデルは、本体(ソーマ)とその先端に他のニューロンの本体と結合する分岐(アクソン)で構成されている。この接合部をシナプスと呼びます。シナプスは、シナプス結合の強さwによって特徴付けられる。ニューロンiが結合力wi1, ...,winのシナプスを持つ場合、他のニューロン(Sj)からのインパルスはその中で合計され、出力される。






ニューラルネットワークの活性化関数(過渡関数)f()として、通常は単純なステップ関数、対称または非対称のS関数、線形ステップ関数が選ばれます(図参照)。


図 単純なステップ、非対称、対称のS字活性化関数。


j番目のニューロンのi番目のニューロンに対する結合強度をwijとすると、n個のニューロンからなるニューラルネットワークは、シナプス結合の行列によって完全に特徴づけられる。



通常、最も単純なニューラルネットワーク、いわゆるレイヤードニューラルネットワークが使用される。各層の入力は、前のニューロンの出力とだけ接続される。最初の層を入力層、最後の層を出力層、残りを隠れ(内)層と呼びます。ニューラルネットワークの一例:4 - 8 - 5 - 3。つまり、ニューラルネットワークは、入力層が4ニューロン、出力層が8ニューロン、2つの隠れ層が8と5の4層で構成されていることになります。
W行列のシナプス結合の強さを変えることで、ニューラルネットワークを制御(学習)する。ニューラルネットワークは、自己学習システムとして使うこともできるし、特別に選んだサンプルであらかじめチューニングしておくこともできる(教師によるトレーニング)。ニューラルネットワークが与えられた入力信号のセットに対して調整されると、ネットワークは出力信号を生成し、サンプルと比較される。サンプルからの偏差は、特別に選択された損失関数(例えば、標準偏差に等しい)を使用して評価される。そして、シナプス結合の行列は、損失関数を最小化するように修正される(通常、勾配降下法)。このように、ニューラルネットワークは、加法的回帰モデル、非線形回帰モデル、ノンパラメトリック回帰モデルに分類されます。


図 単純ステップ、非対称型、対称型S字活性化関数。



ニューラルネットワークの性能は、その3つの性質を重み付けして推定したものである。
収束の度合い - 与えられた入力値に対してモデルが適応した正確さ。
汎化の度合い(generalisation) - 与えられた入力セット以上の入力セットに対してモデルが動作する精度。
安定性 - 予測精度のばらつき(偏差)の尺度。
ニューラルネットワークの上記の特性は、以下の手順で影響を与えることができます。
適切な活性化関数の選択
適切な損失関数の選択
ネットワークのアーキテクチャ(構造)の選択
勾配降下のパラメータの選択
学習時間の選択 テクニカル分析におけるニューラルネットワークの応用例 ニューラルネットワークの学習の主な目的は、観測されたフォーメーションの間にコネクション(関連性)を構築することである。ニューラルネットワークは、複数のテクニカル指標から来るシグナルを判断するのに有効です。相場の状況によって有効なテクニカル指標は異なります。先ほども言ったように、トレンドフォロー系の指標はトレンドがあるときに有効で、オシレーター系は相場がレンジで変動しているときに有効な指標です。

このような場合にニューラルネットワークがどのように利用できるかを簡単な例で紹介しましょう(A.-P. Refenes, A. Zaidi )。次の課題は、移動平均(MA)と平均からの偏差(MV)という2つの単純な指標からのシグナルに基づく2つの戦略の組み合わせに基づく混合戦略を見つけることだとする。

MAは、平均期間の異なる2本の移動平均を比較し、速い移動平均が遅い移動平均を下から上に横切ったときに買いシグナルを、上から下に横切ったときに売りシグナルを出すシンプルな指標です。

MVは単純な指標で、価格が平均値より上にあれば売りシグナルを出し、そうでなければ買いシグナルを出します。

システム構成を図91に示す。

システムは、インディケータのシグナル(0 - ショートポジション、1 - ロングポジション)と、過去2日間のインディケータのパフォーマンス(利益または損失)に関する情報、および現在の市場情報を受信します。
出力には3つの信号があります。

MA:MA-indicatorの推奨に従う。

MV: MV-indicatorの推奨に従う。

NP:何もしない

各出力は0から1の値をとります。


図 2つの指標を分析するためのニューラルネットワークの模式図。


MAとMVの両方の信号がONの状態(0.5以上の値をとる)であれば、最も値の大きい信号推薦を選択しますが、NPがONの状態であれば、何も行いません。

このニューラルネットワークの応用例には、......と、何を想定して持たせているのでしょうか?

 
Neutron писал(а)>> バターワース2次LPF(

バタワースじゃない?

 
Neutron писал(а)>>

実際、Butterworthの2次LPF(赤線)は、あなたのニューラルネットワークフィルタと比較して、それほど悪い結果にはなっていません。ところで、コードのどこにNSがあるのか、なぜ子供が再描画しているのか?これは修辞的な質問です。再描画では、物語の中で見えているものが現実と一致しないため、「なぜ、実際には存在しないものを見せるのか」という本当の疑問が生まれます。

数式全体は、異なるパラメータで学習させた複数のネットワークの集合体であり、それらの重み係数を相対化した1つの多項式に還元される。

履歴は変化せず、ゼロバーの相場だけが変化するため、多項式全体がティックごとに再計算され、ゼロバーでの再計算結果は変化しない。再描画はありません。

 
sab1uk писал(а)>>

ダンピング - 専門用語で、高周波成分をカットすること。

現在のバージョンでは、有用な信号の最大周波数から、例えば1オクターブ高い周波数まで、何デシベルの減衰が達成されたのでしょうか。

それは確認していません。

 
Infinity писал(а)>>

この中にニューラルネットワークを使った例がありますが、......何か思い当たる節はありますか?

私はニューラルネットワークをフィルターとして使っていますが、おっしゃるような作業とは少し違いますね。

 
Piligrimm >> :

それは確認しなかった。

>>そういうことなんだ...全ては目分量なんだ。

 
Piligrimm писал(а)>>

私はニューラルネットワークをフィルターとして使っていますが、これはおっしゃるようなものとは少し違う作業です。

デジタルフィルタの係数を取得しました。基本的には、デジタルフィルタと同じように、とんでもない係数を持つMAです。実際に何をさせたいのか?何をフィルターにかけたいのか、変化に対してどれくらいのスピードで反応させたいのか。
また、どのように最適化するのでしょうか?

Infinity さん、ご説明ありがとうございました。非常にシンプルで、明確で、論理的です。

 

ニューラルネットワークが 何であるかは理解しているし、このインジケータよりも例の方が理にかなっていると思う。

入力は訳の分からない係数の羅列です。出力は平均値です。エキスパとしての意味もない。