市場のエチケット、あるいは地雷原でのマナー - ページ 79

 
paralocus писал(а)>>

ところで、一連の取引における第一差数列の分布について、スプレッド(3ポイント)1分の縦割りをすると、どんな特徴的な図が得られるか、見てみましょう。

分布関数を作ると、より明確に特徴を表すことができるんです。持ち出したのは、上から見たFRの姿と、タイムスケールの解像力です。もちろん面白いのですが、図らずもそうなってしまいました。

今は2(2,153)を超えたところから、Hによって 2に近づいたり遠ざかったりするが、常に2を超えたところだ

市場の性質上、トレンドがあったのでしょう。大きく伸ばした場合、評価額は<2になる傾向があります。

 
Neutron >> :

分布関数を作れば、より明確に特徴を表すことができます。持ち出したのは、上から見たFRの姿と時間軸の解像度です。もちろん面白いのですが、図らずもそうなってしまいました。

今は2(2,153)を超えたところから、Hによって2に近づいたり遠ざかったりするが、常に2を超えたところだ

市場の性質上、トレンドがあったのでしょう。大きなストレッチの場合、推定値は通常<2です。

今日、作ります。私はちょうど1ヶ月(20 000分)の本当に小さな期間を持っており、私の証券会社は地雷の長い履歴をダウンロードすることを許可していません。



昨夜、思いついたことがあったので、ここで発言したいと思います。すべての人に適用されます、皆さん。

SOIと名付けましょう(誰も当てられないように -:))。


したがって、適切なデータ分析を行うためには、良好な(統計的に十分で、隙間のない)ティック履歴が必要ですが、明らかな理由により、我々はそれを持ち合わせていません。

アイデアの本質は、いかに最小限の労力で、あらゆるトレーダーにとって最大の利益をもたらすように作成するかということです。専用サーバーを2台、もしくは3台借りて、そのサーバーにティックコレクターを設置する...というシンプルな解決策です。どのツールや証券会社でもそれだけではありません(詳しくは後述します)。一人このベンチャーは非常に高価になりますが、アイデアはそれを行う方法だけで無料ではなく、安価で信頼性の高い、実用的なものです。


計算してみよう。

*******************************************************

1. 今日、十分なスペースを持つ専用の仮想サーバーを1台借りると、月々約100ポンドかかります(独立したサーバーが2台必要です) ... 月々200ドル。

2.全体を見渡し、有能なコーダーがいなければ、ストーリーをパッチワークすることはできないでしょう。

もちろん、コーダーはこの仕事に対していくらかの報酬を受け取る必要があります。毎日の仕事はそれほど多くはないので、200ポンド/月です(ただし、これはコーダーがプロジェクトで稼ぐことのできる限界ではありません)。

それが、実は、基本料金のすべてなのです月々400ポンド。


また、統一されたオンラインリソースが必要で、これを配置する必要があります。

a) チーク材の歴史を販売するマーケットプレイス。

b) EAを販売するためのマーケットプレイスで、提案されたEAの現在の動作をデモで無料で見ることができます。

c) DCに対する建設的な批判を許容するフォーラム。



*****************************REVENUE**************************

1.ティック履歴ダウンロードの支払い - あらゆる証券会社のあらゆる商品の1ヶ月分のティック - 1WMZ (支払いはWebMoneyが便利です)

2.リモートサーバーでアドバイザーをホストするための手数料(本当の仕事) - 20WMZ/週(アドバイザーがそんなに稼がない場合は、ちょうどそれを捨てる)

3.デモアドバイザーホスティング料金 - 5WMZ/週

4.プラットフォームを通じて販売されたアドバイザーからの利子(正確な数字は分かりませんが)

******************************************************************************************


総じて、かなり収益性の高い、有用なプロジェクトと言えそうです。MetaQuotesもおそらく興味を持つでしょう。SOIは彼らの製品であるMT5の良いPRになりますから。

一言で言えば、DCを除く全員が勝つということです。 しかし、正直な証券会社は何も恐れることはありません。

コンセッションを始めるには、株主が必要です。私自身は、100WMZの金額をシェアする用意があります。他に誰が......?



 

1.ダニを集めているのは、自分にとって必要なものだからです。もう十分です。

2.商業プロジェクトとしては、「FX」ブランドの別プロジェクトに劣ると私は思います。

3 分析のためだけにティックが必要な場合は、まず実現可能性を示す必要があります。実質所得をティックで表示し、価格系列を表す他の方法に対する優位性を証明する。当局への照会が有効でないことは明らかである。

そして最後の1枚。誰もが自分の証券会社の歴史の中で、独自の相場フィルターで取引している。この証券会社の場合、NSは訓練を受けている。その結果、提案されたプロジェクトの普遍性についての話はしていないのですあなた以外の誰が興味を持つのでしょうか?あと1、2人...。

 
そうですね、フィルターの件ですが、それは思いつきませんでした。昨日も書いたばかりではありますが...。ありがとうございます。
 
入力を一定の分布に正規化することはできましたか?最近、同じような問題で悩んでいるんです。配給の本質を例を挙げて説明しなさい、あなたの困難を正しく理解したいのです。正しく理解できれば、解決策を提案できるはずです。
 
私は別の意味で苦労しています。
 

ニュートロンと パラロカスに 質問です。Neutronは 修正RPROP方式で、paralocusは 修正BPROP方式でグリッドを学習させると理解しています。古典的な RPROP 法では、学習誤差の二乗の勾配(dE^2/dw = -delta*Neuron_Input) に学習率を乗じることで、ウェイトステップを算出する。この方法は、ある学習セットから別の学習セットに移動する際に局所的に適用することも、すべての学習セットの誤差勾配を累積して重み付けステップを計算することによってエポック的に適用することも可能である。あなたの修正点は、ウェイトステップにさらに(1-L/N)*dw/sqrt(dwNorm)を乗じるということです。Neutronは RPROPのようにdwのインクリメント記号しか取らない。私は、ほとんどすべての種類のRPRO法(BPROP、RPROP、IRPROP+/-、SARPROP、GRPROP)を試しましたが、かなり悲惨な結果を得ました。重みを乱数(例えば-0.5〜0.5の範囲)で初期化した場合、初期の学習誤差は非常に大きくなるが、学習方法はそれをうまく低減する。ここは問題ありません。しかし、重みが0値または非常に小さい乱数(例えば-0.05 ... 0.05)で初期化された場合、初期の学習誤差は小さく、重みが「大きい」乱数で初期化された場合の究極の学習誤差と等しくなります。では、初期重みがランダムな場合、重みがゼロでも最終的な学習誤差に近い誤差が得られることがわかっているのなら、ネットワークを学習する意味はあるのでしょうか?以下は、paralocusの ような修正ORO方式での学習誤差のグラフです(以前の投稿から判断すると、 Neutronも 当初は同じ方式を使用していたようです)。


これまで述べてきたすべての学習方法は、ほぼ同じ挙動を示します。ランダムな初期重みでエポックからエポックへ学習誤差が見事に減少し、感動的です(論文や学位論文が書けます)。初期重みが0のとき、すでに誤差は十分に小さくなっており、ネットワークでは全く改善されない。同じ入力データでIRPROP+を学習させた例を以下に示します。



もしかしたら、このような学習誤差の挙動は、私のネットワーク(2層、12入力、5隠れニューロン、1出力、120学習セット)や入力データ(異なる遅延を伴う相対価格上昇)に特有のものかもしれません。ランダムでゼロの初期重みを持つネットワークがどのように学習するのか見てみたいです。もし差し支えなければ、この2つのケースについて、エポックの関数としてのNON-NORMED 学習誤差のグラフを見せてください。

ここで、自分の結果について少し考えてみたのですが、学習過程でネットワークの重みがゼロになる傾向がある場合、言い換えれば、初期重みがゼロでネットワークの学習状態に近い場合、ネットワークは非常に弱い相関の入力と出力、つまり予測が不可能なランダムマーケットを記述しようとするのではないかという結論に達しました。そんな定理を "発明 "しました。


 
gpwr писал(а)>>

この学習エラーの挙動は、私のネットワーク(2層、12入力、5隠れニューロン、1出力、120学習セット)、あるいは入力データ(異なる遅延を伴う相対価格増分)に特有のものなのかもしれません。初期重みがランダムでゼロの場合のネットワークの学習を見てみたい。

二層膜NSの学習誤差低減プロセスは、エポック数によってこのようになる。

このネットワークには5つの入力、隠れ層に4つのニューロン、そして出力に1つのニューロンがあります。EURUSD1h の始値を標準偏差で正規化したものを学習ベクトルとして使用した。図中の○印は、入力ベクトルの長さに対する誤差を正規化せずに50回の数値実験を行い、平均した標準偏差として求めた学習誤差を示す。細線は1/eレベルの統計的散らばりを示す。青は重みの初期ランダム化が0の範囲、赤は+/-1の範囲を帯状に分布させた場合の実装を示す。

NSは、重みの初期値をランダムな値で初期化した方が、ゼロから始める場合に比べて、はるかによく学習することが分かる。さらに、重みのランダム化の開始幅を大きくすると、一般に最終的な学習誤差が小さくなる。ただし、この場合、必要なエポック数は増加します(グラフ全体が上昇します)。

 
Neutron >> :

二層膜NSの学習誤差低減プロセスは、エポック数によってこのようになる。

このネットワークには5つの入力、隠れ層に4つのニューロン、そして出力に1つのニューロンがあります。EURUSD1h の始値を標準偏差で正規化したものを学習ベクトルとして使用した。図中の○印は、入力ベクトルの長さに対する誤差を正規化せずに50回の数値実験を行い、平均した標準偏差として求めた学習誤差を示す。細線は1/eレベルの統計的散らばりを示す。青は重みの初期ランダム化が0の範囲、赤は+/-1の範囲を帯状に分布させた場合の実装を示す。

NSは、重みの初期値をランダムな値で初期化した方が、ゼロから始める場合に比べて、はるかによく学習することが分かる。さらに、重みのランダム化の開始幅を大きくすると、一般に最終的な学習誤差が小さくなる。ただし、この場合、必要なエポック数は増加します(グラフ全体が上昇します)。

ありがとうございます。統計的な広がりが青い円の近くに描かれているのはなぜですか?ウェイトがゼロ値で始まるなら、統計的な散らばりはないはずです。

もう1つ質問です。EURUSD1hの始値を標準偏差で正規化したものを使用した場合、その平均値はゼロではありません。それとも、平均値を引いたのでしょうか?