トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 631

 
FXMAN77 です。

シグモイドで処理される2層目の入力に3つのニューロンがあるのか?2層目の重みは、例えば0.1刻みで-1から1まで選択されていますが、どのように調整するのですか?

私のネットワークでは、2層目の処理後にディール数が 減少し、結果もあまり改善されませんでした。9つの入力と1つの出力ニューロンを持つパーセプトロンを当てはめただけなのに、別の独立したパーセプトロンを取ってきて、最初のものの設定を保存した状態で再度当てはめる、などというのは違うんですね。

4番目のニューロンは、1~3番目の結果を処理する、つまり、さらに3つの重みを加える

はい、-1 から 1 まで 0.1 刻みで、ただしシグモイドではなくタンジェントです

最初の入力層と同じ重みを持つ中間層を試したところ、取引回数が減り、品質もかなり向上しましたが、9個の重みを追加で最適化するのは大変です :)

御社のバージョンは良さそうですね!最適化の結果で従来のNSを鍛えようと思っていたのですが・・・やってみないとわかりませんね。でも、このやり方はもう飽きてきた

 
マキシム・ドミトリエフスキー

4番目のニューロンは、1~3番目の結果を処理する、つまり、さらに3つの重みを加える

現在は、最初の入力層と同じ重みを持つ中間層を作るようにしました。トレードの回数が減り、品質も向上しましたが、さらに9個の重みを最適化するのはもう大変です)

御社のバージョンは良さそうですね!最適化の結果で従来のNSを鍛えようと思っていたのですが・・・やってみないとわかりませんね。でも、このやり方はそろそろ飽きてきたんです。

印象としては、1層目でインジケータを作り、2層目でどのようなウェイトをかけるべきかを視覚的に確認した方がいいように思います。あるいはシグモイドで処理し(そうすると、だいたい0.2〜0.9くらいの値が得られる)、小さな重みを取ることができ、大きな幅は必要ない。

さらに入力にバインドされない追加重量は、Dr.Traderから提案されたバイアスの重さだけです。バイアスのウェイトを追加すると結果が少し改善され、例えばバイアスを加えた1.7は1.8になります。https://www.mql5.com/ru/forum/86386/page505#comment_5856699。

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
FXMAN77 です。

1層目でインジケータを作り、2層目でどのようなウェイトをかけるかを視覚的に確認する必要がある印象です。あるいはシグモイドで処理すれば(そうすれば0.2〜0.9くらいの値が得られる)、小さな重みを取ることができ、大きな範囲の重みは必要ないでしょう。

さらに入力にバインドされない追加重量は、Dr.Traderから提案されたバイアスの重さだけです。例えばバイアスをかけて1.7、今は1.8です。https://www.mql5.com/ru/forum/86386/page505#comment_5856699。

でも、今までのところ、一番の問題は「再教育」です。
 
マキシム・ドミトリエフスキー
即興で何かをするのは難しいのですが、一番の問題は、再教育です。

まあ、5~10個のニューロンを再教育するのは、まったく問題ないのですが)。あなたと同じようなところにいるようです。

パソコンに面白い標本があった。スピーチがあるじゃないですか。この音声にノイズを発生させ、重ね合わせる。その後、簡単なMLPを教えると、再びほぼ純粋な音声が聞こえるようになる。

例としてHaikinに似たようなノイズモディファイアの記述がありますが、これには全く違和感を覚えました。

 
ユーリイ・アサウレンコ

まあ、5~10個のニューロンを再教育するのは、まったく問題ないのですが)。あなたと同じようなところにいるようです。

パソコンに面白い標本があった。スピーチがあるじゃないですか。この音声にノイズを発生させ、重ね合わせる。その後、簡単なMLPを教えると、再びほぼ純粋な音声が聞こえるようになる。

俳人にも例として書かれていますが、本当にはっとさせられました。

でも、ボットのひとつに過ぎませんから、うまくいかなかったら、忘れてください。
 
侮辱に身を委ねず、汚い言葉の使用にも気をつけてください。
 
いくつかのスラッシングは見逃されているようだ、私は参加する時間があればよかったのだが。
 
Maxim Dmitrievsky:
一部のゴミは見逃しているようです。参加する時間があればよかったのですが。

もう1つは、テレニエフスキー氏に答えたものが削除された。私はTerentievに時系列 テストについて返信し、70-80%の精度でSharpの比率が20を超えることを理解していないから、ローカルライターは素人だと言い、意味不明なことを言っています。

 
私は、そうではありません

は、Terenyv氏に返信した私のメッセージを削除しました。Terentiev氏は、時系列テストについて、現地の記事作成者はアマチュアであり、70-80%の精度でシャープ比が20以上になることを理解しておらず、ナンセンスなことを書いていると述べました。

あっそ)

 

リ・インフォメーション・ラーニングが気になっていたので、面白い記事を見つけたので購入して、botに追加しようかなと思っているところです。

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

botを買おうとしてるんだけど、なぜか最後だけ買うことを覚えてるという間抜けっぷり。

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…
理由: