トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 512

 
エリブラリウス

NSの回帰 問題を解いたことのある方に質問です。

学習値として何を与えるか(そして、何を予測するか)?

バリエーションがあります。

1) 次のバーの価格の増分による1つの出力(1バーの価格の増分は通常重要ではないので、私には興味がないように思われます。)

2) 10本から20本のバーを価格刻みで出力(リソースと時間がかかると思われるが、より精度が高くなる。)

3) ジグザグに沿った極値(例えば、ジグザグの場合、15本後の極値とその価格)の増分値を1出力

どのオプションが良いと思いますか?もっといいものがあるのでは?

数本先の予測(p.2、p.3)であれば、その実行確率が下がることは明らかである。何番目が最適でしょうか?

ポイント1を試したところ、モデルはいくつかの規則性を見つけることができました。

Alexey(このトピックの著者)は、1小節先ではなく、数小節先を見ることを提案し、どこまで見るかを実験的に選択することを提案しました。彼の場合は分類でしたが、私の場合は回帰もこの方法で、ポイント1に比べて若干結果が良くなりました。 ポイント2と似ていますが、まさにたくさんの出口で、私はモデルを訓練せず、新しいターゲットごとに1回だけ訓練しました。

ジグザグについては、私には何も効果がなかったので何とも言えませんが、このスレッドでは逆だと書いてありました。

 
エリブラリウス
予想が50%程度なら、MOに無駄な時間を費やす意味があるのか、と。マッシュでも同じになると思います。
予測に差がないのであれば、単純な結果でより複雑なものに何倍もの時間をかける必要はないのでは?

一般的に、MO-NSに時間をかける前に、まず何のために使うのか、なぜ必要なのかを決めておく必要があります。

古典的な手法の代わりではなく、古典的なTCを補完するものだと決めています。まだ既製品には手を出していませんが、模型の出来栄えはとても良いです。

 
ユーリイ・アサウレンコ

一般的に、MO-NSに時間をかける前に、まず何のために使うのか、なぜ必要なのかを決めておく必要があります。

私は、それらは古典的なTCの補足であり、古典的な手法の代わりではないと判断しています。既製品のシステムにはまだ手をつけていませんが、模型の出来栄えはとても良いです。


マンモスの卵のように古く、正しい発言。NSはTCの補足にはなっても、その代わりにはならないし、これらの分類の0と1の数については、1年以上前にこのスレッドで議論されています。ただ、聞きたくないだけなのでは...。

 

なぜ、犬に5本目の脚が必要なのか?I.e. TC NS.

 

トピックを追うと、いつも同じものを見てしまう


 
ヴィタリー・ムジチェンコ

私はこの話題を追っているのですが、いつも目にするのが



それが「NEUROSET」です。

水を "トレーニング "することで、水が "記憶 "し、自ら消えていくようにするのです。

しばらくすると、水は「学習」し、自らすくい上げるようになります。


AIはこうして作られる。理屈に逆らって行動すれば、道は開ける。


そこで、私が見ているのは...。彼は明らかにこのスクープを真のニューロニックである)

 

よく書かれていることですが...ニューラルネットは、物事を作り上げ、描き、創造する。と、なんだか人間の論理を無視しているような......。


だとしよう。

しかし、「創造主」を持たないアモルファス-超知能-は、まったく何も生み出すことができない。"It"(AI)には模倣が必要です。それなくして、発展はない。

突然、ネット上でISISのイスラム教徒のパンフレットを見つけ、人類が滅亡することになるのです。


だから、AIを教育しなければならない--道徳の枠の中で。

そうでなければ、ワッハーブより10000000000倍悪いことになる。

 

1998年代、BasicでAIを作ろうとしたことがあるんです。パソコンでは -ZX_SPECTRUM。

 
 
ミハイル・マルキュカイツ

早くしろーーーーーーーーーーーーーーーーーーーー私も持っていましたが、90年代前半だけで、最後は珍しくなりがちで、BASICで初めてプログラムを書いたこともありましたが......。


つまり、誰にでも打率はあるのです。

理由: