トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2621

 
mytarmailS #:
PythonのPonyGE2については、パッケージがありますが、私はPkeでやっているので、それが何であるか、どのようにかは言えません
名前を間違えました。
文法的進化と記号的回帰の両方が機能する
 
Valeriy Yastremskiy #:
一連のイベント・ルールは有効だが、それぞれのルールには次元があり、長いシーケンスには呪縛がある。
この方法のクールな点は、あなたがコントロールできることです...
例えば、あるルールが最低200回繰り返されなければならないという条件を設定すれば、次元の呪縛から解放されるのです。
 
mytarmailS #:
名前をバカにしてどうしたんだろう。
文法的進化と記号的回帰の両方が有効です。
象徴的な回帰、ですね。
 
バイアスと分散のトレードオフにおけるシンボリック回帰は、分散の増加に強く偏っているように見えます。確かに断念する理由にはならないが、SBと価格が近いためトラブルが発生する可能性もある。
 
Aleksey Nikolayev #:
バイアスと分散のトレードオフにおけるシンボリック回帰は、分散の増加に強く偏っているように見えます。確かに断念する理由にはならないが、SBと価格が近いためトラブルが発生する可能性もある。

あくまでもルールを作るためのフレームワークであって、価格や近似性、回帰性などについては、私の提案には何もありません。

 
mytarmailS #:

いくら機種が多くても、直近の10本のローソクを見られたら、ガッツリGPT-3でも使い物になりませんよ。

発電機があるのに、電源がない...。

私の5セント- トレーニング中は、繰り返さないニューロン(バー)の重みがぼやける。影響力のある重みは、最も頻繁に確認された神経細胞のままです。このように、一定の数のバーがある場合、重要なものだけが重みを持つ。フィギュアのようなもの。

 
Dmytryi Voitukhov #:

私の5セント- 学習中は、繰り返さないニューロン(バー)の重みがぼやける。影響力のある重みは、最も頻繁に確認される神経細胞に留まる。このように、一定の数のバーがある場合、重要なものだけが重みを持つ。フィギュアのようなもの。

3時だ、何してるんだ、ディミトリ(笑)
 
Dmytryi Voitukhov #:

私の5セント- 学習中は、繰り返さないニューロン(バー)の重みがぼやける。影響力のある重みは、最も頻繁に確認される神経細胞に留まる。このように、一定の数のバーがある場合、重要なものだけが重みを持つ。フィギュアのようなもの。

同様に木の上でも。例えば100のフェイント/バーのうち、5~10のトップスプリットは、いくつかの重要なものを選び、残りは使いません。ツリーをずっと分割すると、最後の分割(および使用された機能/バー)によって全体の結果がごくわずかに変化します。つまり、結果はNSとほぼ同じで、カウントが速くなるだけです。
 
もし、人がMLに良いものと悪いものを交換したり、与えたりしたらどうなるか?
 
BillionerClub #:
もし、MLに良いものと悪いものを交換したり、与えたりしたらどうなるか?

いいアイデアだと思います。ただ、ここが重要だと思うんです。

- 多くの統計を積み重ねること。

- 人が一つのもの(一つのシステム)を取引するために。

- 客観的な視点を持ち続け、システマチックに取引していること。


この場合、良いマークアップが得られると思いますので、普通に利益を得ることが可能です。

理由: