トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2832

 
Aleksey Nikolayev #:

まず思いつくのは、大きすぎず小さすぎないセル(大きさはノイズモデルによって決定される)のグリッドで空間を分割することだ。いくつかの(例えば無作為に選ばれた)セルから開始し、その中のいくつかの点で平滑化関数の勾配の方向を決定し、遷移やループがなくなるまで次のセルに移動する。極限の位置はセルの大きさに合わせて正確に設定されるので、大きすぎてはいけないが、同時に平滑化の可能性を与えるものでなければならないので、小さすぎてもいけない。また、極限の位置は平滑化の方法によって変わるので、原理的に厳密な位置はないという事実を受け入れなければならない。

大変そうですね(笑)。

 

Rと椅子の間のクッションが薄すぎる。

もうひとつの妄想

 

なぜ投稿を削除するんだ、被害妄想か?:)

何回失敗するんだ?

 
Maxim Dmitrievsky #:

あなたはRで大きなプロジェクトを作り、サーバーに置いた。なぜなら、そのような量のスペシャリストはいないし、1つの統計のためにRを学ぼうとする人もいないからだ。

パイソンなら、ソーセージ1本で学生を雇えばいい。


ソーセージ1本で誰が学生を雇うんだ?

必要なのは、統計学やMOEの知識がある学生だ。そして、やはり専門の組織で働くことが望ましい。そして、RやPythonは1週間で教えることができる。そのような学生=統計学者はみなC++を知っているからだ。

しかし、5年間も統計学を勉強していない人にとっては、PythonよりもRの方がずっと役に立つ。Rでは必要なことだけが書かれていて、すべてがかみ砕いて文書化されているからだ。

 
СанСаныч Фоменко #:

ソーセージの棒を持った生徒なんて必要ないだろう?

私たちが必要としているのは、5 年間かけて勉強する統計学、MOEを知る学生だ。そして、専門組織で働くことが望ましい。そして、RやPythonは1週間で教えることができる。そのような学生=統計学者はみなC++を知っているからだ。

しかし、5年間も統計学を勉強していない人にとっては、PythonよりもRの方がはるかに役に立つ。Rでは必要なものだけが必要で、結局のところ専門的な言語なので、すべてが咀嚼され、文書化され......るからだ。

信じてほしいのですが、学生は5日間でソーセージ1本分の統計学を学ぶことができます。

成功の主な条件は、学生がハングリーであることだ。

私たちは何ヶ月も何年も同じことを話している。

 

なぜ最適化の正しさを議論するのか?ローカルだろうがグローバルだろうが関係ない。


ディックの質問は純粋に理論的なものであり、実用的な価値はない。なぜなら、非常に正しく発見された極値でさえも過去のものであり、新しいバーの登場によって、ほとんど常に 新しい、我々にとって未知の極値が存在することになるからだ。 テスターのことを思い出そう。テスターは極値を見つける。そして何?テスターによる最適値は、それが将来も生き続けることを考慮しなければ、何の価値もない。しかし、最適値の寿命は、ディックが書いているこの最適値を見つけることの正しさや正しさとは何の関係もない。

 
Maxim Dmitrievsky #:

信じてほしいのは、学生は5日間でソーセージ1本分の統計学を学べるということだ。


統計学は5年間教えられますが、誰でも教えられるわけではなく、入試で特別に選ばれます。

 
СанСаныч Фоменко #:

統計学は5年間教えるが、誰でも教えられるわけではなく、入試で特別に選抜される。

細かいことは省いて、現実の社会から応用問題を出せば、プロセスは早く進む。

トレーニングで多いのは、なぜそれが必要なのかが理解できず、人生で一度も遭遇したことがない場合の間抜けさだ。最終的なゴールが見えないのだ。

 

Catboostの カスタムメトリックの作り方を教えてください。

私のバージョンでモデルをトレーニングした結果はRMSEとほとんど同じなので、コードのどこかにエラーがあります。

predsとtargetはreturn (a[i]-a[i+1]) です。

class Sharpe(object):
    def get_final_error(self, error, weight):
        return error

    def is_max_optimal(self):
        return True

    def evaluate(self, approxes, target, weight):
        assert len(approxes) == 1
        assert len(target) == len(approxes[0])
        preds = np.array(approxes[0])
        target = np.array(target)
        data = [i if i > 0 else -1*i for i in preds]
        sharpe = np.mean(data)/np.std(preds)
        return sharpe, 0

model = CatBoostRegressor(learning_rate=0.1, n_estimators=2000, eval_metric=Sharpe()) 
 
СанСаныч Фоменко 寿命は、ディックが書いているその最適値を見つけることの正しさや正しさとは何の関係もない。

私の名字は衰えていない。
もし気にしないのであれば、ネットワークの重みを乱数で初期化すればいいだけだ。というのも、それが大域的かどうかに何の違いがあるからだ。)
理由: