トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2304

 
マキシム・ドミトリエフスキー

一番嬉しいのは、「リニアトレンド」というラベルです。

彼のモデルは、線形トレンドにフラクタルなブラウン運動の形のノイズを加えたものです。

 
アレクセイ・ニコラエフ

彼のモデルは、線形トレンドにフラクタルなブラウン運動の形のノイズを加えたものです。

ノンリニアなら)

Rによる計量経済 学の新しい本、見ましたか? こんなの?

は、パイソンに関するそのような本はなく、すべて別の場所にあります。

https://otexts.com/fpp2/

 
マキシム・ドミトリエフスキー

ノンリニア当時)

Rによる計量経済 学の新しい本が登場しましたが、ご覧になりましたか?

は、Pythonに関するそのような本はありません。

https://otexts.com/fpp2/

エコノメトリックスはヒヨコ向け、DSPは男向け ))))

この 作品は未読ですが、新しい発見はないでしょう。

Книга "Анализ временных рядов с помощью R" опубликована
Книга "Анализ временных рядов с помощью R" опубликована
  • 2020.04.12
  • r-analytics.blogspot.com
Книга представляет собой небольшое пособие, посвященное решению нескольких стандартных задач, таких как прогнозирование, выявление структурных изменений и аномалий в данных, а также кластеризация временных рядов. Описание соответствующих подходов и программного обеспечения сопровождается...
 
mytarmailS:

女子はエコノメトリックス、男子はDSP ))))

トラクタードライバー用

 
マキシム・ドミトリエフスキー

その時はノンリニアなもの)。

例によって、履歴をもとに各ポイントで線形トレンドを求める。そして、このトレンドを1単位ずつ未来に拡張していき、予測を得る。その結果、私見では、いずれにせよ、加重平均で予想が得られると思います。)

マキシム・ドミトリエフスキー

Rによる計量経済 学の新しい本が登場しましたが、ご覧になりましたか?

は、Pythonに関するそのような本はありません。

https://otexts.com/fpp2/

そのような本は読めないので、追うのをやめました。一般論は高校の教科書やラシュカ(マグヌスやカントロヴィッチの講義など)を読みました。具体的な質問については、必要なR-packageのマニュアルを参照しています。

 
mytarmailS:

エコノメトリックスはヒヨコ向け、DSPは男性向け ))))

これは 読んでないのか、新しい発見はないだろう。

読書百遍とはよく言ったもので、何度読んでも新しい発見があるものです )

読ませていただきます。エコノメトリックス+MOがあればいい。しかし、グレイルは表面にあるわけではありません。一般的なコレクションにそれ以上のものを求めるのは愚かなことです。
 

面白いもので、中間層に10~15個のニューロンを持つ3層のMLPネットワークが、x1/x2型の依存性を見出したのです。

問題はニューロン数の不足で、中間層の8個では不十分だった

 
マキシム・ドミトリエフスキー

おぉ、ビーパーが付いてる!1週間以内に消さないとカッコ悪いな))

 
マキシム・ドミトリエフスキー

不思議なことに、一般化しにくい特徴があります(特にキャットバストについてですが、おそらく他のものにも当てはまると思います)。新しい機能を追加しただけで、その機能がないときよりもモデルがエラーを出すのですから、不思議な感じがします。

例)数種類のマッシュでトレーニングした後、数種類を削除したら高くなった

モデルはすべての属性を考慮しようとするが、もし一部の属性が対象マークと関係がない、つまりランダムであれば、品質は低くなるはずである。

例えば、身長と性別から体重を予測する場合、品質はかなり高いのですが、髪の色などを加えると、品質は低くなります。

 
denis.eremin:

面白いもので、中間層に10~15個のニューロンを持つ3層のMLPネットワークが、x1/x2型の依存性を見出したのです。

問題はニューロン数の不足で、中間層の8個では不十分だった

1000以上のニューロンを持つネットワークは、依存性を見つけることができないか、非常に長くて不正確な学習が必要になるでしょう。