Forecasting stock prices plays an important role in setting a trading strategy or determining the appropriate timing for buying or selling a stock. We propose a model, called the feature fusion long short-term memory-convolutional neural network (LSTM-CNN) model, that combines features learned from different representations of the same data...
チャート、ローソク足分析など、より高度なものに統計的手法を応用する試みは行われているのでしょうか?
リターンは使わない。
一次データ(チャート表現)として利用する場合でも、予測因子を追加して情報を圧縮し、比率やベクトルを作成する必要があります。
私の考えでは、地球の温度には自然現象による周期的な変動があります。この100年の間に自然温暖化が始まり、そこに人為的な要因が重なった。
一応、分解してみると。
1.温室効果は、地球の平均気温に影響を与える数多くの要因のうちのひとつに過ぎません。
2.人為的な影響を考慮するには、大気中の人為的なCO2の割合が重要である。 現在は1%で、つまりかなり小さい。それ以上に森林火災や草焼きによるものが多い。さらにCO2の吸収、森林伐採で減少する。
3.大気中に入るCO2とその固定化のバランスは、FX市場の需給バランスに近い。投資 時間の異なる多くのチャンネル 処分。シミュレーションするのは、決して簡単なことではありません。 しかし、実験的な観察がある。
20世紀末には、主に考古学者のニーズから、AMS加速器質量分析計のような機械が登場した。その最大の特徴は、同位体比を測定するための試料がミリグラムと非常に小さいことである。その後、技術や医療、特に気候の研究などに急速に応用されていった。この機械はC12/C14比を非常に正確に測定します。自然発生では、宇宙背景によって決まり、その比率はかなり安定しています。しかし、核実験の時代が始まり、C14の濃度が飛躍的に上昇すると、世界中に拡散し、樹木にも吸収されるようになったのです。検査の場所と日付がわかっていて、年輪も簡単に数えることができ、木が生えていた場所でC14濃度がどのように変化していたかを正確に把握することができます。このような測定を世界中で行うことで、CO2が大気中をどれだけ早く移動するかを追跡することができました。その結果、半年から1年で、世界中であっという間に濃度が横ばいになることがわかりました。そしてさらに重要なことは、濃度がバックグラウンドに戻るまで10年もかからなかったことです。 つまり、すべての大気中のCO2は常に更新されているのです。つまり、現在の濃度は、排出と除去のバランスであり、石炭、石油、ガスの燃焼による人為的なCO2の役割は、メディアで言われているほど大きくはないのです。
それは、私見ではありますが。
a) プロパガンダされているように、人工的なCO2の量は、その自然濃度を著しく増加させない。
b) CO2は温室効果の唯一の原因ではない。
c) 地球の気温変化の原因は、温室効果だけではありません。
私の知る限り、温室効果はCO2よりも水蒸気の方が顕著に影響しますし、いずれにせよ、気候に対する人間の影響は誇張されています。 でも、記事の中身については、そういうことではありません。
1) 形式的には決定論的だが,かなり複雑な系は,マトスタットの手法なしには研究できない.
2) マットスタットの出す答えには常に不確定要素がある。この科学の対象の性質上、完全に回避することは不可能です。
3)この不確実性を利用して、「正しい」答えを得ようとする誘惑が常にある。
4) 望ましい結果に答えを当てはめることを避けるため,結論の統計的有意性を常に評価する必要がある.
私たちの場合、非定常性を使って意味のある仕事をすることしかできませんが、それはある意味、定常性に還元されます。 区分的定常性、自己回帰モデル、うーん、などなど。
主な理由は、プロセスの実現が常に1つしかわからないからです。例えば、音声認識を例にとると、どんな言葉でも何度でも言うことができます。 具体的な時間間隔での具体的な商品の見積もりは、1つのバリアントになって います。ところで、ここで多くの人がランダム過程とその実現を区別していないのは、そのせいだろう。
その通りです。だから、MOはこのようなデータでは決してうまくいかないのです。
なぜ、現実的に議論されないのでしょうか?というのは、No.1の質問だからです。なぜこのことがほとんど議論されないのか?それが第一の疑問だからです。
チャート、ローソク足分析など、より高度なものに統計的手法を応用する試みは行われているのでしょうか?
を確かめる、例えばhttps://journals.plos.org/plosone/article?id=10.1371/journal.pone.0212320
でも、実際に使ったらどんな結果になるのか...。
以前は数理モデリング(MM)に携わり、シンプレックス線形計画法を使った最適化問題のプログラミングも行っていました。
そして、機械学習(ML)が普及し始めたとき、ここで私はMMと同じだと思ったのです。でも、ちょっと違うんです。
FXではまず、多くの要素を 考慮した取引戦略モデル(TS)を作成する必要があります。
ロボット自身が最初からTSモデルを作成できるわけではありません。それは、あるプログラムが、モデルやTSに影響を与える要素である「制限」の概念を自ら作り出すことができないからです。
ロボットはその制約の限界だけを見つけることができるようになる。
もし、悪い制約で悪いモデルを作ってしまったら、どんな最適化も必要な結果を得ることはできません。
TSに影響を与える要因を知る必要があり、ここで ヒューマンファクターを抜きにしては 成り立たないのです。
私の取引ロボットで使用しているこれらの要因のうち、たった一つの例を挙げましょう。ちょっとだけ「秘密」を教えましょう :)
この要因は、多くの人が知っている ように、価格変動のスピード です。ただし、私の計算では、速度だけでなく、慣性による加減速も判断しています。
速度は1秒間隔で決定されます。入ってくるティックの頻度だけでなく、ティックとティックの間のポイント数(長さ)も考慮されます。
このファクターは何のために、あるいはいつ使用されるのか。
注文を開始するときに使用します。スピードの制限を導入することで、価格の強いジャンプ時に注文が開くことを防いでいます。
そして、速度が一定値まで低下し、なおかつ一定時間が経過しないと注文を受け付けないようにした。
また、トレンドの角度を判断するのにも使っています。速度が速いほど、トレンド角は高くなります。
同僚からすべての人にこんにちは。
くだらない質問で申し訳ないのですが、MT5テスターでOnBookEventイベントは動作していますか? テストしているのですが、なぜかループに入らず、無視されているような感じがします。しかし、理論的には相場は市場の見直しで変化する。ふむふむ...。
私たちの場合、非定常性を意味あるものとして扱うことしかできないが、それはある意味で定常性に還元される。区分的定常性、自己回帰モデル、うーん、などなど。
主な理由は、プロセスの実現が常に1つしかわからないからです。例えば、音声認識をすれば、どんな言葉でも何度でも言える。特定の時間間隔での特定の楽器の相場は、1つの実現に なる。ちなみに、ここでランダム過程とその実現の区別がつかない人が多いのは、そのせいでしょう。
統計的な(非)定常性を馬鹿にして、分布の時間的な相対的な持続性以外のことをほのめかす人がいるのは面白いことです。おそらく、過去の計量経済学の「第一人者」が、一度だけ、おそらく何か別の狭い理論的文脈でこのような投げかけを行い、「聖杯」を作るための主な障害としての非定常性の話題が流行ったのでしょう。明らかに、統計的に非定常な累積価格は、その純粋な形では多くの人の興味を引かないし、リターンが(分布の変化なしに)定常であったとしても、いずれにしても取引にはあまり意味がない(オプションは単なる商品として消滅してしまう)。
おそらく、「FXにおける非定常性」という言葉を定義したり明記したりすることは、古典的な統計学に精通している人々にとって、何を言っているのかを理解するために価値があることだと思われます。
その性質上市場では、統計的ではなく、「乱れ」(基本的な要因)との「ゲーム」非定常性があり、つまり、「群衆」は「乱れ」の間に価格を予測し、各参加者は平均的に群衆の残りの部分を予測しようとし、「基本」(政治、経済、ラグタイムシフト・・・)その後すべてが壊れる。
問題は、いかにして「市場の変化」をいち早く察知し、同時に「現在の市場」のデータでシステムを「訓練」するかです。過去の市場から学習しても、システムは混乱するだけで、古い市場はもう存在しないのですから、無駄で有害なだけでなく、非常に小さなデータウィンドウで訓練しても、ソフトユーザーだけに意味があり、一般人が15Mと時計を使ってどうやって作業するかは謎です......。
統計的な(非)定常性という古き良きものを、分布の時間的な相対的な持続 性以外の何ものでもないかのようにほのめかして、あざ笑う人がいるのは面白いことです。
......
問題は、「市場の変化」をできるだけ早く検知し、 同時に「現在の市場」のデータでシステムを「訓練」 する方法です。過去の市場から学習しても、システムを混乱させるだけで、古い市場はもう存在しないのですから、無意味で有害なだけでなく、非常に小さなデータウィンドウで訓練することはクールではなく、ソフトユーザーにのみ意味があり、15Mとクロックで作業する一般人がどうやっているのかは謎ですが・・。
分布の相対的な持続性」ではなく、「MO、分散、分布関数の時間からの独立性」。
また、どのようにして「市場の変化を察知」するのでしょうか。
さて、あなたは「市場の変化」を検出しました。新しいデータでシステムを訓練するには、十分な長さのサンプルが必要です。そして、サンプルが十分な長さである前またはときに "市場の変化 "が再び発生した場合 - 何をすべきか?
分布の相対的な持続性」ではなく、「MO、分散、分布関数の時間的な独立 性」です。
いいえ、それは依存であり、それは一定の依存です)。
また、どのようにして「市場の変化を察知」するのでしょうか。
さて、あなたは「市場の変化」を検出しました。新しいデータでシステムを訓練するには、十分な長さのサンプルが必要です。そして、サンプルが十分長くなる前、あるいはなったときに、再び「市場の変化」が起こった場合、どうするのか。
MOで検出を試みることができます
さて、あなたは「市場の変化」を検出しました。新しいデータでシステムを訓練するには、十分な長さのサンプルが必要です。そして、前またはサンプルが十分な長さに達したときに、再び "市場の変化 "をした場合 - 何をすべきか?
これは正しい質問です、あなたは何もする必要はありません、少し統計的に有意なサンプルがあるまで待ちます、この状況で任意のアクションは、インサイダーがない場合、運のためでしょう。