トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 77 1...707172737475767778798081828384...3399 新しいコメント Dr. Trader 2016.07.30 10:09 #761 他の言語がさまざまな用途に使われ、Rがデータを扱うためだけの言語であることを考えると、Rにとって非常に良い結果であると言えます。 Alexey Burnakov 2016.07.30 11:22 #762 Dr.トレーダー 他のすべての言語がさまざまな目的で使用され、Rがデータ処理にのみ使用されていることを考えると、Rにとって非常に良い結果です。私のデータでトレーニングしてみましたか?5日間の実験をしてみました。EURUSDだけ虐めてるんだよー。 ここに掲載したくらいの大きさのトレーニングサンプルを99個作りました。いずれも時間を区切った観測を含んでいるため、ユニークなものとなっています。その上でモデルをトレーニングしているので、GBMの森の委員会を作る予定です。24時間で18個のサンプルを調べただけですが、すでに検証で興味深い結果が得られています。とはいえ、2.5倍の検証を行ったので、その理由は後ほど紹介しますご覧のように、最初の学習サンプルで、モデルは、検証の400 Kのオブザベーションに対して、2.7ポイント(広がりを含む)のMOを得るように学習しました。まあ、まだ1、1.5点の結果もありますし、普通です。この後、すべて委員会で積み上げられ、最終的にどんな絵が検証されるのか見届けよう!宿題の成績は4か4以上を想定しています。頑張れ、諸君。PS:学習データ-分散・委員会用99サンプルhttps://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ Dr. Trader 2016.07.30 12:12 #763 はい、やってみました、最初はうまくいきませんでした。モデルを推定するために、回帰結果の精度(必要な結果を[0;0.5;1]でスケーリングし、得られた結果をモジュロで減じたもの)を取りました。Geneticsは、ニューロンケが学習のための十分なデータを持っていないときに、いくつかの予測因子でそのようなグローバルな最大値を発見したので、ほとんどすべてのデータ(「取引しない」クラスに一致)で0.5を返します。一般に、このようなフィットネス関数は全く適しておらず、結果としてネットワークは取引されないだけである。今はまだ2回目の実験中です。私はまだ3つのクラスを使用していますが、すぐに回帰の結果をレベル[0;0.5;1]に丸めます。推定値は分類精度([正解数]/[総数])です。遺伝学の最適なフィットネス値のグラフから、結果は33%に近く、基本的にランダムと同じになると判断できますね。運が良ければもう少し高いかもしれません。あと1~2日待てばゲン担ぎが最大になり、フロントテストができるようになります。このデータには、もっと多くの指標を追加する必要があると思います。アルゴリズムが予測因子を評価・破棄できるのであれば、最初に追加する指標は多ければ多いほど良い。 Alexey Burnakov 2016.07.30 13:10 #764 Dr.トレーダーはい、やってみました、最初はうまくいきませんでした。モデルを推定するために、回帰結果の精度(必要な結果を[0;0.5;1]でスケーリングし、得られた結果をモジュロで減じたもの)を取りました。Geneticsは、ニューロンケが学習のための十分なデータを持っていないときに、いくつかの予測因子でそのようなグローバルな最大値を発見したので、ほとんどすべてのデータ(「取引しない」クラスに一致する)で0.5を返します。一般に、このようなフィットネス関数は全く適しておらず、結果としてネットワークは取引されないだけである。今はまだ2回目の実験中です。私はまだ3つのクラスを使用していますが、すぐに回帰の結果をレベル[0;0.5;1]に丸めます。推定値は分類精度([正解数]/[総数])です。遺伝学の最適なフィットネス値のグラフから、結果は33%に近く、基本的にランダムと同じになると判断できますね。運が良ければもう少し高いかもしれません。あと1~2日待てばゲン担ぎが最大になり、フロントテストができるようになります。このデータには、もっと多くの指標を追加する必要があると思います。アルゴリズムが予測因子を評価・破棄できるのであれば、最初に追加する指標は多ければ多いほど良い。 ありがとうございます。結果を報告する。あなたの、そして私たちのことについて。ここにはかなり多くの予測要因があります。私の好みで十分です。ただ、5組持っていて、それぞれ10年です。1組と2年では、モデルの学習に時間がかかり、遅くなるのは理解できる。でも、悪くなるということはありません。 Mihail Marchukajtes 2016.07.30 16:38 #765 まだ聖杯を 作ろうとしてるのか?さあ......。 mytarmailS 2016.07.30 16:51 #766 Mihail Marchukajtes: まだ、聖杯を作ろうとしているのか?さあ......。 週末に約束した人が、自分たちの聖杯について 説明します。 Alexey Burnakov 2016.07.30 17:37 #767 ミハイル・マルキュカイツ まだ聖杯を作ろうとしてるのか?さあ......。 トロール、ここから出て行け Mihail Marchukajtes 2016.07.30 18:05 #768 いやいや、みんな、システムはリークされてるから、見せる意味すらない。お詫び......。分類論についてですが、そうですね...。できる......が、まだ時間がない。暇になって創造力が湧いてきたら、必ず返事を書くよ......。そうでなければ......。 mytarmailS 2016.07.30 18:36 #769 Mihail Marchukajtes: いやいや、みんな、システムはもうないんだから、見せる意味もないでしょ。お詫び......。分類に関する論説については、そうですね...。が、まだ時間がない。自由になって創造力が湧いてきたら、すぐに書くつもりだ......。そうでなければ......。どうなんだろう...。1年前からアルゴリズムをうまく使っていると書いていませんでしたか?数時間前、あなたは "まだgrailを 作ろうとしているのか? さあ......"ということは、数時間前までアルゴリズムが動いていたのに、それがなくなったということでしょうか?それだと、あなたの話は全く意味がないのですが...。聞いてくれ、何か言いたいことがあるならPMしてくれ、君が書いたのと同じことをしたんだ、この話題に興味があるんだ。 Dr. Trader 2016.07.30 19:00 #770 このスレッドでは、遺伝子を利用してニューロンの重みと結合を形成する、適応型トポロジーを持つニューロンであるRNeatについての投稿がありました。 説明と簡単なテストから判断すると、このモデルはかなり良いものです。しかし、FXにはあまり向いていない。1週間、400のプレディクターで次のバーで買うか売るかを予測するトレーニングを行いました。 学習モデルが遅すぎて、1週間でモデルの適合度がほぼ2%しか上がらない。学習データでも予測精度が55%しかなく、モデルが良いロジックに進化して利益を生むようになるには時間が足りません。検証データ(学習データからランダムに取り出した棒グラフ)の精度は少し良いのですが、これはモデルのメリットというより偶然の産物です。 フロントテストの精度は50%から53%の間で変動していますが、このグラフから判断すると、これはモデルによるものではなく、偶然のものです。 奇跡は起こらず、数ヶ月の作業でモデルは正しいロジックに進化するのでしょうが、検証で悪い結果を出して再トレーニングし、その頃には時代遅れになってしまい、また一からやり直さなければならなくなるのです。 このまま続けても意味がないと思い、実験を中止します。 1...707172737475767778798081828384...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
他のすべての言語がさまざまな目的で使用され、Rがデータ処理にのみ使用されていることを考えると、Rにとって非常に良い結果です。
私のデータでトレーニングしてみましたか?
5日間の実験をしてみました。EURUSDだけ虐めてるんだよー。
ここに掲載したくらいの大きさのトレーニングサンプルを99個作りました。いずれも時間を区切った観測を含んでいるため、ユニークなものとなっています。その上でモデルをトレーニングしているので、GBMの森の委員会を作る予定です。24時間で18個のサンプルを調べただけですが、すでに検証で興味深い結果が得られています。とはいえ、2.5倍の検証を行ったので、その理由は後ほど紹介します
ご覧のように、最初の学習サンプルで、モデルは、検証の400 Kのオブザベーションに対して、2.7ポイント(広がりを含む)のMOを得るように学習しました。
まあ、まだ1、1.5点の結果もありますし、普通です。この後、すべて委員会で積み上げられ、最終的にどんな絵が検証されるのか見届けよう!宿題の成績は4か4以上を想定しています。
頑張れ、諸君。
PS:学習データ-分散・委員会用99サンプルhttps://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ
はい、やってみました、最初はうまくいきませんでした。モデルを推定するために、回帰結果の精度(必要な結果を[0;0.5;1]でスケーリングし、得られた結果をモジュロで減じたもの)を取りました。Geneticsは、ニューロンケが学習のための十分なデータを持っていないときに、いくつかの予測因子でそのようなグローバルな最大値を発見したので、ほとんどすべてのデータ(「取引しない」クラスに一致)で0.5を返します。一般に、このようなフィットネス関数は全く適しておらず、結果としてネットワークは取引されないだけである。
今はまだ2回目の実験中です。私はまだ3つのクラスを使用していますが、すぐに回帰の結果をレベル[0;0.5;1]に丸めます。推定値は分類精度([正解数]/[総数])です。遺伝学の最適なフィットネス値のグラフから、結果は33%に近く、基本的にランダムと同じになると判断できますね。運が良ければもう少し高いかもしれません。あと1~2日待てばゲン担ぎが最大になり、フロントテストができるようになります。
このデータには、もっと多くの指標を追加する必要があると思います。アルゴリズムが予測因子を評価・破棄できるのであれば、最初に追加する指標は多ければ多いほど良い。
はい、やってみました、最初はうまくいきませんでした。モデルを推定するために、回帰結果の精度(必要な結果を[0;0.5;1]でスケーリングし、得られた結果をモジュロで減じたもの)を取りました。Geneticsは、ニューロンケが学習のための十分なデータを持っていないときに、いくつかの予測因子でそのようなグローバルな最大値を発見したので、ほとんどすべてのデータ(「取引しない」クラスに一致する)で0.5を返します。一般に、このようなフィットネス関数は全く適しておらず、結果としてネットワークは取引されないだけである。
今はまだ2回目の実験中です。私はまだ3つのクラスを使用していますが、すぐに回帰の結果をレベル[0;0.5;1]に丸めます。推定値は分類精度([正解数]/[総数])です。遺伝学の最適なフィットネス値のグラフから、結果は33%に近く、基本的にランダムと同じになると判断できますね。運が良ければもう少し高いかもしれません。あと1~2日待てばゲン担ぎが最大になり、フロントテストができるようになります。
このデータには、もっと多くの指標を追加する必要があると思います。アルゴリズムが予測因子を評価・破棄できるのであれば、最初に追加する指標は多ければ多いほど良い。
まだ、聖杯を作ろうとしているのか?さあ......。
まだ聖杯を作ろうとしてるのか?さあ......。
いやいや、みんな、システムはもうないんだから、見せる意味もないでしょ。お詫び......。分類に関する論説については、そうですね...。が、まだ時間がない。自由になって創造力が湧いてきたら、すぐに書くつもりだ......。そうでなければ......。
どうなんだろう...。1年前からアルゴリズムをうまく使っていると書いていませんでしたか?数時間前、あなたは "まだgrailを 作ろうとしているのか? さあ......"ということは、数時間前までアルゴリズムが動いていたのに、それがなくなったということでしょうか?それだと、あなたの話は全く意味がないのですが...。
聞いてくれ、何か言いたいことがあるならPMしてくれ、君が書いたのと同じことをしたんだ、この話題に興味があるんだ。
このスレッドでは、遺伝子を利用してニューロンの重みと結合を形成する、適応型トポロジーを持つニューロンであるRNeatについての投稿がありました。
説明と簡単なテストから判断すると、このモデルはかなり良いものです。しかし、FXにはあまり向いていない。1週間、400のプレディクターで次のバーで買うか売るかを予測するトレーニングを行いました。
学習モデルが遅すぎて、1週間でモデルの適合度がほぼ2%しか上がらない。学習データでも予測精度が55%しかなく、モデルが良いロジックに進化して利益を生むようになるには時間が足りません。
検証データ(学習データからランダムに取り出した棒グラフ)の精度は少し良いのですが、これはモデルのメリットというより偶然の産物です。
フロントテストの精度は50%から53%の間で変動していますが、このグラフから判断すると、これはモデルによるものではなく、偶然のものです。
奇跡は起こらず、数ヶ月の作業でモデルは正しいロジックに進化するのでしょうが、検証で悪い結果を出して再トレーニングし、その頃には時代遅れになってしまい、また一からやり直さなければならなくなるのです。
このまま続けても意味がないと思い、実験を中止します。