トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1808

 
Aleksey Vyazmikin:

試していただき、ありがとうございます。

どのZZを使用しましたか?レンジの違うマーク付きZZを何本か送ってもらえますか?


今、分割をグループ化したい、そうすれば組み合わせが少なくなる。

お願い...

絶対値 で200または300。

ZZ by balance?どのレンジに興味があるか教えてください。


それともRを少し勉強するか?)


5行のコードで、欲しいものが手に入る。

#  читаем файл
dat <- read.csv(file = "D:\\R2\\forum\\models\\Balans_OHLCV.csv",sep = ";")
#  установка библы с индикаторами в том числе зигзаг
install.packages("TTR")
#  считаем зигзаг по баласну
my_ZZ <- TTR::ZigZag( dat$Balans ,change = 200,percent = F)
#  зигзаг в бинарный вид
zz <- c(0,diff(my_ZZ)) ; zz[zz>=0] <- 1 ; zz[zz<0] <-  0
zz
#  добавляем зз как колонку к данным
dat_and_zz <- cbind(dat, zz)
#  пишем данные в новый файл  csv
write.csv(dat_and_zz, file = "D:\\R2\\forum\\models\\Balans_OHLCV_ZZ.csv",sep = ";")
 
#  установка библы с индикаторами в том числе зигзаг
install.packages("TTR")
#  читаем файл
dat <- read.csv(file = "D:\\R2\\forum\\models\\Balans_OHLCV.csv",sep = ";")->.;
#  считаем зигзаг по баласну
TTR::ZigZag(., change = 200, percent = F)->.;
#  зигзаг в бинарный вид
c(0, diff(.)) ->.;
sign(.)->.;
#  добавляем зз как колонку к данным
cbind(dat, zz = .) -> dat_and_zz 
#  пишем данные в новый файл  csv
write.csv(dat_and_zz, file = "D:\\R2\\forum\\models\\Balans_OHLCV_ZZ.csv",sep = ";")

こっちの方がいいんです。中間の不要なゴミを減らす。

グッドラック

 
Vladimir Perervenko:

こっちの方がいいんです。中間の不要なゴミを減らす。

グッドラック

ウラジミールさん、ありがとうございます!そんなことができるなんて知りませんでした))!!Rは大好きです!いつも嬉しい驚きです。

いつになったらデータのサンプリングや新しいデータへの移行方法を教えてくれるのでしょうか(笑)。

 

記事へのリンクをあげたつもりなんですが。これ です

離散化」パッケージを使用します。

"離散化"とは、連続変数を様々な方法で境界を決め、その値を範囲に分割して離散化することである。

離散化の方法には、対象を参照しない定量的な方法と、対象を範囲に合わせることを参照する方法の2つのグループがある。

最初のメソッド群は、cut2()::Hmiscで ほぼカバーされています。サンプルを、特定の境界で、四分位ごとに、各領域の最小の例数を指定して、等頻度の領域に所定の数で分割することが可能である。

2つ目のグループの方法は、変数をターゲットのレベルに関連したプロットに分割するため、より興味深いものである。これらのメソッドを実装したいくつかのパッケージを考えてみよう。

離散化 本パッケージは離散化アルゴリズムと教師とのセットである.また、離散化アルゴリズムをトップダウンで実装するか、ボトムアップで実装するかという観点でグループ分けすることもできる。データセットを 例にして、そのいくつかを見てみましょう。"

最小記述長原理による離散化を記述したdiscretization::mdlp() を使用する。この関数は、データ行列の連続属性を、最小記述長を停止則とするエントロピー基準で離散化するものである。完璧に割れるが、時間がかかる。テストセットの離散化にはbase::findinterval()を使用する。記事中に機能や事例があります。サンプリングパッケージはこれだけではありません。他の記事では,glmdisc, smbinning, cutpointr (for binary target), woeBinning などを使っています。CRANに登録されているパッケージです。素敵なMOB パッケージがあります - Githubからインストールしてください。これらを確認したところ、うまくいきました。どのようなデータ(woe、bin、raw...)をサンプリングしたいかによります。

ぜひお試しください。

グッドラック

Глубокие нейросети (Часть II). Разработка и выбор предикторов
Глубокие нейросети (Часть II). Разработка и выбор предикторов
  • www.mql5.com
В предыдущей части статьи мы рассмотрели различные аспекты получения и подготовки входных данных и целевой переменной. Для воспроизведения скриптов этой статьи вам необходимо либо выполнить все скрипты первой части, либо загрузить результат вычислений первой части статьи из приложения в RStudio. 1. Разработка признаков Разработка признаков —...
 
Vladimir Perervenko:

サンプリング結果をどのような形式で取得したいかによります(woe、bin、raw...)。


好きなように))))でも、それが正しいとは限らない)グルグル.........。

 
Vladimir Perervenko:

まあ、記事のリンクはあげたつもりなんだけどね。これ です

離散化」パッケージが使われています。

いいえ、そんなことはありませんよ :)

いろいろなパッケージを見たり、記事を読んだりしましたが、離散化するときに新しいデータをどのように扱うのかがわかりませんでした。

 
Vladimir Perervenko:

まあ、記事のリンクはあげたつもりなんだけどね。これ です


論文も 多く、研究も面白いのですが、実用的な結果についてはサマにならないのでしょうか?
つまり、実際の市場でどれだけの効果があるのか、ということです。

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Мы продолжаем строить ансамбли. Теперь к bagging-ансамблю, созданному ранее, добавим обучаемый объединитель — глубокую нейросеть. Одна нейросеть объединяет 7 лучших выходов ансамбля после обрезки. Вторая принимает на вход все 500 выходов ансамбля, обрезает и объединяет их. Нейросети будем строить с Глубокие нейросети (Часть VI). Ансамбль...
 
エフゲニー・デューカ

論文も 多く、研究も面白いのですが、実用的な結果についてはサマにならないのでしょうか?
つまり、実際の市場でどれだけの効果があるのか、ということです。

そうなんです。あなたの言葉を信じますか?

すべてのコードを並べました。さあ、試してみてください。

一番大事なのはモデルではなく、モデルも大事だけれども。重要なのは、予測因子とその準備(前処理)です。より良いデータを用意すれば、より簡単にモデルを使うことができる。

グッドラック

 
Vladimir Perervenko:

効くんです。私の言葉を信じて もらえますか?

すべてのコードを並べました。作って、試してみてください。

一番大事なのはモデルではなく、モデルも大事だけれども。重要なのは、予測因子とその準備(前処理)です。より良いデータを用意すれば、より簡単にモデルを使うことができる。

グッドラック

もちろん、私はそれを信じ、すべてを注意深く読み、コードを分析するつもりです、特に今は何もすることがなく、時間がたくさんあります。
でも、1週間もかける前に、「上記の方法は実際の市場でこのような 結果をもたらす...」というようなフレーズで始まる記事のリンクを教えてくれませんか?"と書いて、いくつかのグラフや表を表示します。
 
エフゲニー・デューカ
もちろん信じます。すべてを注意深く読み、コードを分析します。
でも、1週間もかける前に、「上記の方法は実際の市場でこのような 結果をもたらす...」というようなフレーズで始まる記事のリンクを教えてくれませんか?"と書いて、いくつかのグラフや表を表示します。

まあ、他の記事もほとんど新しいデータに関するテストで終わっているんだけどね。

それはそれ、これはこれ
Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Мы продолжаем строить ансамбли. Теперь к bagging-ансамблю, созданному ранее, добавим обучаемый объединитель — глубокую нейросеть. Одна нейросеть объединяет 7 лучших выходов ансамбля после обрезки. Вторая принимает на вход все 500 выходов ансамбля, обрезает и объединяет их. Нейросети будем строить с Глубокие нейросети (Часть VI). Ансамбль...
理由: