I will assume a basic understanding of neural networks and backpropagation. If you’d like to brush up, this lecture will give you the basics of neural networks and this one will explain how these principles are applied in modern deep learning systems. Self-attention The fundamental operation of any transformer architecture is the self-attention...
def add_labels(dataset, min, max, markup): #min, max - минимальная\максимальная продолжительность сделки, в барах
labels = [] #сюда сохраняем метки
for i in range(dataset.shape[0]-max):
rand = random.randint(min,max) #случайно выбираем продолжительность следующей сделки
if i == 0: #если это первый элемент массива, заполняем значениями 0.5, rand-1 штук\
for a in range(rand-1): #поскольку нет более ранних цен для определения метки
labels.append(0.5)
if dataset['close'][i] > (dataset['close'][i + rand] + markup): #если текущая цена больше чем цена + rand баров вперед\
labels.append(1.0) #то метка 1.0 (продажа)
elif dataset['close'][i] < (dataset['close'][i + rand] - markup): #если меньше, то покупка
labels.append(0.0)
else:
labels.append(0.5)
dataset = dataset.iloc[:len(labels)].copy()
dataset['labels'] = labels
return dataset
うーん...見てみるよ。M15以上のTFはまだ扱ったことがないのですが......。
信号はどこだ?見やすくするためにお気に入りに入れて いたのに、消えてしまった。何があったんですか?
信号はどこだ?見やすいようにお気に入りに入れて いたのですが、今はもうありません。何があったんですか?
彼は聖杯を 見つけ、「静かな家」に行ったのでしょう。)
興味深い映像 ですね。マキシム このようなアプローチをとっているのでしょうか?
面白い動画 ですね!マキシム このようなアプローチなのでしょうか?
でも、まだやってません)。
ネットワークは、画像や信号のような均質なデータに対してより効果的に機能します。木は、多くの異なる非正規化された特徴のような異質なものに適しています。
Yandexairはいつからあるのですか?
しかし、現在、時系列で最もクールなものであるトランスフォーマーの例を挙げましょう。
https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html
が、すべてLSTMと同じように遅延した予測に見える。シリーズの現在の値が次の値を最もよく予測するように、SBのように要望があります !!!
mt4用の簡単なスクリプトを書く必要がある !
要は、こうです。
1)あるローソク足上でマウスを押すと
2) スクリプトは、このローソク足の日時と終値を ノートに書き込む
それだ!!!!
というのも、私はこの試みが成功するとはあまり思っていないからです。
ネットワークは、画像や信号のような均質なデータに対してより効果的に働きます。木は、多くの異なる正規化されていない特徴のような異質なデータに対してより適しています。
Yandexairはいつからあるのですか?
しかし、現在、時系列で最もクールなものであるトランスフォーマーの例を挙げましょう。
https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html
時系列は、今一番カッコいいのは「トランスフォーマー」です。
トランスフォーマーの 詳細 翻訳は大体自明です。
お気に入りに入れています)以前投げたことがあるような気がします。
小規模データセットにおけるランダムラベルのGRU
エポック20 train err: 0.3469601273536682 tst err: 0.40891700983047485
このようなランダムなラベルサンプリングの長所と短所は何でしょうか?
今は、ビデオカード用のcudaパックを入れて、ビデオカードでビッグデータの計算をすることにしています。
チップは1入力あたり15個のインクリメンタルシーケンスです。
のようなものですが、まだやっていません)この活動の成功をあまり信じていないからです。
ビデオで見た限りでは、畳み込みネットワークで 兆候を探す機能/ライブラリがあり、それによってパターン/予測変数が見つかるはずなのですが、そこで何が見つかるのか、このマスクはどうやって作られたのか、どんなロジックなのか、ご存知でしょうか?
Yandexairはいつからあるのですか?
長い間、2年ぐらいは、あると思うんです。
Z.Y. タイムシリーズで今最もクールなものの例として、「トランスフォーマー」を紹介します。
https://timeseriestransformer.readthedocs.io/en/latest/notebooks/trainings/training_2020_04_27__093505.html
が、すべてLSTMと同じように遅延した予測に見える。SBのように、シリーズの現在値が次の値を予測するのに最適なように私たちの入力データがこのネットワークに適しているかどうかは分かりませんが、写真で見ると非常に滑らかに見えますね。