トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2268

 
mytarmailS:

mklは無理です((

5kトレーニー

40kテスト

私の基準をあなたのgmmに適用してみると、より効果的なモデルが見つかるはずです。

すでにR^2を使っています。

同じような渦巻きができるけど、もっと良くなる )

 
マキシム・ドミトリエフスキー

は、すべていつもと同じで、平均化を意識したマークのみです。そこには、まったく異なるレイアウトがあり、興味深いです

最近投稿した本に、古典的な手法に従ってネットワークの重みを設定し、それを訓練で微調整するという面白いアイデアが載っていました。先生と一緒に、強化のトレーニングを組み合わせる方法はないだろうか

 
ロールシャッハ

最近投稿した本に、古典的な手法でネットワークの重みを設定し、トレーニングで微調整するという面白いアイデアが載っていました。先生との訓練と、強化の訓練を組み合わせる方法はないだろうか

これらはすべて、マシュカの類似品にトリックを施したものです。

 
マキシム・ドミトリエフスキー

これらはすべて、マシュカの洗練された類似品です。

グリッドは、非直線性やパラメータの選び方などの利点はありますが、同じフィルターです。

強化学習 については、否定的な意見が多いんです。先生と一緒のネッツは、車でも良い結果が出るし、ゲームでも同じ。レベルの終わりからグリッドを発明して、始まりに近いところでスポーンを訓練して並べ替えたりもしたそうです。データシンクの経験値が決めてというのも面白いですね。ユニティはMLに特化したゲームを作り、チャンピオンシップを設定した。人間は平均してレベル20になる。彼らはグリッドで最新の2つの方法を取り、彼らの助けによって平均でレベル4に到達しました。そして、専門家が男性並みの結果を示すことができたのです。

 
ロールシャッハ

グリッドは、非直線性やパラメータの選び方などの利点はありますが、同じフィルターです。

強化学習については、否定的な意見が多いだけです。車では、先生のいるネットの方が良い結果が出ますし、ゲームもそうです。レベルの終わりからグリッドを発明して、始まりに近いところでスポーンを訓練して並べ替えたりもしたそうです。データシンクの経験値が決めてというのも面白いですね。ユニティはMLに特化したゲームを作り、チャンピオンシップを設定した。人間は平均してレベル20になる。彼らはグリッドで最新の2つの方法を取り、彼らの助けによって平均でレベル4に到達しました。そして、選手権のエキスパートたちは、人並みの結果を出すことができたのです。

RLの誇大広告があったが、今はもうない...トランスフォーマーとGANが今のトレンドだ。

 
マキシム・ドミトリエフスキー

RLの誇大広告があったが、もう終わった...トランスフォーマーとGANが今トレンドだ。

脳はトレンドに敏感です!彼らはすべてのアルゴリズムを知り、特定のアルゴリズムを特定のタスクに適用する方法を知っており、トレンドを追いかけることはありません。

GOで勝つ必要があるなら、なぜGANで悩むのですか? アイリスの分類が必要なら、なぜRLで悩むのですか?

何事にも適材適所ということですね。

 
mytarmailS:

トレンドの中にあるのは頭脳!流行を追いかけるのではなく、すべてのアルゴリズムを知り、特定のアルゴリズムを特定のタスクに適用する方法を知っている人...。

GOで勝つ必要があるなら、なぜGANで悩むのですか? アイリスの分類が必要なら、なぜRLで悩むのですか?

何事も適材適所

心が狭いから、どこに何のためにあるのかがわからないのでしょう。

 
マキシム・ドミトリエフスキー

RLの宣伝があったが、今はもう終わっている。

GANは人工的なデータの生成に挑戦するのが面白い

このフレーム ワークを使いこなすと、すべてが速く進むと思います。
 
ロールシャッハ

人工的なデータを生成するガンは、試してみると面白いです。

このフレーム ワークを使いこなすことで、すべてがスムーズに進むようになるんです。

ガンを書いたんだから、何も難しいことはない。でも再帰的じゃないから、やり直さないとね。

トーチャでの例。

декларация

#  creating cGAN
class Discriminator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 500),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(500, 250),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(250, 1),
            nn.Sigmoid()
        )

    def forward(self, x):
        return self.model(x)


class Generator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 250),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(250, 500),
            nn.ReLU(),
            nn.Dropout(0.2),
            nn.Linear(500, input_vector)
        )

    def forward(self, x):
        return self.model(x)

обучение

tens = torch.FloatTensor(pr[pr.columns[1:]].values)
train_iterator = torch.utils.data.DataLoader(
    tens, batch_size=BATCH_SIZE, shuffle=True,)

discriminator = Discriminator(INPUT_VECTOR+1)
generator = Generator(INPUT_VECTOR+1)
optimizer_discriminator = torch.optim.Adam(discriminator.parameters(), lr=lr)
optimizer_generator = torch.optim.Adam(generator.parameters(), lr=lr)

for epoch in range(NUM_EPOCHS):
    for n, real_samples in enumerate(train_iterator):
        if real_samples.shape[0] != BATCH_SIZE:
            continue
        #  Data for training the discriminator
        real_samples_labels = torch.ones((BATCH_SIZE, 1))
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+1))
        generated_samples = generator(latent_space_samples)
        generated_samples_labels = torch.zeros((BATCH_SIZE, 1))
        all_samples = torch.cat((real_samples, generated_samples))
        all_samples_labels = torch.cat(
            (real_samples_labels, generated_samples_labels)
        )

        #  Training the discriminator
        discriminator.zero_grad()
        output_discriminator = discriminator(all_samples)
        loss_discriminator = loss_function(
            output_discriminator, all_samples_labels)
        loss_discriminator.backward()
        optimizer_discriminator.step()

        #  Data for training the generator
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+1))

        #  Training the generator
        generator.zero_grad()
        generated_samples = generator(latent_space_samples)
        output_discriminator_generated = discriminator(generated_samples)
        loss_generator = loss_function(
            output_discriminator_generated, real_samples_labels
        )
        loss_generator.backward()
        optimizer_generator.step()

        #  Show loss
        if epoch % 10 == 0 and n == BATCH_SIZE - 1:
            print(f"Epoch: {epoch} Loss D.: {loss_discriminator}")
            print(f"Epoch: {epoch} Loss G.: {loss_generator}")
です。
 
何も書かないのであれば、既成の
The Synthetic Data Vault | Open Source tools for Synthetic Data Generation
  • sdv.dev
The Synthetic Data Vault (SDV) enables end users to easily generate synthetic data for different data modalities, including single table, relational and time series data. With this ecosystem, we are releasing several years of our work building, testing and evaluating algorithms and models geared towards synthetic data generation.
理由: