Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2268

 
mytarmailS :

nasıl bilmiyorum (((

5k tren

40k testi

Uygulamak için kriterimi hmm ile deneyin, teorik olarak çalışan modeller bulmak daha iyi olmalı

I ve benzeri R ^ 2 seçiyorum

aynı krivulki elde edilir, sadece daha iyi)

 
Maksim Dmitrievski :

her şey her zamanki gibi, sadece ortalama dikkate alınarak işaretler. İlginç olan tamamen farklı bir işaretleme var

Geçenlerde, ağın ağırlıklarını klasik yönteme göre ayarlamak ve ardından eğitimle ince ayar yapmak için ilginç bir fikrin olduğu bir kitap yayınladım. İlginç bir şekilde, denetimli öğrenme ile pekiştirmeyi birleştirmenin yolları vardır.

 
Rorschach :

Geçenlerde, ağın ağırlıklarını klasik yönteme göre ayarlamak ve ardından eğitimle ince ayar yapmak için ilginç bir fikrin olduğu bir kitap yayınladım. İlginç bir şekilde, denetimli öğrenme ile pekiştirmeyi birleştirmenin yolları vardır.

bunların hepsi Mashka'nın süslü analogları

 
Maksim Dmitrievski :

bunların hepsi Mashka'nın süslü analogları

Izgaralar, aynı filtrelerin yanı sıra doğrusal olmama ve parametre seçme yönteminde bir avantaja sahiptir.

Takviyeli öğrenme hakkında çok fazla olumsuzluk var. Arabalarda, öğretmenli ağlar, oyunlarda aynı şekilde daha iyi sonuçlar veriyor. Başlangıca yakın bir yerde yumurtlamayı eğitmek ve yeniden düzenlemek için seviyenin sonundan bir ızgara bile oluşturduk. Bir veri bilimcisinin deneyiminin karar vermesi de ilginçtir. Unity, özellikle ML için bir oyun yaptı ve bir şampiyonluk düzenledi. Ortalama bir insan 20. seviyeye ulaşır. Izgaralardaki en yeni 2 yöntemi aldık, onların yardımıyla ortalama olarak 4. seviyeye ulaştık. Ve şampiyonadaki uzmanlar insan düzeyinde sonuçlar gösterebildiler.

 
Rorschach :

Izgaralar, aynı filtrelerin yanı sıra doğrusal olmama ve parametre seçme yönteminde bir avantaja sahiptir.

Takviyeli öğrenme hakkında çok fazla olumsuzluk var. Arabalarda, öğretmenli ağlar, oyunlarda aynı şekilde daha iyi sonuçlar veriyor. Başlangıca yakın bir yerde yumurtlamayı eğitmek ve yeniden düzenlemek için seviyenin sonundan bir ızgara bile oluşturduk. Bir veri bilimcisinin deneyiminin karar vermesi de ilginçtir. Unity, özellikle ML için bir oyun yaptı ve bir şampiyonluk düzenledi. Ortalama bir kişi 20. seviyeye ulaşır. Izgaralardaki en yeni 2 yöntemi aldık, onların yardımıyla ortalama olarak 4. seviyeye ulaştık. Ve şampiyonadaki uzmanlar insan düzeyinde sonuçlar gösterebildiler.

bir HYIP RL vardı, çoktan geçti .. şimdi transformatörler ve GAN'lar trendde

 
Maksim Dmitrievski :

bir HYIP RL vardı, çoktan geçti .. şimdi transformatörler ve GAN'lar trendde

Beyinler trend oluyor! tüm algoritmaları bilen ve belirli bir görev için belirli bir algoritmayı nasıl uygulayacağını bilen ve trendleri takip etmeyen ....

GO'da kazanmanız gerekiyorsa hayır. Siz bu çeteler misiniz? ve eğer süsen sınıflandırılırsa, o zaman hayır. RL var mı?

her şeyin yeri var!

 
mytarmailS :

Beyinler trend oluyor! tüm algoritmaları bilen ve belirli bir görev için belirli bir algoritmayı nasıl uygulayacağını bilen ve trendleri takip etmeyen ....

GO'da kazanmanız gerekiyorsa hayır. Siz bu çeteler misiniz? ve eğer süsen sınıflandırılırsa, o zaman hayır. RL var mı?

her şeyin yeri var!

işte sınırlı ufkunuz ve nerede ne ve neden hayal edemiyorsunuz

 
Maksim Dmitrievski :

bir HYIP RL vardı, çoktan geçti .. şimdi transformatörler ve GAN'lar trendde

Gana, denemek için yapay veriler oluşturmak için ilginç

İyi için bu çerçeveye hakim olmak gerekli olurdu, o zaman her şey çok daha hızlı gidecek.
 
Rorschach :

Gana, denemek için yapay veriler oluşturmak için ilginç

İyi için bu çerçeveye hakim olmak gerekli olurdu, o zaman her şey çok daha hızlı gidecek.

Silahımı yazdım, karmaşık bir şey yok. Gerçek tekerrür etmez, onu yeniden yapmak gerekecektir.

Torch'ta Örnek

 декларация

# creating cGAN
class Discriminator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 500 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 500 , 250 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 250 , 1 ),
            nn.Sigmoid()
        )

    def forward(self, x):
         return self.model(x)


class Generator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 250 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 250 , 500 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 500 , input_vector)
        )

    def forward(self, x):
         return self.model(x)

обучение

tens = torch.FloatTensor(pr[pr.columns[ 1 :]].values)
train_iterator = torch.utils.data.DataLoader(
    tens, batch_size=BATCH_SIZE, shuffle=True,)

discriminator = Discriminator(INPUT_VECTOR+ 1 )
generator = Generator(INPUT_VECTOR+ 1 )
optimizer_discriminator = torch.optim.Adam(discriminator.parameters(), lr=lr)
optimizer_generator = torch.optim.Adam(generator.parameters(), lr=lr)

for epoch in range(NUM_EPOCHS):
     for n, real_samples in enumerate(train_iterator):
         if real_samples.shape[ 0 ] != BATCH_SIZE:
             continue
         # Data for training the discriminator
        real_samples_labels = torch.ones((BATCH_SIZE, 1 ))
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+ 1 ))
        generated_samples = generator(latent_space_samples)
        generated_samples_labels = torch.zeros((BATCH_SIZE, 1 ))
        all_samples = torch.cat((real_samples, generated_samples))
        all_samples_labels = torch.cat(
            (real_samples_labels, generated_samples_labels)
        )

         # Training the discriminator
        discriminator.zero_grad()
        output_discriminator = discriminator(all_samples)
        loss_discriminator = loss_function(
            output_discriminator, all_samples_labels)
        loss_discriminator.backward()
        optimizer_discriminator.step()

         # Data for training the generator
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+ 1 ))

         # Training the generator
        generator.zero_grad()
        generated_samples = generator(latent_space_samples)
        output_discriminator_generated = discriminator(generated_samples)
        loss_generator = loss_function(
            output_discriminator_generated, real_samples_labels
        )
        loss_generator.backward()
        optimizer_generator.step()

         # Show loss
         if epoch % 10 == 0 and n == BATCH_SIZE - 1 :
            print(f "Epoch: {epoch} Loss D.: {loss_discriminator}" )
            print(f "Epoch: {epoch} Loss G.: {loss_generator}" )
işte başka bir örnek
 
Bir şey yazmak istemiyorsanız, hazır
The Synthetic Data Vault | Open Source tools for Synthetic Data Generation
  • sdv.dev
The Synthetic Data Vault (SDV) enables end users to easily generate synthetic data for different data modalities, including single table, relational and time series data. With this ecosystem, we are releasing several years of our work building, testing and evaluating algorithms and models geared towards synthetic data generation.