Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2251

 
Maksim Dmitrievski :

bir diziyi başka bir alana eşleyin (dağıtım?)

peki, evet, başka bir alana, dağılımı bilmiyorum ..

neden sınıf etiketleri? neden kodlayıcılar?

 
mytarmailS :

peki, evet, başka bir alana, dağılımı bilmiyorum ..

neden sınıf etiketleri? neden kodlayıcılar?

iyi satış örneklerine ve satın alma örneklerine ihtiyacınız var, bu nedenle etiketler

bu, bu uzaydaki noktaların dağılımıdır, genellikle çok boyutlu normal seçilir

Muhtemelen işe yaramayacak, ama harika

Gelecek yıl model değişirse ne yapacaksınız? hiçbir şey, cari yıldan çekemezsiniz

tüm tarihi almak, koşullu olarak kümelere bölmek, her birinde örnek sayısını eşitlemek, sonra onlardan örnekler üretmek ve onları eğitmek gerekir. Bu teoride + - kararlı olacak

 
Maksim Dmitrievski :

iyi satış örneklerine ve satın alma örneklerine ihtiyacınız var, bu nedenle etiketler

bu, bu alandaki noktaların dağılımıdır, genellikle ................

Eh, evet, belirli fikrin şu şekilde olduğuna katılıyorum ....

=========================

Dağıtımlardaki robotunuz nedir?

 
mytarmailS :

Eh, evet, belirli fikrin şu şekilde olduğuna katılıyorum ....

=========================

Dağıtımlardaki robotunuz nedir?

harika fikir, normal verilerde, rastgele değil

euro sadece soyuyor, diğerlerinde çok iyi değil.

hmm yerine enkoderi kaydırdım, henüz bitirmedim

 

Nasıl prikrepit enstrümanı BTC/USD?

 

hmm yerine kodlayıcı. Eğitim 2 ay, test 5 yıl

Mimariyi seçmek biraz daha zor. Tek katman hiç çalışmadı, 2. katman eklendi, daha iyi oldu

geleneksel ileri beslemeli katmanlar

 
Maksim Dmitrievski :

hmm yerine kodlayıcı. Eğitim 2 ay, test 5 yıl

Mimariyi seçmek biraz daha zor. Tek katman hiç çalışmadı, 2. katman eklendi, daha iyi oldu

geleneksel ileri beslemeli katmanlar

Bana öyle geliyor ki, hmm ile program almak daha pürüzsüz ...

Ve neden bir nöron var, bir blok şema ile açıklayabilir misiniz?


bir katman yalnızca doğrusal sorunları çözebilir

 
mytarmailS :

Bana öyle geliyor ki, hmm ile program almak daha yumuşak ...

Ve neden bir nöron var, bir blok şema ile açıklayabilir misiniz?


bir katman yalnızca doğrusal sorunları çözebilir

onlardan daha fazlasını beklerdim

kodlayıcı bir nörondur

hala hiçbir şey anlamıyorsun, ama işte yapısı

 class Encoder(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.linear = nn.Linear(input_dim + n_classes, hidden_dim)
        self.mu = nn.Linear(hidden_dim, latent_dim)
        self.var = nn.Linear(hidden_dim, latent_dim)

    def forward(self, x):
         # x is of shape [batch_size, input_dim + n_classes]

        hidden = torch.sigmoid(self.linear(x))
         # hidden is of shape [batch_size, hidden_dim]

         # latent parameters
        mean = self.mu(hidden)
         # mean is of shape [batch_size, latent_dim]
        log_var = self.var(hidden)
         # log_var is of shape [batch_size, latent_dim]

         return mean, log_var


class Decoder(nn.Module):
    def __init__(self, latent_dim, hidden_dim, output_dim, n_classes):
        super().__init__()

        self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim)
        self.hidden_to_out = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
         # x is of shape [batch_size, latent_dim + num_classes]
        x = torch.sigmoid(self.latent_to_hidden(x))
         # x is of shape [batch_size, hidden_dim]
        generated_x = torch.sigmoid(self.hidden_to_out(x))
         # x is of shape [batch_size, output_dim]

         return generated_x


class CVAE(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1 )
        self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1 )

    def forward(self, x, y):

        x = torch.cat((x, y), dim= 1 )

         # encode
        z_mu, z_var = self.encoder(x)

         # sample from the distribution having latent parameters z_mu, z_var
         # reparameterize
        std = torch. exp (z_var / 2 )
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)

        z = torch.cat((x_sample, y), dim= 1 )

         # decode
        generated_x = self.decoder(z)

         return generated_x, z_mu, z_var
 
Maksim Dmitrievski :

kodlayıcı bir nörondur

gerçekten? ))))) Şaka mı yapıyorsun yoksa ne? ))

Maksim Dmitrievski :

hala anlamıyorum

bu yüzden basit bir dille söylüyorum, ne bekliyordunuz, sizce neden işe yaramalıydı, blok diyagram genellikle idealdir...

Ve tanıdık olmayan bir dildeki yabancı bir İncil kodunu anlamak elbette zor.

 
mytarmailS :

gerçekten? ))))) Şaka mı yapıyorsun yoksa ne? ))

bu yüzden basit bir dille söylüyorum, ne bekliyordunuz, sizce neden işe yaramalıydı, blok diyagram genellikle idealdir...

Ve tanıdık olmayan bir dildeki yabancı bir İncil'in kodunu anlamak elbette zor.

Yani, benimle dalga mı geçiyorsun?