Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2251

 
Maxim Dmitrievsky:

тебе же надо хорошие селл примеры и бай примеры, поэтому метки

это и есть распределение точек в этом пространстве, обычно ..............

Ну да, согласен конкретная идея так себе....

========================

Что там твой робот на распределениях? 

 
mytarmailS:

Ну да, согласен конкретная идея так себе....

========================

Что там твой робот на распределениях? 

идея крутая, на нормалаьных данных, не на случайных

на евро только робит, на других не оч.

кодер вместо гмм подсовываю, еще не доделал

 

Kak prikrepiti instrument BTC/USD?

 

кодер вместо гмм. Обучение 2 мес, тест 5 лет

Несколько сложнее получается подбирать архитектуру. Однослойный вообще плохо работал, добавил 2-й слой, стало получше

обычные фидфорвард слои

 
Maxim Dmitrievsky:

кодер вместо гмм. Обучение 2 мес, тест 5 лет

Несколько сложнее получается подбирать архитектуру. Однослойный вообще плохо работал, добавил 2-й слой, стало получше

обычные фидфорвард слои

Что то мне кажется что с гмм график поглаже получаться ...

А зачем там нейронка вообще можешь блок схемой объяснить


один слой может только линейные задачи решать

 
mytarmailS:

Что то мне кажется что с гмм график поглаже получаться ...

А зачем там нейронка вообще можешь блок схемой объяснить


один слой может только линейные задачи решать

я ожидал бОльшего от них

кодер это нейронка

все равно нифига не поймешь, но вот структура его

class Encoder(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.linear = nn.Linear(input_dim + n_classes, hidden_dim)
        self.mu = nn.Linear(hidden_dim, latent_dim)
        self.var = nn.Linear(hidden_dim, latent_dim)

    def forward(self, x):
        # x is of shape [batch_size, input_dim + n_classes]

        hidden = torch.sigmoid(self.linear(x))
        # hidden is of shape [batch_size, hidden_dim]

        # latent parameters
        mean = self.mu(hidden)
        # mean is of shape [batch_size, latent_dim]
        log_var = self.var(hidden)
        # log_var is of shape [batch_size, latent_dim]

        return mean, log_var


class Decoder(nn.Module):
    def __init__(self, latent_dim, hidden_dim, output_dim, n_classes):
        super().__init__()

        self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim)
        self.hidden_to_out = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
        # x is of shape [batch_size, latent_dim + num_classes]
        x = torch.sigmoid(self.latent_to_hidden(x))
        # x is of shape [batch_size, hidden_dim]
        generated_x = torch.sigmoid(self.hidden_to_out(x))
        # x is of shape [batch_size, output_dim]

        return generated_x


class CVAE(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1)
        self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1)

    def forward(self, x, y):

        x = torch.cat((x, y), dim=1)

        # encode
        z_mu, z_var = self.encoder(x)

        # sample from the distribution having latent parameters z_mu, z_var
        # reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)

        z = torch.cat((x_sample, y), dim=1)

        # decode
        generated_x = self.decoder(z)

        return generated_x, z_mu, z_var
 
Maxim Dmitrievsky:

кодер это нейронка

серйезно ?  )))))    ты прикалуешся с меня или шо ? ))

Maxim Dmitrievsky:

все равно нифига не поймешь

потому и говорю скажы по простому , что ты ожидал, почему это должно было сработать по твоему мнению, блок схемой вообще идеально...

А код не знакомой библы на не знакомом языке, канешн понять тяжело

 
mytarmailS:

серйезно ?  )))))    ты прикалуешся с меня или шо ? ))

потому и говорю скажы по простому , что ты ожидал, почему это должно было сработать по твоему мнению, блок схемой вообще идеально...

А код не знакомой библы на не знакомом языке, канешн понять тяжело

в смысле плть прикалываешься?

 
Maxim Dmitrievsky:

в смысле плть прикалываешься?

ну в том что  - что такое автогенераторы я раньше тебя знал ))

 
mytarmailS:

А зачем там нейронка вообще можешь блок схемой объяснить

Причина обращения: