트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2251

 
막심 드미트리예프스키 :

시리즈를 다른 공간에 매핑(분포?)

글쎄요, 다른 공간으로, 분포는 잘 모르겠습니다..

왜 클래스 레이블인가? 왜 인코더인가?

 
mytarmailS :

글쎄요, 다른 공간으로, 분포는 잘 모르겠습니다..

왜 클래스 레이블인가? 왜 인코더인가?

좋은 판매 사례와 구매 사례가 필요하므로 태그

이것은 이 공간의 점 분포이며 일반적으로 다차원 법선이 선택됩니다.

아마도 작동하지 않을 것입니다. 그러나 멋지네요.

내년에 패턴이 바뀌면 어떻게 하시겠습니까? 현재 연도에서 빼낼 수 없습니다.

전체 기록을 가져와 조건부로 클러스터로 나누고 각각의 샘플 수를 균등화한 다음 샘플을 생성하고 훈련해야 합니다. 이것은 이론상으로 + - 안정적일 것입니다.

 
막심 드미트리예프스키 :

좋은 판매 사례와 구매 사례가 필요하므로 태그

이것은 일반적으로 이 공간의 포인트 분포입니다.............

글쎄, 네, 구체적인 아이디어가 너무 그렇다는 데 동의합니다 ....

===========================

배포판의 로봇은 무엇입니까?

 
mytarmailS :

글쎄요, 저는 구체적인 아이디어가 그저 그렇다는 데 동의합니다.

===========================

배포판의 로봇은 무엇입니까?

무작위가 아닌 일반 데이터에 대한 멋진 아이디어

유로에서는 약탈만 하고 다른 것은 별로 좋지 않습니다.

흠 대신 인코더를 미뤘어 아직 안끝났어

 

어떻게 prikrepit 악기 BTC/USD?

 

흠 대신 인코더. 훈련 2개월, 시험 5년

아키텍처를 선택하는 것이 다소 어렵습니다. 단일 레이어가 전혀 작동하지 않고 두 번째 레이어를 추가하면 더 좋아졌습니다.

기존 피드포워드 레이어

 
막심 드미트리예프스키 :

흠 대신 인코더. 훈련 2개월, 시험 5년

아키텍처를 선택하는 것이 다소 어렵습니다. 단일 레이어가 전혀 작동하지 않고 두 번째 레이어를 추가하면 더 좋아졌습니다.

기존 피드포워드 레이어

흠이 있으면 일정이 더 원활 해집니다 ...

그리고 왜 뉴런이 존재하는지, 블록다이어그램으로 설명할 수 있습니까?


하나의 레이어는 선형 문제만 풀 수 있습니다.

 
mytarmails :

흠이 있으면 일정이 더 순조로운 것 같습니다 ...

그리고 왜 뉴런이 존재하는지, 블록다이어그램으로 설명할 수 있습니까?


하나의 레이어는 선형 문제만 풀 수 있습니다.

나는 그들에게 더 많은 것을 기대했다

인코더는 뉴런입니다

당신은 여전히 아무것도 이해하지 못하지만 여기에 구조가 있습니다

 class Encoder(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.linear = nn.Linear(input_dim + n_classes, hidden_dim)
        self.mu = nn.Linear(hidden_dim, latent_dim)
        self.var = nn.Linear(hidden_dim, latent_dim)

    def forward(self, x):
         # x is of shape [batch_size, input_dim + n_classes]

        hidden = torch.sigmoid(self.linear(x))
         # hidden is of shape [batch_size, hidden_dim]

         # latent parameters
        mean = self.mu(hidden)
         # mean is of shape [batch_size, latent_dim]
        log_var = self.var(hidden)
         # log_var is of shape [batch_size, latent_dim]

         return mean, log_var


class Decoder(nn.Module):
    def __init__(self, latent_dim, hidden_dim, output_dim, n_classes):
        super().__init__()

        self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim)
        self.hidden_to_out = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
         # x is of shape [batch_size, latent_dim + num_classes]
        x = torch.sigmoid(self.latent_to_hidden(x))
         # x is of shape [batch_size, hidden_dim]
        generated_x = torch.sigmoid(self.hidden_to_out(x))
         # x is of shape [batch_size, output_dim]

         return generated_x


class CVAE(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1 )
        self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1 )

    def forward(self, x, y):

        x = torch.cat((x, y), dim= 1 )

         # encode
        z_mu, z_var = self.encoder(x)

         # sample from the distribution having latent parameters z_mu, z_var
         # reparameterize
        std = torch. exp (z_var / 2 )
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)

        z = torch.cat((x_sample, y), dim= 1 )

         # decode
        generated_x = self.decoder(z)

         return generated_x, z_mu, z_var
 
막심 드미트리예프스키 :

인코더는 뉴런

진지하게? ))))) 농담하는거야 아니면 뭐야? ))

막심 드미트리예프스키 :

아직도 이해하지 못한다

그렇기 때문에 간단히 말해서 당신이 기대했던 것, 왜 그것이 당신의 의견으로 작동했어야 했는지, 블록 다이어그램이 일반적으로 이상적이라고 말하는 이유입니다 ...

그리고 생소한 언어로 된 생소한 성경의 코드는 당연히 이해하기 어렵습니다.

 
mytarmailS :

진지하게? ))))) 농담하는거야 아니면 뭐야? ))

그렇기 때문에 간단히 말해서 당신이 기대했던 것, 왜 그것이 당신의 의견으로 작동했어야 했는지, 블록 다이어그램이 일반적으로 이상적이라고 말하는 이유입니다 ...

그리고 생소한 언어로 된 생소한 성경의 코드는 당연히 이해하기 어렵습니다.

농담의 의미에서?

사유: