신경망. 전문가를 위한 질문입니다. - 페이지 13

 
joo :

세 번째 신호 유형을 입력합니다. 총 신호:

0 또는 1 또는 2

좋은. 문제가 되지 않습니다. 그리고 PNN은 이 값을 어떻게 처리할까요?

결국, 간격 [0; 1] - 가능한 확률 값을 식별하고 2는 여기에 어느 쪽이 맞을까요? 따라잡을 수 없다...

 
lasso :

좋은. 문제가 되지 않습니다. 그리고 PNN은 이 값을 어떻게 처리할까요?

결국, 간격 [0; 1] - 가능한 확률 값을 식별하고 2는 여기에 어느 쪽이 맞을까요? 따라잡을 수 없다...

도무지 알 수가 없네, 뭐가 문제야? [-1;1] 범위의 시그모이드를 사용하면 0은 신호가 없음을 나타냅니다. 그리고 그것은 "순수한"신호의 3 가지 유형입니다.
 
joo :
도무지 알 수가 없네, 뭐가 문제야? [-1;1] 범위의 시그모이드를 사용하면 0은 신호가 없음을 나타냅니다. 그리고 그것은 "순수한"신호의 3 가지 유형입니다.

이 옵션도 고려했지만 이 경우 0은 범위의 중간입니다. 확률 0.5에 해당

그리고 사건이 일어날 확률은 0.5이고 사건의 발생에 대한 정보가 부족하기 때문에 이것들은 상당히 다른 것 같습니다. 여기에 문제가 있습니다(

 

그런 다음 세 가지 유형의 이벤트 를 시작해야 합니다. 각각의 범위는 [0,1](또는 더 편리한 다른 것)이며 각 이벤트의 확률을 고려합니다.

지금 당장 말하겠습니다. 이것은 막다른 골목입니다. 이벤트의 확률을 설명하는 동시에 네트워크에 이 확률을 가르치는 것은 불가능합니다. 네트워크가 이벤트의 90% 확률을 출력한다고 가정합니다. 이벤트가 발생하지 않으면 어떻게 됩니까? 그래서 네트워크가 잘못되었지만 결국 왜 여전히 10 %가 남아 있습니까? 적절한 훈련 세트를 제공할 수 없습니다. 그게 전부입니다.

 

예 감사합니다. 필요한 것 같습니다. 생각해야 합니다.

 
joo :

그런 다음 세 가지 유형의 이벤트를 시작해야 합니다. 각각의 범위는 [0,1](또는 더 편리한 다른 것)이며 각 이벤트의 확률을 고려합니다.

지금 당장 말하겠습니다. 이것은 막다른 골목입니다. 이벤트의 확률을 설명하는 동시에 네트워크에 이 확률을 가르치는 것은 불가능합니다. 네트워크가 이벤트의 90% 확률을 출력한다고 가정합니다. 이벤트가 발생하지 않으면 어떻게 됩니까? 그래서 네트워크가 잘못되었지만 결국 왜 여전히 10 %가 남아 있습니까? 적절한 훈련 세트를 제공할 수 없습니다. 그게 전부입니다.

출력층의 분류 문제에서는 sigmoid가 아닌 SOFTMAX를 활성화 함수로 사용하는 것이 가장 좋습니다. 이 경우 각 출력 뉴런은 클래스 중 하나에 해당하고 출력은 해당 클래스에 속할 확률을 제공합니다. 수업. 레이어별 출력의 합은 1과 같아야 합니다.

올가미 , 활성화 함수에 대한 정보 포함 SOFTMAX, 여기 에서 읽을 수 있습니다(22페이지).

 
joo :

지금 당장 말하겠습니다. 이것은 막다른 골목입니다. 이벤트의 확률을 설명하는 동시에 네트워크에 이 확률을 가르치는 것은 불가능합니다. 네트워크가 이벤트의 90% 확률을 출력한다고 가정합니다. 이벤트가 발생하지 않으면 어떻게 됩니까? 그래서 네트워크가 잘못되었지만 결국 왜 여전히 10 %가 남아 있습니까? 적절한 훈련 세트를 제공할 수 없는 것뿐입니다.

막다른 방향 - 무엇? 거래에서 확률적 NN을 사용하거나 이 훈련 세트에 대한 설명을 사용하시겠습니까?

두 번째 바랍니다.

그리고 일반적으로 어떤 훈련 세트가 적절하다고 할 수 있습니까?

예를 들어, 간격 [-1; 1] 세 개의 다른 기간에서 0.70의 출구와 비교합니다(가격은 예상되는 50pp의 움직임에서 35pp만 통과).

이것은 적절한 훈련 세트입니까?

 
alsu :

출력층의 분류 문제에서는 sigmoid가 아닌 SOFTMAX를 활성화 함수로 사용하는 것이 가장 좋습니다. 이 경우 각 출력 뉴런은 클래스 중 하나에 해당하고 출력은 해당 클래스에 속할 확률을 제공합니다. 수업. 레이어별 출력의 합은 1과 같아야 합니다.

더 나은 - 더 나은 것이 아니라 당신에게 달려 있습니다. 본질은 변하지 않습니다. 올가미 가 필요한 것에 달려 있습니다. 원하는 경우 두 출력/입력 모두 시그모이드를 사용하는 동안 1계층 뉴런과 동일한 합계로 표시될 수 있습니다. 그러나 문제는 여전히 동일합니다. 적절한 훈련 세트를 제공할 수 없다는 것입니다.
 
lasso :

막다른 방향 - 무엇? 거래에서 확률적 NN을 사용하거나 이 훈련 세트에 대한 설명을 사용하시겠습니까?

두 번째 바랍니다.

막다른 방향 - 거래에서 특정 이벤트의 확률을 결정합니다.

올가미 :

그리고 일반적으로 어떤 훈련 세트가 적절하다고 할 수 있습니까?

예를 들어, 간격 [-1; 1] 세 개의 다른 기간에서 0.70의 출구와 비교합니다(가격은 예상되는 50pp의 움직임에서 35pp만 통과).

이것은 적절한 훈련 세트입니까?

숫자 0.7은 (이미 도착한) 사건의 확률에 대해 어떤 정보를 전달합니까? 아니요. 따라서 결과는 - 아니요입니다.

PNN은 특정 상태의 분류 및/또는 그림이 특정 패턴에 속하는지 여부를 분류하는 데 사용할 수 있지만 특정 이벤트의 결과 확률을 결정하는 도구로는 사용할 수 없습니다. 오히려 사용하게 되지만, 발견된 확률의 값에서 의미가 없을 것입니다(왜, 위에서 썼어요).

 
lasso :

좋은. 문제가 되지 않습니다. 그리고 PNN은 이 값을 어떻게 처리할까요?

결국, 간격 [0; 1] - 가능한 확률 값을 식별하고 2는 여기에 어느 쪽이 맞을까요? 따라잡을 수 없다...


실제로 두 가지 옵션이 있습니다.

1. 입력의 이진 코딩(1 입력/1 이벤트). 0 - 이벤트가 발생하지 않음, 1 - 발생했습니다.

2. 각 입력에 대한 값 집합의 확장(이미 말한 대로: 0, 1, 2...). 여기에서 범위 [0; 1]에는 문제가 없을 수 있습니다. 네트워크의 출력에서 확률을 얻을 수 있지만 확률은 입력에 있을 필요가 없습니다. 내 말을 믿지 못한다면 다른 옵션이 있습니다. 간격 [0;1]을 필요한 부분 수로 나눕니다(0 - 이벤트가 발생하지 않음, 0.5 - 관찰이 없음, 1 - 이벤트가 발생함).