트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 598

 
알렉세이 테렌테프 :
1) 훈련은 어떻게 진행되고 있습니까? 가중치가 표시되지 않습니다.
2) 뉴런 자체의 가중치가 있는가?
3) 매체로서 1-4 주문의 마감 또는 빠른 MA의 파생물을 취할 수 있습니다. 또는 증분.
4) 숨겨진 레이어의 크기를 입력과 동일하게 설정합니다.

가중치는 가산기로 이동하고 모든 것이 고전에 따르면 서스펜션이 활성화 기능에 공급됩니다. 그냥 터치패드로 다 서명하는 게 불편했어요

"환경"의 품질에서 - 여기에서 NS 외부에서 이미 수행한 일부 작업(예: 거래)을 의미합니다. n개 작업 전의 시스템 메모리, 피드백과 동일 - 어떤 작업이 어떤 결과를 가져왔는지

그래서 지금은 내부 레이어를 입력 레이어와 동일하게 만들고 .. 나중에 다른 mb를 추가합니다.

 
유리 아사울렌코 :

시간을 낭비하고 있습니다. 실제 데이터에는 작동하지 않습니다.

예를 들면: 국회에서 하나의 오답, 그리고 그것은 이후의 모든 것에 영향을 미칠 것입니다.


글쎄요, 그렇지 않습니다. ns가 트랜잭션의 연속성과 효율성을 추가 요소로 고려한다는 것입니다. 이것은 선택 사항입니다. 이것이 최종적이라는 말은 아닙니다.

그래서 다른 생각이 있는지 묻는 것입니다.

+ 이것은 내장 적응 소자입니다.. 음, 트랜지스터를 납땜하는 방법

그리고 주 NS는 다른 기능을 수행합니다.

 
막심 드미트리예프스키 :

가중치는 가산기로 이동하고 모든 것이 고전에 따르면 서스펜션이 활성화 기능에 공급됩니다. 그냥 터치패드로 다 서명하는 게 불편했어요

"환경"의 품질에서 - 여기에서 NS 외부에서 이미 수행한 일부 작업(예: 거래)을 의미합니다. n개 작업 전의 시스템 메모리, 피드백과 동일 - 어떤 작업이 어떤 결과를 가져왔는지

그래서 지금은 내부 레이어를 입력 레이어와 동일하게 만들고 .. 나중에 다른 mb를 추가합니다.

옵션은 포인트 단위의 이익 금액입니다. 성공적인 거래 -> 증가, 그 반대의 경우도 마찬가지입니다.
그러나 여기서 미묘한 차이는 이 경우 Q-함수를 포함하는 것에 대해 생각해볼 가치가 있다는 것입니다. 이는 보상으로 간주되어야 하기 때문입니다. 또는 보상을 고려하여 학습 공식을 도출합니다.
 
알렉세이 테렌테프 :
옵션은 포인트 단위의 이익 금액입니다. 성공적인 거래 -> 증가, 그 반대의 경우도 마찬가지입니다.
그러나 여기서 미묘한 차이는 이 경우 Q-함수를 포함하는 것에 대해 생각해볼 가치가 있다는 것입니다. 이는 보상으로 간주되어야 하기 때문입니다. 또는 보상을 고려하여 학습 공식을 도출합니다.

예, 좋습니다 :) 좋은 선택입니다

공식은 여전히 간단합니다. 뉴런이 아니라 과거 거래 결과를 제공받는 별도의 뉴런이지만 단순히 값이 가산기에 추가됩니다. 나는 아직 냉각에 대해 많이 읽지 않았습니다.

 
막심 드미트리예프스키 :

예, 좋습니다 :) 좋은 선택입니다

공식은 여전히 간단합니다. 뉴런이 아니라 과거 거래 결과를 제공받는 별도의 뉴런이지만 단순히 값이 가산기에 추가됩니다. 나는 아직 냉각에 대해 많이 읽지 않았습니다.

두 개의 동일한 NN을 만들고 하나는 기존 이미지로 훈련하고 두 번째는 가중치를 직접 전송하여 첫 번째 예측 결과에 따라 투여됩니다. 두 번째는 긍정적인 경험을 통해서만 배워야 합니다.
 
이반 네그레쉬니 :
두 개의 동일한 NN을 만들고 하나는 기존 이미지로 훈련하고 두 번째는 가중치를 직접 전송하여 첫 번째 예측 결과에 따라 투여됩니다. 두 번째는 긍정적인 경험을 통해서만 배워야 합니다.

그런 옵션이 있습니다. 처음에는 여러 NN이 서로 다른 기간에 훈련된 다음 하나의 .. 정교한 적합으로 축소됩니다. :)

나는 그녀가 멍청하게 일하고 재건하기 시작할 때를 이해하기를 원합니다.

 
막심 드미트리예프스키 :

그런 옵션이 있습니다. 처음에는 여러 NN이 서로 다른 기간에 훈련된 다음 하나의 .. 정교한 적합으로 축소됩니다. :)

나는 그녀가 멍청하게 일하고 재건하기 시작할 때를 이해하기를 원합니다.

그러한 목적을 위해, 당신은 분명히 올바른 구조를 생각해내지 못했습니다.
 
유리 아사울렌코 :
그러한 목적을 위해, 당신은 분명히 올바른 구조를 생각해내지 못했습니다.

그래서 어떻게 되어야 합니까?

 
막심 드미트리예프스키 :

그래서 어떻게 되어야 합니까?

잘 모르겠습니다.) 하지만, 확실히 아닙니다.
 
막심 드미트리예프스키 :

그런 옵션이 있습니다. 처음에는 여러 NN이 서로 다른 기간에 훈련된 다음 하나의 .. 정교한 적합으로 축소됩니다. :)

나는 그녀가 멍청하게 일하고 재건하기 시작할 때를 이해하기를 원합니다.

첫째, 위원회가 더 잘 작동하는 것으로 입증되었기 때문에 적합하지 않습니다. 예를 들어 개별 모델의 부호에서 반대 편차로 인해 정확도가 증가합니다. 둘째, 제안된 tandem NN은 강화 학습 방법에서도 입증된 단일 자체 조정 모델입니다.

사유: