트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 629

 
유리 아사울렌코 :

Maxim은 MT 옵티마이저에서 네트워크를 훈련할 필요가 없습니다. NN 트레이너와 옵티마이저는 완전히 다른 최적성 기준을 가진 완전히 다른 알고리즘입니다.

이전에 그린 NN 구조를 계속 사용한다면 너무 단순하고 시장에 너무 취약합니다. 이미 15-20-15-10-5-1 구조에 도달했을 때만 성공했다고 썼습니다. 그리고 그것은 한 가지 유형의 거래를 위한 것입니다. 그러나 그는 Khaikin이 설명한 방법, 즉 새로운 것이없고 종소리와 휘파람이없는 방법으로 모든 것을 절대적으로 수행했습니다.

단순한 구조 는 잘 훈련되지 않았습니다.

레이어의 수, 레이어의 뉴런 수를 취하지 않았습니까? 예를 들어 15-200-1 또는 15-200-20-1?

유리 아사울렌코 :

추신: 사실 훈련할 데이터는 많지 않지만 많습니다. 작은 표본 크기에서 국회는 합리적인 어떤 것도 강조하지 않을 것입니다.

얼마나 많은 데이터를 사용합니까? 나는 훈련을 위해 86,000 라인을 가져갔습니다.

 
도서관 :

1) 레이어의 수, 레이어의 뉴런 수를 취하지 않았습니까? 예를 들어 15-200-1 또는 15-200-20-1?

2) 얼마나 많은 데이터를 사용합니까? 나는 훈련을 위해 86,000 라인을 가져갔습니다.

1. 시도하지 않았습니다. 첫 번째 레이어의 20개면 충분합니다. 층과 층의 뉴런을 증가시키기 위해 걸어갔다.

2. N epoch 사이에 중간 혼합으로 훈련에 약 12000개의 행이 있었습니다. 여러 에포크 후에 훈련 데이터는 이전에 훈련에 참여하지 않은 다른 데이터로 대체되었습니다.

 
알렉세이 테렌테프 :

물론 공격에 대해 사과하지만 당신은 당신의 메시지를 다시 읽었습니다. 다소 모호해 보입니다.
일반적으로 당신이 옳지만 신경망의 첫 번째 계층에 대해서만 그렇습니다. 피드백이 두 번째 및 후속 계층으로 이동하거나 네트워크의 병렬 계층으로 이동하면 진술이 힘을 잃게 됩니다.
이 경우 Maxim 은 네트워크를 심화하고 은닉층에 피드백을 제공하는 것에 대해 생각해야 합니다.

그리고 다음과 같이:

똑같다. MLP는 오랫동안 관련성이 없었고 딥 러닝은 오랫동안 트렌드였습니다. 그리고 하나의 네트워크는 이기종 데이터를 처리할 수 있습니다. 가장 중요한 것은 아키텍처입니다.

나는 그것이 내가 생각해 낸 모든 종소리와 휘파람과 깊이를 결합하는 방법이라는 데 동의합니다. 옵티마이저에서 배우는 데 조금 오래 걸릴 것입니다. 거래가 진행되고 있습니다

옵티마이저를 위한 30개 이상의 가중치는 더 이상 선택사항이 아니라고 생각합니다.

+ 여기에 있는 많은 사람들은 일반적으로 이 모든 작업을 수행하는 것이 멋진 클라우드가 있다는 사실을 잊어버리지만 ok가 필요합니다. 좋은 코드 최적화

 
막심 드미트리예프스키 :

나는 그것이 내가 생각해 낸 모든 종소리와 휘파람과 깊이를 결합하는 방법이라는 데 동의합니다. 옵티마이저에서 배우는 데 조금 오래 걸릴 것입니다. 거래가 진행되고 있습니다

옵티마이저를 위한 30개 이상의 가중치는 더 이상 선택사항이 아니라고 생각합니다.

+ 여기에 있는 많은 사람들은 일반적으로 이 모든 작업을 수행하는 것이 멋진 클라우드가 있다는 사실을 잊어버리지만 ok가 필요합니다. 좋은 코드 최적화

입력 레이어를 복제해 보십시오.

 
알렉세이 테렌테프 :


똑같다. MLP는 오랫동안 관련성이 없었고 딥 러닝은 오랫동안 트렌드였습니다. 그리고 하나의 네트워크는 이기종 데이터를 처리할 수 있습니다. 가장 중요한 것은 아키텍처입니다.
MLP가 문제를 해결할 수 있다면 관련성이 있는지 여부에 따라 어떤 차이가 있습니까? 또한 MLP로 자신을 긴장시킬 필요가 없습니다. 거의 모든 곳에 모든 것이 있습니다.
 
알렉세이 테렌테프 :

입력 레이어를 복제해 보십시오.

테마, 그리고 가중치를 장소에 혼합 :)
 
유리 아사울렌코 :
MLP가 문제를 해결할 수 있다면 관련성이 있는지 여부에 따라 어떤 차이가 있습니까? 또한 MLP로 자신을 긴장시킬 필요가 없습니다. 거의 모든 곳에 모든 것이 있습니다.

글쎄, 나는 당신에게 아무것도 제안하지 않습니다. 딥 러닝은 MLP에서 시작됩니다.
네트워크 내에서 데이터를 표현할 때 데이터의 이동과 변환, 활성화, 순환 계층, 정규화, 계층 조합 등에 대한 질문이 자연스럽게 발생하기 때문입니다. 이제 이것이 딥 러닝입니다.

딥 러닝을 위한 부속물에도 모든 것이 있고 어디에나 있습니다. =)
 
유리 아사울렌코 :
MLP가 문제를 해결할 수 있다면 관련성이 있는지 여부에 따라 어떤 차이가 있습니까? 또한 MLP로 자신을 긴장시킬 필요가 없습니다. 거의 모든 곳에 모든 것이 있습니다.
깊은 것은 훨씬 더 빨리 배울 수 있고 다른 모든 것은 동일합니다. 예를 들어 10시간이 아니라 5분입니다. :)
 
알렉세이 테렌테프 :

글쎄, 나는 당신에게 아무것도 제안하지 않습니다. 딥 러닝은 MLP에서 시작됩니다.
네트워크 내에서 데이터를 표현할 때 데이터의 이동과 변환, 활성화, 순환 계층, 정규화, 계층 조합 등에 대한 질문이 자연스럽게 발생하기 때문입니다. 이제 이것이 딥 러닝입니다.

나는 이것을 이해하지만 다른 것에 대해 이야기하고 있습니다. 두 개의 파이프에 대한 문제의 경우 더 높은 수학이 필요하지 않으며 산술이면 충분합니다. 산술이 관련이 있는지 여부는 또 다른 문제입니다.

즉, 먼저 문제를 결정한 다음 솔루션 방법을 선택해야 합니다.

DM - DL의 크고 복잡한 작업에 관해서는 MLP는 물론 오래 전에 통과한 단계입니다.

 
막심 드미트리예프스키 :
깊은 것은 훨씬 더 빨리 배울 수 있고 다른 모든 것은 동일합니다. 예를 들어 10시간이 아니라 5분입니다. :)
나는 말하지 않겠지만 이것이 환상인 것 같습니다. 단지 일반적인 이유 때문입니다.
사유: