트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2014

 
도서관 :

이것은 모든 사람을 위한 질문입니다.
또한 네트워크에서 단방향 신호 버스트를 얻습니다. 대략 여기처럼.

때로는 연속으로 100, 200 손실이 발생합니다. 예금의 0.5%와 같은 미세한 로트를 거래하는 유일한 방법이 있습니다.
수백 개의 연속 신호를 교환하지 않을 생각이 누가 있습니까?
먼저 거래하고 개장이 끝날 때까지 거래하지 않습니까? 이것이 최선의 선택이 아니라고 생각합니다.

옵션은 무엇입니까?

예를 들어 증분에 대해 매우 노이즈가 많은 데이터(특성 \ 대상)에 대해 훈련하고 있으므로 신호에 노이즈가 많습니다. 신호의 노이즈를 줄이기 위해 신호와 대상 또는 최종 신호 자체를 매끄럽게 만들 수 있지만 이는 이익을 많이 또는 완전히 제거하는 데 도움이 되지 않습니다.

 
도서관 :

이것은 모든 사람을 위한 질문입니다.
또한 네트워크에서 단방향 신호 버스트를 얻습니다. 대략 여기처럼.

때로는 연속으로 100, 200 손실이 발생합니다. 예금의 0.5%와 같은 미세한 로트를 거래하는 유일한 방법이 있습니다.
수백 개의 연속 신호를 교환하지 않을 생각이 누가 있습니까?
먼저 거래하고 개장이 끝날 때까지 거래하지 않습니까? 이것이 최선의 선택이 아니라고 생각합니다.

옵션은 무엇입니까?

열기는 하나의 논리이고 유지 관리 및 닫기는 또 다른 논리입니다. 나는 너무 가깝다. 발은 보험입니다. 따라서 미결제 주문 수를 제한하려면 스톱으로 시작하는 것이 좋습니다.

 
도서관 :

이것은 모든 사람을 위한 질문입니다.
또한 네트워크에서 단방향 신호 버스트를 얻습니다. 대략 여기처럼.

때로는 연속으로 100, 200 손실이 발생합니다. 예금의 0.5%와 같은 미세한 로트를 거래하는 유일한 방법이 있습니다.
수백 개의 연속 신호를 교환하지 않을 생각이 누가 있습니까?
먼저 거래하고 개장이 끝날 때까지 거래하지 않습니까? 이것이 최선의 선택이 아니라고 생각합니다.

옵션은 무엇입니까?

왜 그것들을 거래하지? 소구경 권총이 달린 러시안 룰렛과 같습니다. :)

 
표시기 참조) 2020년에만 작동합니다.
 
막심 드미트리예프스키 :

체, 테스트에 성공했나요?

 
mytarmailS :

체, 테스트에 성공했나요?

여전히 동일합니다. .. '사전 훈련' 후 주초에 잘 작동합니다. 그런 다음 쏟아지기 시작합니다. 다시 수정했습니다 내일 테스트 해보겠습니다 :D

보상은 상인에서 비뚤게 계산됩니다, 당신은 .. 일련의 업데이트 후에, 그것은 잘못된 방향으로 거래를 시작합니다

동시에, 나는 시간 사이에 토치에서 반복 네트워크를 선택합니다.

노란색 - 주의 시작, 처음 1-3일


 

차원 축소를 위해 복제(반복?) 네트워크를 사용해 본 사람이 있습니까?

기사 .

비디오 .


Лекция 6 | Нейросетевые технологии
Лекция 6 | Нейросетевые технологии
  • 2018.10.14
  • www.youtube.com
Дата: 08.10.2018 Лектор: Дорофеев Евгений Александрович Лекции в формате PDF - https://goo.gl/Xwzg4a
 
알렉세이 비아즈미킨 :

차원 축소를 위해 복제(반복?) 네트워크를 사용해 본 사람이 있습니까?

기사 .

비디오 .


순환 자동 인코더가 사용됩니다. 시도하지 않았다

 
막심 드미트리예프스키 :

순환 자동 인코더가 사용됩니다. 시도하지 않았다

모델의 품질이 입력 뉴런과 동일한 모든 출력 뉴런에 대해 어떻게 즉시 평가되는지 이해할 수 없습니다...

사용할 수 있는 유사한 것이 있으면 알려주십시오.

3000개에 가까운 예측변수 샘플이 있는데 비슷한 영역을 설명하기 때문에 많이 압축될 수 있다는 우려가 있었습니다.

 
알렉세이 비아즈미킨 :

모델의 품질이 입력 뉴런과 동일한 모든 출력 뉴런에 대해 어떻게 즉시 평가되는지 이해할 수 없습니다...

사용할 수 있는 유사한 것이 있으면 알려주십시오.

3000개에 가까운 예측변수 샘플이 있는데 비슷한 영역을 설명하기 때문에 많이 압축될 수 있다는 우려가 있었습니다.

모든 기능은 입력 및 출력이며 은닉층에는 더 적은 수의 뉴런이 있습니다. 단순히 출력 오류를 최소화하여 정보를 압축합니다. 입력은 출력과 같아야 합니다(이상적으로는). 그런 다음 신경망의 두 번째 부분은 훈련 후에 버려지고 출력에서 은닉층의 뉴런 수와 동일한 압축된 기능을 얻습니다.

반복 레이어 등을 추가할 수 있습니다.

구글 오토인코더. 그리고 그들의 품종.