트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 52

 
트레이더 박사 :

모델이 토폴로지를 개선하고 동일한 정확도로 몇 개의 뉴런을 내보냈기 때문에 피트니스가 향상될 수 있습니다.
코드의 주석에서 내가 이해한 한 이것은 Lua를 사용한 포트입니다. 원본이 이미 C++에 있었기 때문에 Lua도 포트입니다. http://nn.cs.utexas.edu?neat
Port from port는 아쉽고 불필요한 작업이 많이 발생합니다. RNeat의 작성자가 C++ 코드를 기반으로 하고 네트워크의 진화를 위해 기존 R 유전자 패키지를 적용했다면 더 좋았을 것입니다.

그리고 나는 어떤 이유에서 모든 것이 거기에 쓰여 있다고 생각했습니다.
 
mytarmailS :

한 사이트에서 다른 메모를 찾았습니다. 어떤 이유로 더 이상 작동하지 않습니다.

아마도 누군가가 관심을 가질 것입니다:

… 다음 단계는 새로운 모델이었습니다: 종가 에 저역 통과 필터를 적용하고 (저는 2차 버터워스 필터를 사용했습니다), 다항식-조파 근사를 적용하고, 변환 A*cos(wx)+B*sin(wx) M*sin(wx+f) 형식으로 변환하고 M과 f를 2차 기능으로 사용합니다.

…. 그리고 이 모델을 사용하여 아주 좋은 일반화 속성을 가진 네트워크를 구축할 수 있었습니다. 새 데이터로 거의 모든 것을 올바르게 인식했습니다.

Yury Reshetov - Yury, 그 사람이 일반적으로 여기에 쓴 내용을 이해합니까? 다시 만들 수 있습니까?

 
최근 센트 지폐를 자랑하는 것이 유행이되었습니다.
 
결합기 :
최근 센트 지폐를 자랑하는 것이 유행이되었습니다.
어딘가에 광고가 있었나요?
 

mytarmailS :

mytarmailS :

… 다음 단계는 새로운 모델이었습니다: 종가 에 저역 통과 필터를 적용하고 (저는 2차 버터워스 필터를 사용했습니다), 다항식-조파 근사를 적용하고, 변환 A*cos(wx)+B*sin(wx) M*sin(wx+f) 형식으로 변환하고 M과 f를 2차 기능으로 사용합니다.

… 그리고 이 모델을 사용하여 아주 좋은 일반화 속성을 가진 네트워크를 구축할 수 있었습니다. 새 데이터로 거의 모든 것을 올바르게 인식했습니다.

Yury Reshetov - Yury, 그 사람이 일반적으로 여기에 쓴 내용을 이해합니까? 다시 만들 수 있습니까?

솔직히 말해서, 정말 아닙니다. 많은 질문:

  1. 예를 들어 푸리에 변환 자체에서 불필요한 고조파를 무시하거나 0 진폭 값을 할당하거나 필터링된 고조파의 진폭을 임계값으로 절단하여 간단히 수행할 수 있는 경우 별도의 필터로 사전 필터링하는 이유는 무엇입니까?
  2. 어떤 특정 주파수가 필터링되었습니까? 또한 추측 옵션은 왜건과 작은 카트이기 때문에 큰 질문입니다.
  3. 왜 LF 성분이 필터링되고 MF가 아닌 HF가 필터링됩니까? 결국 논리에 따르면 노이즈는 중음 또는 고음에 있을 가능성이 가장 큽니다.
  4. 가격 BP의 비주기성 문제는 어떻게 해결되었습니까? 기간 말의 오류는 어떻게 제거되었습니까?

우리는 구체적인 내용이 없는 일종의 과학 텍스트인 것처럼 보입니다.

따라서 위의 질문에 대한 답변을 모르면 실제로 재현하는 방법과 적절한 결과를 얻을 수 있는지 여부만 추측할 수 있습니까?

 
알렉세이 버나코프 :
어딘가에 광고가 있었나요?
예, 분실
 

여기서 문제는 자랑과 센트 지폐가 아닙니다.

문제는 다릅니다.

토론 참가자들은 내 의견으로는 불필요한 입구를 밀어 넣어 어떤 성배 를 찾기를 희망합니다.

그리고 그들은 개발 된 전략이나 전술의 기성 규칙을 찌를 필요가 있음을 완전히 잊어 버립니다. 누구에게 더 가깝습니까?

기계는 사용자가 입력한 작업만 수행합니다.

입구의 헛간은 출구의 헛간과 동일합니다.

죄송합니다.

 
바딤 쉬쉬킨 :

여기서 문제는 자랑과 센트 지폐가 아닙니다.

문제는 다릅니다.

토론 참가자들은 내 의견으로는 불필요한 입구를 밀어 넣어 어떤 성배를 찾기를 희망합니다.

그리고 그들은 개발 된 전략이나 전술의 기성 규칙을 찌를 필요가 있음을 완전히 잊어 버립니다. 누구에게 더 가깝습니까?

기계는 사용자가 입력한 작업만 수행합니다.

입구의 헛간은 출구의 헛간과 동일합니다.

죄송합니다.

단백질 신경망은 입력과 출력 모두에서 타작마당으로 가득 차 있을 수도 있습니다.

죄송합니다.

 
알렉세이 버나코프 :

단백질 신경망은 입력과 출력 모두에서 타작마당으로 가득 차 있을 수도 있습니다.

죄송합니다.

여기 내가 말하는 내용이 있습니다.

주제에 대해 할 말이 있습니까?

 
바딤 쉬쉬킨 :

여기 내가 말하는 내용이 있습니다.

주제에 대해 할 말이 있습니까?

그래서 당신을 위한 질문입니다. )

이 전술은 무엇입니까? 머리는 무엇을 생각해 냈습니까? 그러니 나에게 말해봐?

사유: