트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 449

 
막심 드미트리예프스키 :

너무 빠른 것, 이것은 L-BFGS 알고리즘에 따라 한 시간 또는 몇 시간 단위로 훈련되어야 합니다. 나는 또한 15개의 입력을 만들었지 만 뉴런 15-20의 숨겨진 레이어 하나만, Alglib NN을 훈련했습니다 ... 간단히 말해서 기다리지 않고 입력 벡터의 크기를 줄였습니다) 10k 벡터가있는 3 개의 입력이 훈련되었습니다. 하나의 숨겨진 레이어로 5-10분. 그리고 이것은 느린 역전파가 아니라 1-3 Epoch의 빠른 역전파입니다. i5퍼센트

그리고 10분 동안에도 기성 전략이 없고 옵티마이저에서 N번째 예측 변수, 벡터 길이, 숨겨진 계층 수 등을 정렬하여 전략을 찾아야 한다고 상상해보십시오. . . .

알고리즘에 대해 다음과 같이 알려져 있습니다.

Algorithms for feedforward nets. OBJECTIVE To provide engines for feedforward ANN exploration, testing and rapid prototyping. Some flexibility is provided (e.g. the possibility to change the activation or error functions).

- The algorithms themselfs are not described here, there are many books which describes them (e.g. get mine "Matrix ANN" wherever you may find it ;-). - Hypermatrices are slow, however there is no other reasonable way of doing things; tests performed by myself show that using embedded matrices may increase speed but the manipulation of submatrices "by hand" is very tedious and error prone. Of course you may rewrite the algorithms for yourself using embedded matrices if you want to. If you really need speed then go directly to C++ or whatever.

그러나 일반적으로 동일한 BP.

애슬론 프로세서, 2코어. 노트북은 8-9년 만에 구입했습니다. 최신 컴퓨터에서는 일반적으로 내 것보다 2배 빠르게 날아갑니다.

완성된 전략도 논리적으로 2~3개월 이상 걸린다. 무섭지 않아요.) 네, 그리고 아마 말을 탈 곳을 찾을 때까지 이미 국회에 더 많은 돈을 썼을 것입니다.)

 
유리 아사울렌코 :

알고리즘에 대해 다음과 같이 알려져 있습니다.

그러나 일반적으로 동일한 BP.

애슬론 프로세서, 2코어. 노트북은 8-9년 만에 구입했습니다. 최신 컴퓨터에서는 일반적으로 내 것보다 2배 빠르게 날아갑니다.

완성된 전략도 논리적으로 2~3개월 이상 걸린다. 무섭지 않아요.) 네, 그리고 아마 말을 탈 곳을 찾을 때까지 이미 국회에 더 많은 돈을 썼을 것입니다.)


속도가 정말 필요한 경우 C++ 또는 무엇이든 직접 가십시오. :)) 글쎄, 모든 것이 당신에게 적합하다면 윙윙 거리는 소리 :) 그리고 설정의 숲은 훨씬 간단합니다. 그런데 1 개의 매개 변수 수가 있습니다. 나무 :)
 
막심 드미트리예프스키 :

속도가 정말 필요한 경우 C++ 또는 무엇이든 직접 가십시오. :)) 글쎄, 모든 것이 당신에게 적합하다면 윙윙 거리는 소리 :) 그리고 설정의 숲은 훨씬 간단합니다. 그런데 1 개의 매개 변수 수가 있습니다. 나무 :)
속도가 정말 필요한 경우 C++ 또는 무엇이든 직접 가십시오. :)) 이것은 R 등의 해석된 환경이 아니라 C++에서 알고리즘을 직접 호출한다는 것을 의미합니다. 알고리즘 자체는 이미 C++로 구현되어 있습니다.) 그리고 속도가 정상임을 직접 확인했습니다.
 
유리 아사울렌코 :
속도가 정말 필요한 경우 C++ 또는 무엇이든 직접 가십시오. :)) 이것은 R 등과 같은 해석된 환경이 아니라 C++에서 알고리즘을 직접 호출한다는 것을 의미합니다. 알고리즘 자체는 이미 C++로 만들어졌습니다.)

그리고 계산을 MB 비디오 카드로 전송할 수 있습니다. CPU에 내장되어 있지 않으면 5배마다 더 빨라야 합니다. :)
 
막심 드미트리예프스키 :

그리고 계산을 MB 비디오 카드로 전송할 수 있습니다. CPU에 내장되어 있지 않으면 5배마다 더 빨라야 합니다. :)

물론 ~0.0003 c/sample일 때 그렇습니다. 모든 거래에 충분합니다.

그리고 이론적으로 러시아 연방을 읽었지만 실제로는 어떤 패키지에도 익숙하지 않습니다. 당신은 빠르게 전환하고 마스터합니다. 서 있는 것에 박수를 보냅니다.)) 일반적으로 마스터도 해야 합니다.

 
유리 아사울렌코 :

물론 ~0.0003 c/sample일 때 그렇습니다. 모든 거래에 충분합니다.

그리고 이론적으로 러시아 연방을 읽었지만 실제로는 어떤 패키지에도 익숙하지 않습니다. 당신은 빠르게 전환하고 마스터합니다. 서 있는 것에 박수를 보냅니다.)) 일반적으로 마스터도 해야 합니다.

저는 alglib에 있습니다. 코드의 2줄을 MLP에서 RF로 변경할 수 있습니다. :) 그리고 AzureStudio의 모든 주요 MO 모델(RNN LSTM 과 같은 복잡한 모델 제외)은 어리석게도 일주일 동안 선택했습니다. 그 결과 RF가 낫다는 것을 깨달았습니다 + 사람들이 쓰는 ..
 

유독합니다. 여기 주제에 다른 통화의 눈금이 있는 큰 테이블을 게시하고 서로를 기반으로 예측할 것을 제안한 것 같습니다.

그 표를 다시 게시해 주세요. 나는 그것에 대한 예측 변수를 선택하는 한 가지 기술을 테스트하고 싶습니다.

 
박사 상인 :

유독합니다. 여기 주제에 다른 통화의 눈금이 있는 큰 테이블을 게시하고 서로를 기반으로 예측할 것을 제안한 것 같습니다.

그 테이블을 다시 게시해 주세요. 그 테이블에서 예측 변수를 선택하는 한 가지 기술을 테스트하고 싶습니다.

파일:
data.zip  3772 kb
 
독성 :

고맙습니다. 나는 많은 수의 라인으로 분석을 시작했으며 결과는 며칠 안에 나올 것입니다. 동시에 numerai와 유추하여 logloss에 대한 모델을 훈련시킨 다음 테스트 테이블에서 확인합니다.

 
박사 상인 :

고맙습니다. 나는 많은 수의 라인으로 분석을 시작했으며 결과는 며칠 안에 나올 것입니다. 동시에 numerai와 유추하여 logloss에 대한 모델을 훈련시킨 다음 테스트 테이블에서 확인합니다.

흠 ... 정말 고 유라 레셰토프의 소프트웨어를 사용합니까? XGB 이 세트는 곱창으로 분당 최대 65-67%의 정확도를 제공합니다. ML이 한 시간 이상 작동하면 신경망에 대한 관심을 오랫동안 잃어 버렸기 때문에 뭔가 잘못되었다고 생각합니다.

사유: