트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1243

 
막심 드미트리예프스키 :

글쎄, 훈련 14 테스트 40

음, 일반적으로 테스트의 정확도는 랜덤 트레인/테스트 - 80/20에서 57 ~ 61%입니다. 이러한 작은 데이터 세트의 이러한 간격은 매우 논리적입니다.

 
forexman77 :

예 예. 귀로 두꺼비의 아름다움을 꺼낼 수 있습니다)

솔직히, 나는 문제가 무엇인지, 그리고 채널에서 일하는 것의 복잡성을 이해하지 못합니까? 아마도 당신은 1시간 이상 게임을 하고 있습니까? - 그러면 거기에는 채널이 없고 겉보기 달의 겉보기 반사만 있을 뿐입니다.

그런데 MO에 대한 위협. 외환이 노이즈에 의해 지배된다고 가정하면 ML 문제의 공식이 달라야 합니다.)

 
성배 :

음, 일반적으로 테스트의 정확도는 랜덤 트레인/테스트 - 80/20에서 57 ~ 61%입니다. 이러한 작은 데이터 세트의 이러한 간격은 매우 논리적입니다.

덕분에 잘 알겠습니다.. 파이썬으로 모델을 보고 더 큰 집합을 만들어 확인하겠습니다.

 

데이터 세트는 10배 더 큽니다.

캣부스트:

알글립:

2018.12.27 11:44:10.475 코어 2 2018.12.26 23:59:59 0.10990

2018.12.27 11:44:10.475 코어 2 2018.12.26 23:59:59 0.49840

우리가 알아차릴 수 있었던 것은 alglib가 하나의 개찰구로 많이 재교육되었지만 테스트에서는 boost에서 비교적 유사한 오류를 보여줍니다. Boost는 두 오류를 모두 균등하게 하지만 기다리면 기차의 그래프도 우주로 이동하고 테스트는 계속 매달려 있습니다. 단지 부스트가 더 잘 통제되고, aglib에서는 나무의 가지를 일찍 멈출 수 있는 수단이 없다는 것뿐입니다.

글쎄, 이것은 일반적으로 무작위이며, 물론 적립되지 않으며 부스트가 저장되지 않습니다.


파일:
 

막심 드미트리예프스키 :

그리고 alglib에는 나무의 가지를 일찍 멈출 방법이 없습니다

코드가 열려 있습니다. 조정할 수 있습니다. 또는 Alglib-a의 기본 트리를 기반으로 자신의 트리를 작성하십시오.

마법사는 사다리가 아니라 세트가 아니라 알려지지 않은 작은 동물이 아닌 자신의 것을 썼습니다))
 
도서관 :

코드가 열려 있습니다. 조정할 수 있습니다. 또는 Alglib-a의 기본 트리를 기반으로 자신의 트리를 작성하십시오.

마법사는 자신의 무언가를 썼습니다 ... 숲이나 네트워크가 아니라 알려지지 않은 작은 동물))

에휴....

다시 한 번 반복합니다. 마법사는 신경망에 대한 입력 데이터를 준비하는 방법만 알고 있습니다. 입력 데이터! 그리고 나서 그는 무엇을 사용해야 할지 신경 쓰지 않습니다.

예를 들어 드리겠습니다.

박사님이 여기 계셨던 걸로 기억합니다. 그리고 이제 그는 사라졌습니다 ... 가장 똑똑하고 열심히 일하는 사람! 그가 좌절하고 모든 것을 떨어뜨렸다고 생각합니까? 나는 생각하지 않는다!

나는 LS에서 그와 많은 작업을 했다. 그는 틱 인용문 수신/처리 분야에서 수십억 건의 연구를 수행했습니다. 나는 따옴표의 다른 출처를 가져 와서 얇아지고 얇아지지 않았으며 심지어 호로 구부렸습니다 ...

그리고 나서 - 한 번만 LAN이나 포럼에서 그것을 netuti합니다.

나는 그가 Sorcerer처럼 국회에 대한 의견을 준비할 방법을 찾았다고 생각합니다. 그리고 나서 그는 자신이 원하는 대로 자유롭게 여기 포럼에 앉거나 앉을 수 있습니다.

그러나 그는 엄청난 일을 해냈습니다. 저는 그 일을 목격했습니다.

 
글쎄, 나도 여기에 5 개월 동안 오지 않았다. 좋은 일이었기 때문입니다. 이제 그는 풀려났고 다시 여기에 ... 아마도 Doc이 돌아올 것입니다. 아니면 영원한 것을 찾았을 수도 있습니다.
 
막심 드미트리예프스키 :

데이터 세트는 10배 더 큽니다.

캣부스트:

알글립:

2018.12.27 11:44:10.475 코어 2 2018.12.26 23:59:59 0.10990

2018.12.27 11:44:10.475 코어 2 2018.12.26 23:59:59 0.49840

우리가 알아차릴 수 있었던 것은 alglib가 하나의 개찰구로 많이 재교육되었지만 테스트에서는 boost에서 비교적 유사한 오류를 보여줍니다. Boost는 두 오류를 모두 균등하게 하지만 기다리면 기차의 그래프도 우주로 이동하고 테스트는 계속 매달려 있습니다. 단지 부스트가 더 잘 통제되고, aglib에서는 나무의 가지를 일찍 멈출 수 있는 수단이 없다는 것뿐입니다.

글쎄, 이것은 일반적으로 무작위이며, 물론 적립되지 않으며 부스트가 저장되지 않습니다.


글쎄, 네, 52-53, 아주 무작위는 아니지만 벌 수도 없습니다.

 
Alexander_K2 :

에휴....

다시 한 번 반복합니다. 마법사는 신경망에 대한 입력 데이터를 준비하는 방법만 알고 있습니다. 입력 데이터! 그리고 나서 그는 무엇을 사용해야 할지 신경 쓰지 않습니다.

예를 들어 드리겠습니다.

박사님이 여기 계셨던 걸로 기억합니다. 그리고 이제 그는 사라졌습니다 ... 가장 똑똑하고 열심히 일하는 사람! 그가 좌절하고 모든 것을 떨어뜨렸다고 생각합니까? 나는 생각하지 않는다!

나는 LS에서 그와 많은 작업을 했다. 그는 틱 인용문 수신/처리 분야에서 수십억 건의 연구를 수행했습니다. 나는 따옴표의 다른 출처를 가져 와서 얇아지고 얇아지지 않았으며 심지어 호로 구부렸습니다 ...

그리고 나서 - 한 번만 LAN이나 포럼에서 그것을 netuti합니다.

나는 그가 Sorcerer처럼 국회에 대한 의견을 준비할 방법을 찾았다고 생각합니다. 그리고 나서 그는 자유롭게 여기 포럼에 앉거나 앉지 않고 원하는 대로 할 수 있습니다.

그러나 그는 엄청난 일을 해냈습니다. 저는 그 일을 목격했습니다.

그 의사는 numerai로부터 받은 모든 비트코인을 잃어버린 것처럼 보였고 시장에 화를 냈습니다. 그는 분명히 "떨어졌다"고 맹세했습니다.

 
Alexander_K2 :

에휴....

다시 한 번 반복합니다. 마법사는 신경망에 대한 입력 데이터를 준비하는 방법만 알고 있습니다. 입력 데이터! 그리고 나서 그는 무엇을 사용해야 할지 신경 쓰지 않습니다.

예를 들어 드리겠습니다.

박사님이 여기 계셨던 걸로 기억합니다. 그리고 이제 그는 사라졌습니다 ... 가장 똑똑하고 열심히 일하는 사람! 그가 좌절하고 모든 것을 떨어뜨렸다고 생각합니까? 나는 생각하지 않는다!

나는 LS에서 그와 많은 작업을 했다. 그는 틱 인용문 수신/처리 분야에서 수십억 건의 연구를 수행했습니다. 나는 따옴표의 다른 출처를 가져 와서 얇아지고 얇아지지 않았으며 심지어 호로 구부렸습니다 ...

그리고 나서 - 한 번만 LAN이나 포럼에서 그것을 netuti합니다.

나는 그가 Sorcerer처럼 국회에 대한 의견을 준비할 방법을 찾았다고 생각합니다. 그리고 나서 그는 자신이 원하는 대로 자유롭게 여기 포럼에 앉거나 앉을 수 있습니다.

그러나 그는 엄청난 일을 해냈습니다. 저는 그 일을 목격했습니다.

그가 말한 것을 이해했습니까? - 그는 틱 인용문 수신/처리 분야에서 수십억 개의 연구를 수행했습니다. 나는 인용문의 다른 출처를 가져왔고, 얇아지고, 얇아지지 않았고, 심지어 그것들을 호로 구부렸습니다... 그것은 당신에게 아무것도 생각나게 하지 않습니까? 맞아요, 원숭이와 안경 - 안경을 이리저리 돌리세요. 안경을 왕관에 대고 꼬리에 묶고 코를 킁킁거리고 핥습니다. 귀하의 전문가를 위한 좋은 광고입니다.))

전문가에 관해서는, 예측 가능한 과거에 우리는 San Sanych 하나만 가지고 있었고 더 나은 것이 없기 때문에 하나였습니다. 적어도 그는 많은 사람들을 R로 끌어 들였습니다. 이미 그렇습니다.

ML 자체의 주제에 관해서는 수년 동안 존재하는 것 자체가 이미 거래 시스템으로서의 ML 접근 방식의 완전한 무의미함을 보여줍니다. 코끼리의 배설물을 연구함으로써 코끼리 자체에 대해 말할 수 있는 것은 거의 없으며 예측할 수 있는 것도 훨씬 적습니다. 따옴표는 다른 것이 아닙니다.

현재 지표 논리 시스템은 저렴한 비용으로 매우 실제적인 결과를 보여주는 경우가 많습니다. 따라서 그러한 시스템에서 MO를 사용할 수 있습니다. Forests-trees가 이러한 시스템에 대해 이미 만들어진 훈련 가능한 논리라고 가정해 봅시다. 일반적으로 기존 시스템에 대한 응용 솔루션으로서 MO는 꽤 작업 주제입니다.

사유: