트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 816

 
로프필드 :

모든 사람이 자신의 모델을 가지고 있기 때문에 이 주제의 메시지는 의미가 없습니다. 혼란의 참가자를 통합하는 유일한 것은 MQL5와 외부 도구의 통합입니다. Spark Random Forest에서 Alglib(MQL5) 형식으로 변환하는 변환기가 있습니다 . 통합에 대한 공통 순무를 만드는 것이 좋습니다. 모든 사람에게 이점이 있습니다.

추신. 나는 Git을 선호한다

왜, 어떤 문제를 해결합니까? 예가 있습니까?

 
로프필드 :

모든 사람이 자신의 모델을 가지고 있기 때문에 이 주제의 메시지는 의미가 없습니다. 혼란의 참가자를 통합하는 유일한 것은 MQL5와 외부 도구의 통합입니다. Spark Random Forest에서 Alglib(MQL5) 형식으로의 변환기가 있습니다. 통합에 대한 공통 순무를 만드는 것이 좋습니다. 모든 사람에게 이점이 있습니다.

추신. 나는 Git을 선호한다

python용 패키지를 보니 가져오기 기능 도 없습니다.

scikit learn에만 동일한 것이 있습니까?

 
마법사_ :

Fa, 예, 당신은 이미 몇 년 동안 kuynyu를 가지고 다녔습니다. glm(.~... , family = "binomial") 이고
물류))) 모든 것을 던집니다. 이 스레드에서는 Doc과 Toxic만 적절합니다...

가장 적절한 hrenfx, 그는 5000 달러와 백만 달러를 거래했습니다. 양 고추 냉이는이 포럼을 능가했습니다. 아마도 이제 그는 Bilderberg Club에서 인류의 운명을 결정하고 모든 예금을 100 달러 마틴과 자동차로 분산시키고 있습니다

 
알료샤 :
그는 현재 이 포럼에서 활동 중입니다.
 
결합기 :
그는 현재 이 포럼에서 활동 중입니다.

이름은 무엇입니까?

 
마법사_ :
아니, 알료샤. 우리는 더 이상 Martin과 함께 Mashki에 가지 않습니다. 법은 우리의 삶의 즐거움을 빼앗았습니다.

예, martin, ML on python 또는 R이 있는 자동차가 어떤 종류의 경비원이나 점원이 "직관"에 따라 생크를 비틀면 결과는 동일합니다. Fa는 적어도 분명히 bezpontovy GARCH가 제공합니다. 과거 가격이 미래의 가장 좋은 예측인 법은 사람들을 안심시키기 위해 헛된 노력을 기울이지 않고 더 정직합니다.

 
알료샤 :

예, martin, ML on python 또는 R이 있는 자동차가 어떤 종류의 경비원이나 점원이 "직관"에 따라 생크를 비틀면 결과는 동일합니다. Fa는 적어도 분명히 bezpontovy GARCH가 제공합니다. 과거 가격이 미래의 가장 좋은 예측인 법은 사람들을 안심시키기 위해 헛된 노력을 기울이지 않고 더 정직합니다.

그리고 구간에서 70%의 확실성을 가진 예측은 거의 효과가 없습니다. 그다지 어렵지는 않지만 여전히 의미가 없습니다.

 

왜, 아무도 아이디어가 없다면 확률의 주제를 파헤 치자

이게 정말 마지막 남은 일이라고 생각하고, 이것이 차량을 개선하지 않으면 원칙적으로 재교육을 극복 할 수 없습니다

"동조자"의 마음을 방해하지 않기 위해 지금은 보류할 몇 가지 흥미로운 아이디어가 있습니다.

이것은 단지 흥미로운 기사입니다

https://habrahabr.ru/post/276355/

Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
  • 2029.02.16
  • habrahabr.ru
То, о чем я попытаюсь сейчас рассказать, выглядит как настоящая магия. Если вы что-то знали о нейронных сетях до этого — забудьте это и не вспоминайте, как страшный сон. Если вы не знали ничего — вам же легче, полпути уже пройдено. Если вы на «ты» с байесовской статистикой, читали вот эту и вот эту статьи из Deepmind — не обращайте внимания на...
 
막심 드미트리예프스키 :

이것은 단지 흥미로운 기사입니다

https://habrahabr.ru/post/276355/

기억이 잘 안나는데 아마 좋은 글들이 있었을 겁니다. 저는 무엇보다 먼저 국회를 공부하기 시작했을 때 읽었습니다. 저것들. 거의 1년 전.

 
유리 아사울렌코 :

기억이 잘 안나는데 아마 좋은 글들이 있었을 겁니다. 저는 무엇보다 먼저 국회를 공부하기 시작했을 때 읽었습니다. 저것들. 거의 1년 전.

흥미로운 순간이 있기 때문에 오랫동안 던졌습니다. 이제 돌아왔습니다. (베이지안 NN 자체에 따르면이 아니라 원칙적으로)

사유: