트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 563

 
막심 드미트리예프스키 :

fuhh.. 처음부터 내 모습까지 전체 주제를 읽었습니다.. 이제 나는 모든 것을 보았습니다.

하지만 나는 거기에서 성배를 찾지 못했습니다 .. 죄송합니다. 나중에 내 것을 선택할 것입니다.

이것은 올바른 결정입니다. 여기 포럼의 NS 이론은 이상적이지 않습니다.
 
알렉산더_K2 :
이것은 올바른 결정입니다. 여기 포럼의 NS 이론은 이상적이지 않습니다.

내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해

 
알렉산더_K2 :
이것은 올바른 결정입니다. 여기 포럼의 NS 이론은 이상적이지 않습니다.
그리고 그녀는 여기에 전혀 필요하지 않습니다. 전체 이론은 이미 우리보다 오래 전에 언급되었습니다. )
 
막심 드미트리예프스키 :

내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해

바로 지금, 처음으로 나는 활을 뿌릴 것입니다. 유리는 보이는 것처럼 단순하지 않습니다. 물리학 자! 나는 그가 무엇을 하고 있는지 이해했습니다. 그는 두 개의 병렬 프로세스가 진행 중인 것 같았습니다. 하나는 확률론적인 것으로 거래할 때가 된 것 같다고 합니다. 두 번째 - NS는 좋거나 거부합니다. 더 이상 말하지 않겠습니다 - 그가 스스로에게 말하게 하십시오.
 
막심 드미트리예프스키 :

내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해

그리고 그 비밀을 어디에서 찾았습니까?

MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.

내 의견으로는 주요 원칙이 이 주제에 명시되어 있습니다.

 
유리 아사울렌코 :

그리고 그 비밀을 어디에서 찾았습니까?

MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.

내 의견으로는 주요 원칙이 이 주제에 명시되어 있습니다.


그것은 일종의 농담이었습니다 :)

 
막심 드미트리예프스키 :

그것은 일종의 농담이었습니다 :)

아니요. 정말 아무것도 없습니다. 당신은 Haikin과 Bishop이 절망적으로 구식이고 새로운 것을 찾고 있다고 생각합니다(이전에 썼습니다). 그리고 나는 그것들로 충분합니다.
 
유리 아사울렌코 :
아니요. 정말 아무것도 없습니다. 당신은 Haikin과 Bishop이 절망적으로 구식이며 새로운 것을 찾고 있다고 생각합니다. 그리고 나는 그것들로 충분합니다.

아뇨 제가 그런 농담을 하는 것 같다는 얘기인데요.. 결국 주제에 너만 나온 얘기네요 :)

Monte Carlo 방법으로 퍼셉트론 훈련을 구글링해야 합니다.

일반적으로 이 방법은 특정 학습 에이전트가 있을 때 RL(reinforcement learning)과 의미가 매우 유사하며 NN 자체가 최적의 솔루션을 찾는 방법을 학습합니다.

 

이것이 Alpha Go가 학습되는 방식입니다(이전에는 이것이 창의적인 게임이고 기계가 그 안에 있는 사람을 이길 수 없다고 가정했지만)

그리고 그것은 이겼다

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
막심 드미트리예프스키 :

아뇨 제가 그런 농담을 하는 것 같다는 얘기입니다.. 결국 주제에 너만 나온 얘기네요 :)

Monte Carlo 방법으로 퍼셉트론 훈련을 구글링해야 합니다.

일반적으로 이 방법은 특정 학습 에이전트가 있을 때 RL(reinforcement learning)과 의미가 매우 유사하며 NN 자체가 최적의 솔루션을 찾는 방법을 학습합니다.

그건 그렇고, 나는 크게 당신 덕분에 왔습니다. 내가 처음 시작할 때 Reshetov의 기사에 대한 링크를 제공한 것은 당신이었습니다. 이 기사는 일반적으로 적용의 예가 아니라 말을 어디에서 이용할 수 있는지 대략적으로 분명해졌습니다.

Google에 그러한 방법이 있는지 여부는 모르겠습니다. 왜냐하면 그는 결국 몬테카를로에 왔습니다.

저도 RL은 잘 모르겠는데 간략히 설명해주시니 제 방식 같네요.

Google에서 Monte Carlo를 찾았습니다. https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf 이것만 완전히 다릅니다.

사유: