트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1510

 
마이클 마르쿠카이테스 :

바, 어떤 사람들. 마술사 당신이 내가 말하는 마술사입니까? 대문자로 표기했음을 알 수 있습니다 :-)

당신이 진실을 말하고 있기 때문에 당신에게 무슨 일이 일어났습니까? 잘 했어, 앉아, 다섯. 특히 데이터로 설명된 입력 값의 포인트 공간을 분할할 때 추가할 것이며, 우리의 경우 이것이 다차원 공간인 경우 가장 중요한 것은 영역을 나누는 것입니다. 예 또는 아니오 그룹에 속하지만 입력 벡터의 FUTURE 값도 바리케이드의 양쪽에 올바르게 분산시키는 것이 중요합니다. 우리와 적. 그러나 미래에 네트워크가 작동하게 하려면 현재의 것을 나누는 것뿐만 아니라 다항식 계수가 입력 데이터 없이 독립적으로 작동할 수 있도록 나누는 것이 필요합니다. 이 경우에만 그리드가 작동합니다. 나는 결과 다항식의 일반화 수준을 계산하는 것에 대해 오랫동안 머리를 쥐어 뜯었습니다. 그러나 일반화의 결과도 미래에 있고 안정적으로 계산할 수 없기 때문에 가정 할 수 있습니다. 일반화를 결정하는 방법은 간접적입니다. 옵션으로: 다항식 계수를 얻을 때 역최적화를 수행하십시오 ....... 흠 .... 시도해야 합니다 ...

 

추가하겠습니다. 신경망은 분명히 "이해"해야 하며 이것이 동일한 패턴이라고 추측합니다. 대피의 "의미"를 수십 가지 다른 방법으로 표현할 수 있습니다. 교통 규칙과 교통 관리에 대해 아는 사람은 실제로 이것이 하나의 동일한 패턴임을 쉽게 결정할 수 있습니다. 이 특정 패턴에서 가장 중요한 것은 "피난"입니다. 견인 트럭과 피난 차량이 얼마나 개략적으로 표시되는지, 열 번째 것은 어떤 색상과 크기인지입니다. 시장에서 동일한 것이, 또한 동일한 의미를 갖는 동일한 패턴이 시각적으로 매우 다를 수 있으며( 시장 차트 의 프랙털리티로 인한 왜곡으로 인해) 그 반대의 경우도 마찬가지입니다. 의미와 의미에서" 완전히 다른 패턴/판. 이 순간에 차원이 다른 파도가 형성되었을 뿐입니다. 올빼미는 보이는 것과 다릅니다. (c) Twin Peaks :)

신경망은 "의미"를 이해해야 합니다. 이것이 없으면 방법이 없습니다. 그녀가 패턴을 잘못 식별하고, 실수를 하고, 두뇌처럼 흐릿하게 작동하도록 하십시오. 그러나 의미를 조금이라도 포착하려면 "그림"을 명확하게 인식하는 것보다 이것이 더 중요합니다.

그림에서와 같이 매우 유사한 기호를 생각해낼 수 있습니다. 일반 신경망은 이 기호와 혼동할 가능성이 높지만 DD 논리의 관점에서 보면 완전히 다른 의미를 갖습니다. 당신은 당신 자신의 자연 신경망을 훈련하기 위해 고안하고 그릴 수도 있습니다 - 나는 너무 게으르다 :)


 
마법사2018 :

신경망은 "의미"를 이해해야 합니다. 이것이 없으면 방법이 없습니다. 그녀가 패턴을 잘못 식별하고, 실수를 하고, 두뇌처럼 흐릿하게 작동하도록 하십시오. 그러나 의미를 조금이라도 포착하려면 "그림"을 명확하게 인식하는 것보다 이것이 더 중요합니다.

그것은 작동하지 않을 것이고 그 아이디어는 일종의 허구입니다 - 당신은 자동차가 어떻게 생겼는지 아십니까? 어린 시절 그림을 기억합니까? .... 그리고 말을 제외하고는 다른 운송 수단을 본 적이 없다고 상상해보십시오. 여기에 그런 어리석은 표시가 있습니다 - 검은 색 "구멍이있는 사각형")))))

당신은 그러한 태블릿의 의미를 이해할 수 있을 것이라는 당신의 지력을 확신합니까?



 
마이클 마르쿠카이테스 :

바, 어떤 사람들. 마술사 당신이 내가 말하는 마술사입니까? 대문자로 표기했음을 알 수 있습니다 :-)

이 사람(사람입니까?)은 Grail 의 앞면이고 Vizard_는 그 뒷면입니다. Grail 자체는 사람들에게 전체를 볼 수 있도록 주어지는 것이 아니며, 그렇게 되어서도 안 됩니다.

오, 스레드에 Alyosha-son이 더 이상 없다는 것이 유감입니다. 그리고 지금... 으악!

 
Alexander_K :

이 사람(사람인가?)은 Grail의 앞면이고 Vizard_는 그 뒷면입니다. Grail 자체는 사람들에게 전체를 볼 수 있도록 주어지는 것이 아니며, 그렇게 되어서도 안 됩니다.

오, 스레드에 더 이상 Alyosha-son이 없다는 것이 유감입니다. 그리고 지금... 으악!

방금 문제가 해결되었습니다. 검색이 없습니다. 검색과 모험 없이 때때로 단조로운 최적화.

 
이고르 마카누 :


"이것을 되찾으세요" :))

 
막심 드미트리예프스키 :

"이것을 되찾으세요" :))

글쎄요))

글쎄, 그리고 조금 더 반성 - 사람들은 포로 경향이 있습니다 (환상? 일반적으로인지 왜곡 - 이제 망상이라고 부르는 것이 유행하는 것 같습니다)

그래서 MO와 컴퓨터 기술이나 로봇의 가능성에 대한 모든 토론이 있습니다. 그들은 이것이 FSE 쓰레기라고 말합니다. 사람은 훨씬 시원합니다!



간단한 예를 들어보겠습니다.

1. Newton은 사과에 맞았고(그런데 그것은 사실이 아니었습니다) 그는 독창적인 공식을 발명했습니다! - 사과로 두개골을 긁을 때 비슷한 결과를 얻으려면 어떤 표본을 채취해야 합니까? 아니면 PC에서 이러한 작업을 실행하고 가능한 모든 데이터를 왜곡하고 이 문제에 대한 해결책을 찾는 것이 더 쉬울까요?

2. 경험과 좋은 소프트웨어가 있는 항공 개발자 팀을 가정해 보겠습니다. 새 동체를 개발한 후 풍동에서 테스트하는 이유는 무엇입니까? - 그들은 똑똑한 사람들이고 PC조차도 그들을 돕습니까?


내가 왜 이것을 쓰는가? - 예, 사실은 발명의 99%가 우연이며 모든 복잡성으로 인해 수학 장치 자체는 기본 사항(바람이 어떻게 부는지!)을 설명할 수 없다는 것입니다.

사람이 창조의 왕관이고 컴퓨터 프로그램이 "바보 계산 운"이라고 생각하는 것, IMHO, 이것은 또 다른 망상입니다. 사람은 임의의 행동(신체적 또는 정신적 행동)을 통해 자신을 천재로 만들고, MO도 같은 일을 합니다. - 임의의 행동을 수행하여 문제에 대한 해결책 찾기

추신: 기계에 비해 사람의 장점은 연상적 사고의 존재일 뿐이지만, 여기에서도 이 장점이 어느 정도인지 논쟁할 수 있습니다. - 때때로 사람의 이전 경험은 새로운 문제를 해결하는 데 도움이 되는 것보다 더 방해가 되며 연상 기억은 긍정적인 이전 경험을 기반으로 해결책을 찾도록 제안합니다(((

 
이고르 마카누 :

처음에는 사과를 던졌는데 몬테카를로인줄 알았어요 :))

 
막심 드미트리예프스키 :

처음에는 사과를 던졌는데 몬테카를로인줄 알았어요 :))

Monte Carlo 는 초기 조건에 대한 명확한 규칙이 없기 때문에 좋지만 결과를 평가할 때 꽤 좋은 통계적 오류가 있습니다.

아직 방법을 모르겠습니다. Q-learning + Monte Carlo의 특정 혼합을 만들고 싶지만 테스터가 아닌 시각화 모드에서 NS가 Angry Birds를 재생하도록 가르치는 대략적인 방법

 
이고르 마카누 :

Monte Carlo는 초기 조건에 대한 명확한 규칙이 없기 때문에 좋지만 결과를 평가할 때 꽤 좋은 통계적 오류가 있습니다.

아직 방법을 모르겠습니다. Q-learning + Monte Carlo의 특정 혼합을 만들고 싶지만 테스터가 아닌 시각화 모드에서 NS가 Angry Birds를 재생하도록 가르치는 대략적인 방법

https://medium.com/datadriveinvestor/teaching-a-robot-to-buy-low-sell-high-c8d4f061b93d

인공 데이터는 기사에서와 같이 작동합니다. 그러나 모든 것이 다시 비정상 상태가 됩니다. :)

mb 내 기사에서 차별화 된 고정 시리즈를 가져 가면 흥미로운 것이있을 것입니다.

예, MDP를 사용한 kunilerning이 작동하기 때문에 지금은 모델에 메모리가 남아 있도록 LSTM 레이어를 삽입하려고 합니다. Habré에 대한이 주제의 저자 기사에서처럼.

Teaching a Robot to ‘Buy Low, Sell High’ - Data Driven Investor - Medium
Teaching a Robot to ‘Buy Low, Sell High’ - Data Driven Investor - Medium
  • G. Lemus
  • medium.com
“If we can put a man on the moon, we must be able to X”. (informal fallacies or false analogies) But now it uses Alpha Go or Watson examples: If “AlphaGo Zero: Google DeepMind supercomputer [can learn] 3,000 years of human knowledge in 40 days” [link] In AI in Finance: Cutting Through the Hype I explained several examples of the application of...
사유: