트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 627

 
알렉세이 테렌테프 :

그리고 첫글이 삭제된거 같은데요. 그는 도표를 블로그에 올렸습니다. =)

예, 포럼에서 내 자신의 메시지를 찾는 데 지쳤습니다. D 적어도 링크를 제공할 수 있습니다.
 
막심 드미트리예프스키 :
예, 포럼에서 내 자신의 메시지를 찾는 데 지쳤습니다. D 적어도 링크를 제공할 수 있습니다.
그래서 다른 사람들에게 같은 것을 반복하지 않기 위해 기사를 썼습니다 ...
 
마이클 마르쿠카이테스 :

여기에 기사가 아직 그려지지 않았습니다. 결과가 흥미롭다면 나중에 발행할 수 있습니다.

왜냐하면 저는 게으름뱅이로 천천히 하고, 일주일 동안은 쉬는 시간을 가집니다. :)

 
막심 드미트리예프스키 :

여기에 기사가 아직 그려지지 않았습니다. 결과가 흥미롭다면 나중에 발행할 수 있습니다.

왜냐하면 저는 게으름뱅이로 천천히 하고, 일주일 동안은 쉬는 시간을 가집니다. :)

편집과 함께 한 달 정도 내 글을 썼다... 초판의 순간부터 출판까지.....
 
막심 드미트리예프스키 :

새로운 네트워크 다이어그램을 스케치했습니다. 이것이 첫 번째 설명입니다. 속편이 있을 것입니다(희망)

나는 이것을 위해 memoriza를 위해 블로그를 만들었습니다. 그렇지 않으면 포럼에서 생각의 스크랩을 찾는 데 지쳤습니다.

https://rationatrix.blogspot.ru/2018/01/blog-post.html

당신은 따뜻함과 부드러움을 혼동하고 있습니다. 네트워크 결과에 대한 데이터를 제출하는 것은 악의적인 행위입니다.

그리드를 혼동하기만 하면 동일한 패턴이 한 경우에는 늘어나고 다른 경우에는 떨어지는 이유를 이해할 수 없습니다.

그리고 모든 것은 이전 결과의 값이 데이터에 혼합되어 있기 때문입니다. 이는 이전 거래의 결과와 자본 모두에 적용됩니다.

피트니스 기능을 메시 본체에 나사로 고정하려고 합니다. 그러나 선과 악에 대한 지식은 외국 지식이며 그리드 메커니즘에는 적용되지 않습니다.

스토리를 제출하려면 MLP에서 반복 그리드로 전환하십시오.

그러나 당신의 가설은 (IMHO) catdog입니다.

ZY 그리고 예, 이미 입력하면 재교육에 문제가 있다고 썼습니다. NS의 현대 과학은 오래전에 이 문제를 해결했습니다.

가장 쉽고 이해하기 쉽고 효과적인 방법은 교차 검증 (google it)입니다.

 
니콜라이 뎀코 :

당신은 따뜻함과 부드러움을 혼동하고 있습니다. 네트워크 결과에 대한 데이터를 제출하는 것은 악의적인 행위입니다.

그리드를 혼동하기만 하면 동일한 패턴이 한 경우에는 늘어나고 다른 경우에는 떨어지는 이유를 이해할 수 없습니다.

그리고 모든 것은 이전 결과의 값이 데이터에 혼합되어 있기 때문입니다. 이는 이전 거래의 결과와 자기자본 모두에 적용됩니다.

피트니스 기능을 메시 본체에 나사로 고정하려고 합니다. 그러나 선과 악에 대한 지식은 외국 지식이며 그리드 메커니즘에는 적용되지 않습니다.

스토리를 제출하려면 MLP에서 반복 그리드로 전환하십시오.

그러나 당신의 가설은 (IMHO) catdog입니다.

분명히 당신을 위한 신경망은 하나의 정의인 퍼셉트론에 있습니다. IMHO, 이것이 눈에 보이는 빙산의 일각일 뿐이라고 의심하지도 않습니다. 심지어 아주 작습니다.

그리고 아무도 아직 재교육에서 이기지 못했습니다. 모스크바 지역의 영역에 대한 당신의 이해는 고양이를 울게 만들었습니다.
 
니콜라이 뎀코 :

당신은 따뜻함과 부드러움을 혼동하고 있습니다. 네트워크 결과에 대한 데이터를 제출하는 것은 악의적인 행위입니다.

그리드를 혼동하기만 하면 동일한 패턴이 한 경우에는 늘어나고 다른 경우에는 떨어지는 이유를 이해할 수 없습니다.

그리고 모든 것은 이전 결과의 값이 데이터에 혼합되어 있기 때문입니다. 이는 이전 거래의 결과와 자본 모두에 적용됩니다.

피트니스 기능을 메시 본체에 나사로 고정하려고 합니다. 그러나 선과 악에 대한 지식은 외국 지식이며 그리드 메커니즘에는 적용되지 않습니다.

스토리를 제출하려면 MLP에서 반복 그리드로 전환하십시오.

그러나 당신의 가설은 (IMHO) catdog입니다.

나는 강화와 함께 네트워크의 아날로그를 만들고 싶습니다. 불행히도 순환 그리드는 환경에 대해 전혀 모르고 응답이 없습니다. 강화 메쉬가 있습니다. 하지만 어떻게 해야 할까요? 마음에 오는 첫 번째 일은 예를 들어 형평성을 통해 그녀의 성과가 외부에서 불만족스러운 경우 그녀를 차버리는 것입니다.

아마도 catdog, 나는 xs 및 IMHO .. 그냥 멋집니다 :) 그리고 모든 것이 간단합니다. 많은 시간이 걸리지 않을 것입니다.

 
니콜라이 뎀코 :

ZY 그리고 예, 이미 입력하면 재교육에 문제가 있다고 썼습니다. NS의 현대 과학은 오래전에 이 문제를 해결했습니다.

가장 쉽고 이해하기 쉽고 효과적인 방법은 교차 검증 (google it)입니다.

나는 이것에 대해 모든 것을 알고 교차 검증도 적합하지만 더 정교합니다.

재발은 또한 스스로 순환하며 때로는 배울 수 없습니다.

그리고 나는 잘 이해하지 못했습니다. 당신은 입력에 네트워크 출력을 공급할 수 없다고 말하고 반복을 사용하기 위해 작성합니다. :) 그리고 그녀는 이렇게만 합니다. 그녀는 그녀의 출력을 먹습니다.

recurrent는 가장 간단한 경우 자체를 먹는 일반 MLP입니다.

 
막심 드미트리예프스키 :

나는 이것에 대해 모든 것을 알고 교차 검증도 적합하지만 더 정교합니다.

재발은 또한 스스로 순환하며 때로는 배울 수 없습니다.

그리고 나는 잘 이해하지 못했습니다. 당신은 입력에 네트워크 출력을 공급할 수 없다고 말하고 반복을 사용하기 위해 작성합니다. :) 그리고 그녀는 이렇게만 합니다. 그녀는 그녀의 출력을 먹습니다.

recurrent는 가장 간단한 경우 자체를 먹는 일반 MLP입니다.

아니요, 시장 데이터와 네트워크 성능을 혼동하지 말라고 했습니다.

다시 말해, 네트워크는 견적을 처리하고 마지막 트랜잭션이 성공했는지 여부에 대한 데이터를 여기에 밀어넣습니다. 이것은 이질적인 데이터이며 혼합할 수 없습니다.

그리고 일반적으로 네트워크가 잘 작동하는지 아닌지는 별도의 블록의 문제입니다(GA에서는 피트니스 함수라고 부르는 데 익숙하고 NN에서는 오류 함수의 이름을 사용하지만 본질은 같은).

backprop으로 네트워크를 훈련한다고 가정하면 오류가 데이터의 일부인 버터 오일이 되는 것으로 나타났습니다. 내 말을 이해하기를 바랍니다.

 
알렉세이 테렌테프 :

분명히 당신을 위한 신경망은 하나의 정의인 퍼셉트론에 있습니다. IMHO, 이것이 눈에 보이는 빙산의 일각일 뿐이라고 의심하지도 않습니다. 심지어 아주 작습니다.

그리고 아무도 아직 재교육에서 이기지 못했습니다. 모스크바 지역의 영역에 대한 당신의 이해는 고양이를 울게 만들었습니다.

저는 Maxim이 제공하는 특정 네트워크에 대해 이야기하고 있었습니다.

세 문장을 이해하지 못한다면 ... 글쎄, 내가 당신에게 무엇을 말해야하는지 당신 스스로 알 것입니다))

사유: