유동 시장 매개변수 - 페이지 8

 

흥미로운


 
Rorschach :

흥미로운


쉽게 설명해주셔서 좋았어요:)

 
Valeriy Yastremskiy :

설명하기 쉽고 좋아요 :)

누구에게나 그런 선생님이 있어야 합니다.

무슨 화가: ns 다른 방법의 수준에서 (((하지만 컴퓨터 초지능은 어떻습니까?

나를 놀라게 한 점: 나는 추세를 제거하지 않았고, +-1 범위로 가져오지 않았고, 계절성을 제거하지 않았습니다.

흥미롭게도: 마지막 부분만 조정하고 최대 예측은 4개월을 넘지 않아야 합니다. 오류 누적을 방지하려면 즉시 2단계 앞서 예측하고 2배 1을 예측하지 마십시오(다시 말하지만, 그가 최소한 약간의 경제학자인 경우, 그는 대신 희석을 할 것입니다)

 
Rorschach :

누구에게나 그런 선생님이 있어야 합니다.

무슨 화가: ns 다른 방법의 수준에서 (((하지만 컴퓨터 초지능은 어떻습니까?

...

신경망에서는 절대 나타나지 않습니다. 그것은 자신에 대한 이해를 컴퓨터로 옮기는 한 사람의 국지적 자기 인식에서 비롯됩니다. )) 아마도 Elon Musk 일 것입니다.)))
 
Реter Konow :
신경망에서는 절대 나타나지 않습니다. 그것은 자신에 대한 이해를 컴퓨터로 옮기는 한 사람의 국지적 자기 인식에서 비롯됩니다. )) 아마도 Elon Musk 일 것입니다.)))

이것은 정말 갈 곳이 없는 돈으로 이루어집니다 .

내가 뭐 놓친 거 없니?

 
솔직히 말해서, 주님이 계시다면 진짜 AI를 만드는 과제는 무딘 카피로 해결되는 것이 아니라, 멀고도 험난한 본격적인 자의식을 통해서만 해결될 것입니다. 품질로서의 자기 인식은 단위와 고유성에 내재되어 있기 때문에 AI의 발명은 외톨이에 의해 수행 될 가능성이 큽니다. 임호.

나는 그것을 발명하고 싶지만 내 생각을 이해하지 못하고 그것 없이는 아무 것도 나오지 않을 것입니다. 어쩌면 누군가는 더 똑똑해야 합니다.
 
Rorschach :

누구에게나 그런 선생님이 있어야 합니다.

나를 놀라게 한 점: 나는 추세를 제거하지 않았고, +-1 범위로 가져오지 않았고, 계절성을 제거하지 않았습니다.

흥미롭게도: 마지막 부분만 조정하고 최대 예측은 4개월을 넘지 않아야 합니다. 오류 누적을 방지하려면 즉시 2단계 앞서 예측하고 2배 1을 예측하지 마십시오(다시 말하지만, 그가 최소한 약간의 경제학자인 경우, 그는 대신 희석을 할 것입니다)

그는 가능한 가장 높은 수준에서 충분한 예측을 했습니다. 이것은 일종의 선형 이동 평균 에 대한 균일한 고정 급수입니다. 그는 로그를 통해 확장 시리즈를 유니폼으로 이끌었습니다. 그러나 그가 말했듯이 모든 것은 인식 및 예측 모델에 의해 결정됩니다. 아마도 후자는 로그 없이 수행했을 것입니다. SB가 있는 경우 계열을 변환하면 역변환에서 오류가 발생합니다.

또 트랜드와 계절적 요소를 2시리즈로 나누는 것에 대해서도 말했다. 거기에서 계절 계열은 수평이 되고 추세 계열은 Mashny가 됩니다. Mashka가 선형이 아닌 경우 반드시 제거해야 합니다.

예측 범위보다 더 오랜 기간 동안 시리즈를 연구해야 하는데 얼마나 더 긴지 아직까지는 어디에서도 읽지 않고 눈으로만 봤다.

단계를 통한 예측의 문제에서 오류는 더 크지만 다르며 누적되지 않고 일시적입니다. 시도를 통해서만 어느 것이 더 많은지 알아내기 위해 일시적인 오류가 몇 단계에 걸쳐 누적된 것보다 적은 것이 논리적이지만 논리가 작동하지 않는 경우가 있습니다.

저는 Thinning에 대해 이해하지 못했습니다. 일련의 108개 값과 하나의 학습 및 예측 알고리즘만 있습니다. 그는 다른 알고리즘을 비교하는 데 탐닉하지도 않았지만 나쁘지는 않을 것입니다.

대상은 분명히 변경되어야 합니다. 그렇지 않으면 더 많은 대상이 있어야 하며 입력 데이터에 행에서 무언가를 추가해야 합니다.

 

예측이 좋았습니다))) 브라운을 정복할 계획이 있습니다)))) 이미 20년이 되었지만 임펄스 NS는 연구 중입니다)))))

 

Valeriy Yastremskiy :

예측 범위보다 더 오랜 기간 동안 시리즈를 연구해야 하는데 얼마나 더 긴지 아직까지는 어디에서도 읽지 않고 눈으로만 봤다.

저는 Thinning에 대해 이해하지 못했습니다. 일련의 108개 값과 하나의 학습 및 예측 알고리즘만 있습니다.

비율을 1:4로 유지합니다.

IMHO ns는 매우 어리석고 리소스 집약적이므로 작업을 단순화하고 네트워크 크기를 줄이기 위해 데이터를 사전에 지우거나 준비해야 합니다. 따라서 모든 명시적/선형 패턴은 수동으로 처리해야 합니다. 추세를 제거하고 계절성을 제거하고 + -1 범위로 가져옵니다. 네트워크의 모든 막대 2개를 예측할 때 중간 변동을 추가로 필터링해야 하므로 수동으로 처리해야 합니다. 그리고 모든 것이 수동으로 수행되기 때문에 nafik은 필요하지 않으며 전통적인 방식으로 수행하는 방법이 명확하지 않은 경우에만 필요합니다.