반전 확률 계산 - 페이지 8

 
Aleksey Nikolayev :

자, 이제 Cauchy 또는 Laplace 분포의 밀도를 살펴보겠습니다.

그래서 Cauchy와 Laplace는 무엇과 관련이 있습니까) 배포 유형에 관심이 없으며 설치할 계획도 없습니다)

그리고 가우스 매개변수는 필요하지 않습니다. 질문이 다릅니다.

 
secret :

... 가우시안에 얼마나 가깝고, 어디에서 가우시안과 얼마나 차이가 나는지, 얼마나 ...

데이터가 표준 코시 분포에 따라 정확하게 분포되어 있다는 사실이 확실하게 알려진 가상의 경우에 이 질문에 어떻게 답할 것인지 알고 싶었습니다. 그러면 실제 데이터의 경우에 대답하기가 더 쉬울 것입니다. 예를 들어, 십분위수 편차 모듈의 합이 최소인 가우시안을 취하는 라인을 따르는 것 등이 있습니다.

글쎄, 또는 나는 질문을 전혀 이해하지 못했습니다.

 
Aleksey Nikolayev :

데이터가 표준 코시 분포에 따라 정확하게 분포되어 있다는 사실이 확실하게 알려진 가상의 경우에 이 질문에 어떻게 답할 것인지 알고 싶었습니다. 그러면 실제 데이터의 경우에 대답하기가 더 쉬울 것입니다. 예를 들어, 십분위수 편차 모듈의 합이 최소인 가우시안을 취하는 라인을 따르는 것 등이 있습니다.

글쎄, 또는 나는 질문을 전혀 이해하지 못했습니다.

Alexey, 코시 분포 비유를 실제로 어떻게 적용할 수 있습니까?

재미있는 후기, 소리가 나지 않았습니다.

 
Aleksey Nikolayev :

데이터가 표준 코시 분포에 따라 정확하게 분포되어 있다는 사실이 확실하게 알려진 가상의 경우에 이 질문에 어떻게 답할 것인지 알고 싶었습니다. 그러면 실제 데이터의 경우에 대답하기가 더 쉬울 것입니다. 예를 들어, 십분위수 편차 모듈의 합이 최소인 가우시안을 취하는 라인을 따르는 것 등이 있습니다.

글쎄, 또는 나는 질문을 전혀 이해하지 못했습니다.

글쎄, 최소 제곱에 의한 일반적인 선형 근사. 편차 제곱의 합이 최소인 가우스를 취합니다.

문제는 분포의 중심에서 편차 값이 0.1 정도로 허용될 수 있다는 것입니다. 그리고 꼬리에는 예를 들어 약 0.01이 있습니다.

저것들. 피팅은 주로 유통 센터의 지점에서 발생합니다.

그리고 모든 포인트가 동등하게 참여해야 한다고 생각합니다.

이렇게 하려면 수직 축에 대수 눈금을 사용하거나 편차-차이 대신 편차-부분을 사용할 수 있습니다. 하나의 분포를 다른 분포로 나눈 다음 근사화합니다.

 
secret :

글쎄, 최소 제곱에 의한 일반적인 선형 근사. 편차 제곱의 합이 최소인 가우스를 취합니다.

문제는 분포의 중심에서 편차 값이 0.1 정도로 허용될 수 있다는 것입니다. 그리고 꼬리에서는 예를 들어 약 0.01입니다.

저것들. 피팅은 주로 유통 센터의 지점에서 발생합니다.

그리고 모든 포인트가 동등하게 참여해야 한다고 생각합니다.

이렇게 하려면 수직 축에 대수 눈금을 사용하거나 편차-차이 대신 편차-부분을 사용할 수 있습니다. 하나의 분포를 다른 분포로 나눈 다음 근사화합니다. .

드물지만 포인트의 "참여"가 중앙값(중앙)에 가깝고 훨씬 더 자주 발생하는 것과 동일한 이유가 있습니까? 근사치에서의 역할이 왜 그렇게 증가합니까? "꼬리가 개를 흔든다"는 말이 나오지 않습니까?

사실, 다른 포인트의 역할을 제어하기 위해 가중치가 있는 LSM이 있습니다. 예를 들어 그것들을 정규 분포 의 확률 밀도의 역수로 지정하면 됩니다. 가장 중요한 것은 가중치의 합이 1로 유지된다는 것입니다. 그런데 직선 근사가 아닌 경우 "최소 제곱에 의한 선형 근사"는 무엇입니까?

Ядерная оценка неизвестной плотности вероятности
Ядерная оценка неизвестной плотности вероятности
  • www.mql5.com
Совершенствование языка MQL5 в плане его быстродействия и постоянный рост производительности персональных компьютеров привели к тому, что пользователи платформы MetaTrader 5 все чаще для анализа рынка стали использовать достаточно сложные, развитые математические методы. Эти методы могут принадлежать различным областям экономики, эконометрики...
 
Vladimir :

드물지만 포인트의 "참여"가 중앙값(중앙)에 가깝고 훨씬 더 자주 발생하는 것과 동일한 이유가 있습니까? 근사치의 역할이 왜 그렇게 증가합니까? "꼬리가 개를 흔든다"는 말이 나오지 않습니까?

사실, 다른 포인트의 역할을 제어하기 위해 가중치가 있는 LSM이 있습니다. 예를 들어 그것들을 정규 분포 의 확률 밀도의 역수로 지정하면 됩니다. 중요한 것은 가중치의 합이 1로 유지된다는 것입니다. 그런데 "선형" 최소 자승법이란 무엇입니까?

1. 물론 있습니다. 꼬리가 큽니다. 시장과 관련하여 - 드물지만 큰 손실. 이것은 역할을 강화하는 것이 아니라 역할 부족에 대한 보상으로 결과적으로 모든 지점에 동일한 역할을 부여합니다.

2. 웨이트가 있는 MNC에 대해 알고 있습니다. 문제는 근사 기술이 아니라 그 이데올로기에 있습니다.

3. 값 사이에 선형 관계를 가정할 때.

 
secret :

1. 물론 있습니다. 꼬리가 큽니다. 시장과 관련하여 - 드물지만 큰 손실.

2. 웨이트가 있는 MNC에 대해 알고 있습니다. 문제는 근사 기술이 아니라 그 이데올로기에 있습니다.

3. 값 사이에 선형 관계를 가정할 때.

1. 이것은 더 이상 확률적 접근 방식이 아닙니다. 확률 분포 의 꼬리 부분은 미미한 드문 경우를 의미하고, 주요, 유의미한 경우에는 가장자리로 갈수록 급격히 감소하는 자체 분포가 있습니다.

2. 질문은 다음과 같습니다. "그런데 Alexey와 Vladimir, 알려주세요. 일부 데이터를 정규 분포로 근사하고 싶다고 가정해 봅시다. 분포의 꼬리와 중간은 근사에서 동일한 가중치를 가져야 합니다. ?"

대답은 '아니오. 문제가 확률론적 방법으로 모델링되면 물론 다른 것보다 더 자주 발생하는, 즉 더 가능성이 높은 이벤트가 더 중요합니다. 이것은 이념적입니다.

3. 선형 인과 관계를 의미합니까? 그리고 MNK는 상관하지 않습니다. 거기에 어떤 관련이 있습니까?

 
secret :

글쎄, 최소 제곱에 의한 일반적인 선형 근사. 편차 제곱의 합이 최소인 가우스를 취합니다.

문제는 분포의 중심에서 편차 값이 0.1 정도로 허용될 수 있다는 것입니다. 그리고 꼬리에는 예를 들어 약 0.01이 있습니다.

저것들. 피팅은 주로 유통 센터의 지점에서 발생합니다.

그리고 모든 포인트가 동등하게 참여해야 한다고 생각합니다.

이렇게 하려면 수직 축에 대수 눈금을 사용하거나 편차-차이 대신 편차-부분을 사용할 수 있습니다. 하나의 분포를 다른 분포로 나눈 다음 근사화합니다.

Pearson의 적합도 검정(카이 제곱)을 다소 연상시킵니다. 세 번째 장의 Kobzar를 보십시오. 분포 모수가 알려지지 않고 표본에서 추정되는 경우(예: 카이제곱 통계량 최소화) 단순 귀무 가설과 복잡한 귀무 가설의 차이를 명확하게 이해하기만 하면 됩니다.

 
Vladimir :

1. 이것은 더 이상 확률적 접근 방식이 아닙니다. 확률 분포의 꼬리 부분은 미미한 드문 경우를 의미하고, 주요, 유의미한 경우에는 가장자리로 갈수록 급격히 감소하는 자체 분포가 있습니다.

2. 질문은 "그런데 Alexey와 Vladimir가 말해주세요. 일부 데이터를 정규 분포로 근사하고 싶다고 가정해 봅시다. 분포의 꼬리와 중간은 근사에서 동일한 가중치를 가져야 합니다. ?"

대답은 '아니오. 문제가 확률론적 방법으로 모델링되면 물론 다른 것보다 더 자주 발생하는, 즉 더 가능성이 높은 이벤트가 더 중요합니다. 이것은 이념적입니다.

3. 선형 인과 관계를 의미합니까? 그리고 MNK는 상관하지 않습니다. 거기에 어떤 관련이 있습니까?

1. 그것들은 중요하지 않습니다. 이러한 "사소한" 경우 중 하나는 "주요" 항목에서 얻은 모든 것을 잃을 수 있습니다.

3. 선형 상관관계. 어쨌든 LSM은 LSM이 아니라 선형 근사라고 불렀습니다.

 
Aleksey Nikolayev :

Pearson의 적합도 검정(카이 제곱)을 다소 연상시킵니다. 세 번째 장의 Kobzar를 보십시오. 분포 모수가 알려지지 않고 표본에서 추정되는 경우(예: 카이제곱 통계량 최소화) 단순 귀무 가설과 복잡한 귀무 가설의 차이를 명확하게 이해하기만 하면 됩니다.

따라서 분포 매개변수를 평가하는 작업이 없습니다)