Wikipedia는 다음과 같이 작성합니다. - [네젠트로피]라는 용어 는 엔트로피 값과 수학적으로 반대되는 양을 나타내기 위해 물리학 및 수학(정보 이론, 수학적 통계 )에서 때때로 사용됩니다. https://en.wikipedia.org/wiki/Negentropy
따라서 엔트로피를 계산할 수 있으며 음수 부호와 함께 취하여 네겐트로피를 얻을 수 있습니다.
R에서 엔트로피 계산, 수십 가지 중에서 가장 쉬운 방법(경험적 엔트로피):
1) 우리가 관심을 갖는 일련의 숫자 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7이 있습니다.
2) 각 값의 반복 횟수를 계산합니다. 열하나 2:1 3:3 4:7 7:3 8:1 9:2 10:2 새로운 일련의 숫자를 얻었습니다 1 1 3 7 3 1 2 2 숫자의 합을 계산합니다. 합계 = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20 (합 == 첫 번째 단락의 행 길이가 논리적임) 이제 우리는 다음과 같이 나눕니다. 1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20 우리는 다음을 얻습니다. 0.05 0.05 0.15 0.35 0.15 0.05 0.10 0.10 이것은 첫 번째 단락에서 시리즈의 숫자 분포 밀도입니다.
그래서 평행선이 교차한다는 말입니까(지지와 저항)?
대가로! 글쎄, 또는 반환 적분.
대가로! 글쎄, 또는 반환 적분.
다음은 엔트로피를 사용하는 한 가지 방법입니다.
npdeneq 테스트 밀도 등식에 대한 비모수 검정
npdeptest 쌍별 종속성에 대한 비모수 엔트로피 테스트
npsdeptest 직렬 비선형 종속성에 대한 비모수 엔트로피 테스트
npsymtest 비대칭에 대한 비모수 엔트로피 테스트
npunitest 일변량 밀도 등식에 대한 비모수 엔트로피 테스트
서류를 들고 있습니다. 여기에 공식이 있습니다. R과 np 패키지를 사용한 엔트로피 기반 추론: A 입문서
Wikipedia에서 계산 공식만 보았습니다.
현재 확률 분포는 혼돈의 척도로서 정규 분포와 비교됩니다.
아이디어를 얻지 못했습니다.
귀하의 문구에서 내가 이해한 것은 순서화된 프로세스는 정규 분포를 가질 수 없다는 것입니다.
묻겠습니다. 그런 발언이 나왔나요?
무작위성과 정규성은 어떻게 관련되어 있습니까?
ZY 나는 반박하지 않고 관심이 있습니다.
순서가 지정된 프로세스는 정규 분포를 가질 수 없습니다.
쎄 비밀! 쯧쯧...
그래서 나는 네겐트로피에 관한 철학적 논문을 읽었다.
예를 들어 -
글쎄, 적어도 나에게 이 네겐트로피를 계산하는 방법에 대한 힌트를 주십시오.
그리고 나서 네포나센스키를 욕하고 이해받고 싶다.
위협 나는 모든 것을 구글링하고 여가 시간에 obyandexil을 찾았습니다. 일반적인 문구 외에는 아무것도 찾지 못했습니다. 네젠트로피는 엔트로피의 반대, 즉 질서의 척도입니다. 저녁에 구글링을 하다가 얻은게 이게 전부입니다.
나는 그것을 구글링하지 않았지만 저항선과 지지선의 교차점을 상상할 수 없습니다. 자동차 얘기만 빼면...
나는 그것을 구글링하지 않았지만 저항선과 지지선의 교차점을 상상할 수 없습니다. 자동차 얘기만 빼면...
코펜하겐 해석이 있습니다. 모든 것이 그 안에 있을 수 있습니다.
코펜하겐 해석이 있습니다. 모든 것이 그 안에 있을 수 있습니다.
존경하는 동료들의 반응을 기다려볼까요?
Wikipedia는 다음과 같이 작성합니다. - [네젠트로피]라는 용어 는 엔트로피 값과 수학적으로 반대되는 양을 나타내기 위해 물리학 및 수학(정보 이론, 수학적 통계 )에서 때때로 사용됩니다.
https://en.wikipedia.org/wiki/Negentropy
따라서 엔트로피를 계산할 수 있으며 음수 부호와 함께 취하여 네겐트로피를 얻을 수 있습니다.
R에서 엔트로피 계산, 수십 가지 중에서 가장 쉬운 방법(경험적 엔트로피):
1) 우리가 관심을 갖는 일련의 숫자 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7이 있습니다.
2) 각 값의 반복 횟수를 계산합니다.
열하나
2:1
3:3
4:7
7:3
8:1
9:2
10:2
새로운 일련의 숫자를 얻었습니다 1 1 3 7 3 1 2 2
숫자의 합을 계산합니다.
합계 = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(합 == 첫 번째 단락의 행 길이가 논리적임)
이제 우리는 다음과 같이 나눕니다.
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
우리는 다음을 얻습니다.
0.05 0.05 0.15 0.35 0.15 0.05 0.10 0.10
이것은 첫 번째 단락에서 시리즈의 숫자 분포 밀도입니다.
3) 엔트로피 = - sum(freq*log(freq) (R 구문의 벡터 공식. log() 자연)
H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15) + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log( 0.10) + 0.10*log(0.10) )
H는 엔트로피입니다.
4) 아직 저울이 있으며, 사용자가 원할 경우 결과에 대해 작업을 수행합니다.
H / 로그(2)
또는
H / 로그(10)
5) H에 -1을 곱하고 네겐트로피를 얻습니다.
5) H에 -1을 곱하고 네겐트로피를 얻습니다.
모든 것이 그렇게 간단하다면 나는 존경받는 수학자에게 이 문제를 다루도록 요청하지 않을 것입니다.
다시:
이것은 현재 증분 확률 분포 와 주어진 표본 크기에 대해 평균과 분산이 동일한 가우스 분포 간의 차이입니다.
문제는 증분의 분산이 일반적인 공식을 사용하여 계산할 수 없다는 것입니다. 비모수적 방법을 사용해야 합니다 :))
또한, 이 공식은 깊은 철학적, 물리적 의미를 가지고 있습니다. 우리는 프로세스의 구조화, 혼돈으로부터의 편차를 측정했습니다.
주님! 쾌활한 노인과 청년!
Negentropy - 트렌드/플랫의 상태를 결정짓는 파라미터입니다 !!!
나는 당신에게 그것을 준다.