지뢰밭에서의 시장예절 또는 예의범절 - 페이지 67

 
Neutron >> :

예, 제가 무엇을 말할 수 있습니까? 앞으로!

파스투호프를 읽으십시오. 박사 학위 논문

당신은 꽤 놀랄 것입니다.

찾을 수 없습니다. 링크를 던질 수 없습니다. 이 작품을 리뷰하고 싶습니다. 평소에 논문을 잘 읽지 않는데 왜 쓰는지 뻔해서 그래도 생각해볼 수 있는 계기가 되었으면 하는 바램입니다.

 

물론 정말 똑똑한 사람들은 논문을 쓰지 않은 사람들뿐입니다! 그들만이 이 세상에서 진짜 일을 합니다. 그리고 일생에 한 번 이상 이 작품을 쓴 사람들은 그 이후로는 소년이 아닙니다. 그리고 휴대폰이 있는 TV는 Dudes with Heifers가 발명한 것입니다. ... 아니면, 그들은 이 휴대폰만 사용하지만 TV는 전혀 보지 않습니다... 저도 혼란스럽습니다. 그리고 재료의 힘을 모르면 비행기를 만들 수 없다는 사실, 그게 아무것도 아닌 걸까요? 그리고이 분야에서 승인 된 작업 없이는 sopromat를 작성할 수 없으며 이것은 이미 논문입니다 ...

따라서 등록 , 당신은 논문을 읽는 것이 아니라 "... 그들이 쓰여진 목적이 분명 하기 때문에"가 아니라 그 안에 쓰여진 내용을 이해하지 못하기 때문입니다!

기분 나쁘게 하지마, 알았지?

 

따라서 매개변수가 있는 단일 레이어를 사용합니다.

K=1, d=24+1,S(학습률)=0.01 공부를 잘 하는 것을 알 수 있습니다.




저것들. 내가 이해하는 한 네트워크 교육의 품질은 이 그래프에서 다음과 같이 추정할 수 있습니다. 분산이 작을수록 평균 오류의 최종 값이 작아지고 이러한 오류가 서로 가까울수록 좋습니다.

네트워크는 다음과 같이 작동합니다.


저것들. 그것은 그다지 ... 학습률을 높이십시오 : S = 0.7


더 좋아 보이지만 훈련 통계가 의심스러워 보입니다.


질문:

1. 네트워크의 훈련성(학습성)을 평가하는 기준은 무엇입니까?

2. 이 예가 적합하다고 간주될 수 있습니까?

3. K 값이 민감한 문제라고 말씀하셨습니다. 아래 그래프는 더 매력적으로 보이는 K < 1인 네트워크 훈련을 보여줍니다.

첫 번째:


시장 유형의 VR에 대한 학습 벡터의 값이 상수 값이 아닐 수 있습니까?


그리고 마지막으로: 이것에 대한 나의 훈련은 끝났습니까?

 
Neutron >> :

물론 정말 똑똑한 사람들은 논문을 쓰지 않은 사람들뿐입니다! 그들만이 이 세상에서 진짜 일을 합니다. 그리고 일생에 한 번 이상 이 작품을 쓴 사람들은 그 이후로는 소년이 아닙니다. 그리고 휴대폰이 있는 TV는 Dudes with Heifers가 발명한 것입니다. ... 아니면, 그들은 이 휴대폰만 사용하지만 TV는 전혀 보지 않습니다... 저도 혼란스럽습니다. 그리고 재료의 힘을 모르면 비행기를 만들 수 없다는 사실, 그게 아무것도 아닌 걸까요? 그리고이 분야에서 승인 된 작업 없이는 sopromat를 작성할 수 없으며 이것은 이미 논문입니다 ...

따라서 등록 , 당신은 논문을 읽는 것이 아니라 "... 그들이 쓰여진 목적이 분명 하기 때문에"가 아니라 그 안에 쓰여진 내용을 이해하지 못하기 때문입니다!

기분 나쁘게 하지마, 알았지?

범죄가 없습니다. 근데 링크가 어디있나요?

 
registred писал(а) >>

범죄가 없습니다. 근데 링크가 어디있나요?

개인전으로 던졌습니다.

채우다!

시발

생각 좀해볼 게.

 
그건 그렇고, 나는 솔직히 이것을 이해하려고 노력했지만 가장 일반적인 조항을 제외하고는 논문에 쓰여진 내용을 이해하지 못합니다 ... 슬픈.
 
Neutron >> :

개인전으로 던졌습니다.

놓친 것 같습니다. 거기에는 아무것도 없습니다.

 
Neutron >> :

물론 정말 똑똑한 사람들은 논문을 쓰지 않은 사람들뿐입니다! 그들만이 이 세상에서 진짜 일을 합니다. 그리고 일생에 한 번 이상 이 작품을 쓴 사람들은 그 이후로는 소년이 아닙니다. ... 그리고이 분야에서 승인 된 작업 없이는 sopromat을 작성할 수 없으며 이것은 이미 논문입니다 ...

나의 우상인 러시아 수학자 오일러는 약 800편의 논문을 썼는데, 각각은 현대 논문보다 덜 중요하고 참신합니다.

 
paralocus писал(а) >>

1. 네트워크의 훈련성(학습성)을 평가하는 기준은 무엇입니까?

2. 이 예가 적합하다고 볼 수 있습니까?

3. K 값이 민감한 문제라고 말씀하셨습니다.

K 계수를 사용하면 예상한 것만큼 간단하지 않습니다. 또한 Yezhev는 신경망의 가중치 및 입력 수의 함수로 훈련 벡터의 최적 길이에 대한 추정치를 얻었습니다. 그는 NN의 기능 공간에서 엔트로피를 최소화하는 문제를 해결하여 얻었습니다. 나는 솔루션을 제공하지 않고 기성품 답변 P=w*w/d 만 제공했습니다. 실제로 다음을 참조하십시오.

이것은 2계층 학습 역학입니다. 첫 번째 옵션은 P=d이고 두 번째 옵션은 P=w 입니다... 결과는 동일하며 학습률이 학습 벡터 P 의 길이에 의존한다는 점을 감안할 때 첫 번째 옵션이 더 매력적으로 보입니다! 한마디로 혼돈...

그가 심문할 수만 있다면 이 문제를 올바르게 제시하고 해결해 달라는 요청으로 수학자 에게 다가가십시오. 그것은 멋진 것입니다! 따라서 실험 데이터를 수집해야 합니다. 경험적으로 움직인다. 훈련 벡터의 최적 길이는 조건 P=d 근처에 있는 것 같습니다.

네트워크 성능을 평가하기 위한 좋은 기준은 MTS 코어에서의 작동이지만 디버깅 단계에서는 위에서 제가 제안한 수익성 추정치를 사용할 수 있습니다: 기울기 각도의 탄젠트와 기기의 변동성의 곱. 예를 들어, 다음은 이 추정이 단일 레이어에 대한 입력 차원의 함수로 보이는 것입니다.

이것은 일련의 500번의 실험에 대한 평균 결과입니다. 항목 차원이 10인 이 소녀는 통계적으로 스프레드보다 훨씬 높은 입찰가를 제시했습니다! 다른 견적 샘플(예: 한 달 후)에서 이것이 확인되면 안전하게 거래할 수 있습니다. 결과를 이 양식으로 가져오십시오. 상의하자. 그런 다음 2층에 데이터를 중첩하면 차이점을 볼 수 있습니다 ...

배움에 관해서는, 당신과 대화에 참여하는 포럼 회원들과의 이러한 대화 덕분에 나는 나 자신을 배우고 있고 이 과정이 끝이 없을 것이라고 확신합니다. ... 바랍니다.

등록된 >>

놓친 것 같습니다. 거기에는 아무것도 없습니다.

무엇, 그리고 주제가 없습니다. 아니면 그냥 파일?

 

아니요. 개인적으로는 전혀 없습니다.