트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1747

 
마이클 마르쿠카이테스 :
여기서 다시, 어떤 종류의 쓰레기가 내 메시지에 들어갑니다. 뭐야???

적어도 그것은) 그들이 돌아와서 기쁩니다)))

 
NS의 수학적 원리를 이해할 수 없습니다.

내가 이해하는 것:

1. 훈련 샘플 - 의미 불변의 수정된 표현을 포함하는 격리된 데이터 블록.

2. NN의 구조는 첫 번째 레이어가 데이터를 수신하고(그리고 이를 위해 필요한 수의 뉴런을 가짐) "뉴런"의 연속 레이어의 집합이며 나머지 레이어는 첫 번째 레이어에서 처리된 데이터를 일반화하도록 설계되었습니다. 레이어를 만들고 명확한 프로그램 논리에 의해 작동되는 불변으로 가져옵니다.

3. "뉴런" - 훈련 샘플에서 데이터 조각을 입력으로 순차적으로 수신하고 이 조각을 "가중치"로 변환하고 다음 계층으로 전달하는 기능입니다.

데이터 자체가 아니라 "가중치"를 수정하는 여러 필터 레이어를 통해 데이터의 명백한 불변량이 수학적으로 "껍질"에서 지워지는 방법이 명확하지 않습니다.
 
피터 코노우 :
NS의 수학적 원리를 이해할 수 없습니다.

내가 이해하는 것:

1. 훈련 샘플 - 의미 불변의 수정된 표현을 포함하는 격리된 데이터 블록.

2. NN의 구조는 첫 번째 레이어가 데이터를 수신하고(그리고 이를 위해 필요한 수의 뉴런을 가짐) "뉴런"의 연속 레이어의 집합이며 나머지 레이어는 첫 번째 레이어에서 처리된 데이터를 일반화하도록 설계되었습니다. 레이어를 만들고 명확한 프로그램 논리에 의해 작동되는 불변으로 가져옵니다.

3. "뉴런" - 훈련 샘플에서 데이터 조각을 입력으로 순차적으로 수신하고 이 조각을 "가중치"로 변환하고 다음 계층으로 전달하는 기능입니다.

데이터 자체가 아니라 "가중치"를 수정하는 여러 필터 레이어를 통해 데이터의 명백한 불변량이 수학적으로 "껍질"에서 지워지는 방법이 명확하지 않습니다.

구름 속에서 가장 높은 언덕을 찾으십시오. 구름 뒤에는 높이가 보이지 않습니다. 저주파는 우리가 조사하지 않은 고도가 없는 고도의 시작 부분을 찾아 그 근처에서 조사합니다. 입면이 시작되는 부분은 조사가 가능하며 작은 부분은 취하지 않습니다. 현명한 선택입니다. 그러나 어쨌든 그것은 알고리즘입니다. 어쨌든 아주 작은 확률로 완전한 검색은 다양한 옵션을 잃지 않을 것입니다. 모든 검색 논리를 사용하여 일단 양쪽 끝에서 시작하면 원하는 논리로 반복할 때 더 빠른 검색을 찾을 확률이 다음보다 높습니다. 전체 순차로.

 
피터 코노우 :
NS의 수학적 원리를 이해할 수 없습니다.

당신은 그것을 이해하려고 하는 것이 아니라 발명하려고 하는 것입니다.

NN의 수학적 기초를 이해하려면 Kolmogorov - Arnold - Hecht-Nilson 이론을 숙지해야 합니다.

 
알렉세이 니콜라예프 :

당신은 그것을 이해하려고 하는 것이 아니라 그것을 만들어내려고 하는 것입니다.

NN의 수학적 기초를 이해하려면 Kolmogorov - Arnold - Hecht-Nilson 이론을 숙지해야 합니다.

드물게 명확하게 설명합니다. 그리고 공식을 이해하는 사람은 거의 없습니다))))))

 
알렉세이 니콜라예프 :

당신은 그것을 이해하려고하지 않습니다 - 당신은 그것을 발명하려고합니다 ...

어느 정도 이것은 필수입니다. 자신이 만든 것만 진정으로 이해할 수 있습니다. 나는 원래 국회의 개념에 넣어진 아이디어를 재현하려고 노력하고 있습니다.
 

불변량을 결정할 때 오류의 역전파를 통해 뉴턴 또는 준-뉴턴 최적화 방법에 의한 뉴런 기능의 로컬 또는 글로벌 극한값 검색, 그라디언트의 다른 단계 설정

피터는 이해할 것이다

 
발레리 야스트렘스키 :

구름 속에서 가장 높은 언덕을 찾으십시오. 구름 뒤에는 높이가 보이지 않습니다. 저주파는 우리가 조사하지 않은 고도가 없는 고도의 시작 부분을 찾아 그 근처에서 조사합니다. 입면이 시작되는 부분은 조사가 가능하며 작은 부분은 취하지 않습니다. 현명한 선택입니다. 하지만 어쨌든 알고리즘입니다. 어쨌든 아주 작은 확률로 완전한 검색은 다양한 옵션을 잃지 않을 것입니다. 모든 검색 논리를 사용하여 일단 양쪽 끝에서 시작하면 원하는 논리로 반복할 때 더 빠른 검색을 찾을 확률이 다음보다 높습니다. 전체 순차로.

하하하)))

 
발레리 야스트렘스키 :

구름 속에서 가장 높은 언덕을 찾으십시오. 구름 뒤에는 높이가 보이지 않습니다. 저주파는 우리가 조사하지 않은 고도가 없는 고도의 시작 부분을 찾아 그 근처에서 조사합니다. 입면이 시작되는 부분은 조사가 가능하며 작은 부분은 취하지 않습니다. 현명한 선택입니다. 하지만 어쨌든 알고리즘입니다. 어쨌든 아주 작은 확률로 완전한 검색은 다양한 옵션을 잃지 않을 것입니다. 모든 검색 논리를 사용하여 일단 양쪽 끝에서 시작하면 원하는 논리로 반복할 때 더 빠른 검색을 찾을 확률이 다음보다 높습니다. 전체 순차로.

내 의견으로는 이 설명이 GA에 더 적합합니다.)))
 
막심 드미트리예프스키 :

불변량을 결정할 때 오류의 역전파를 통해 뉴턴 또는 준-뉴턴 최적화 방법에 의한 뉴런 기능의 로컬 또는 글로벌 극한값 검색, 그라디언트의 다른 단계 설정

피터는 이해할 것이다

즉, 국회의 업무는 어떤 식으로든 최적화와 연결되어 있습니까?
사유: