트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1748

 
피터 코노우 :
즉, 국회의 업무는 어떤 식으로든 최적화와 연결되어 있습니까?

예, 최적화에서 f 번째(뉴런). 그것들은 아주 많고 다양한 방식으로 연결될 수 있습니다.

 
막심 드미트리예프스키 :

하하하)))

Essno는 그것이 사실이 아닌 곳에서도 무례하지만 어딘가에 있습니다. 그리고 더 이해하기 쉽습니다. 극한값 검색을 최적화하려면 가장 긴 전체 검색이 필요합니다.))))) RNG - 훨씬 더 높은 주파수에 대한 바인딩되지 않은 저주파 프로세스의 부과, 검색 최적화 - 검색의 논리적 씬닝. 다른 모든 것을 이해하는 것이 더 쉽습니다.

 
피터 코노우 :
어느 정도 이것은 필수입니다. 자신이 만든 것만 진정으로 이해할 수 있습니다. 나는 원래 국회의 개념에 넣어진 아이디어를 재현하려고 노력하고 있습니다.

개념은 매우 간단합니다. 모든 다차원 함수는 1차원 함수의 구성으로 근사할 수 있습니다. 나는 "기능"의 개념이 이미 당신에 의해 발명되기를 바랍니다)

 
알렉세이 니콜라예프 :

개념은 매우 간단합니다. 모든 다차원 함수는 1차원 함수의 구성으로 근사할 수 있습니다. 나는 "기능"의 개념이 이미 당신에 의해 발명되기를 바랍니다)

"다차원 함수"의 개념에 대한 독립적인 정의를 찾지 못했습니다. 확률론의 '분포함수'가 있고 그 안에 '다차원 분포함수'의 형태가 고려되지만 ML 기술에 대한 언급은 없다.

다차원 함수가 NN과 관련되어 있다면 그 본질과 거리가 멀다는 것은 자명합니다. 아마도 일부 기술적 뉘앙스의 구현과 관련된 것입니다. 본질을 이해하려고 합니다.
 
알렉세이 니콜라예프 :

개념은 매우 간단합니다. 모든 다차원 함수는 1차원 함수의 구성으로 근사할 수 있습니다. 나는 "기능"의 개념이 이미 당신에 의해 발명되기를 바랍니다)

1차원 인수에 대한 마이너스 1 인수 분해는 일반적으로 이해할 수 있지만 전체 검색보다 빠르게 1차원 인수의 구성에서 극값을 찾는 방법을 설명하는 것이 얼마나 쉬운지 설명합니다.

 
여기, 본질을 이해하는 보고에 있는 또 다른 생각:

함수(뉴런) 내부의 데이터 조각을 "가중치"로 변환하는 것은 네트워크 응용 프로그램의 통합 및 보편화를 위한 것입니다.
 
얘들 아, 네트워크를 훈련 할 때 최적의 값을 찾는 메커니즘에 집착하는 것 같지만 훈련은 장치의 본질이 아니라 작업 프로세스의 일부입니다.
 
피터 코노우 :
여기, 본질을 이해하는 보고에 있는 또 다른 생각:

함수(뉴런) 내부의 데이터 조각을 "가중치"로 변환하는 것은 네트워크 응용 프로그램의 통합 및 보편화를 위한 것입니다.

설명과 함께 동영상을 작성하세요. 명확하지 않습니다.

 
막심 드미트리예프스키 :

설명과 함께 동영상을 작성하세요. 명확하지 않습니다.

너무 이르다, 나는 아직도 이해하지 못한다.
 
피터 코노우 :
"다차원 함수"의 개념에 대한 독립적인 정의를 찾지 못했습니다. 확률론의 '분포함수'가 있고 그 안에 '다차원 분포함수'의 형태가 고려되지만 ML 기술에 대한 언급은 없다.

다차원 함수가 NN과 관련되어 있다면 그 본질과 거리가 멀다는 것은 자명합니다. 아마도 일부 기술적 뉘앙스의 구현과 관련된 것입니다. 본질을 이해하려고 합니다.

다차원 함수는 도메인이 다차원 공간인 일반적인 수학 함수입니다. NN의 경우 이것은 기능 공간 입니다.

수학자가 수학을 어떻게 하는지 묻고 싶습니다. 학교에서 수학을 전혀 공부했습니까?)

사유: