트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3295

 
Maxim Dmitrievsky #:

1. 이것이 최적화와 어떤 관련이 있나요?

2. 반문 💩 신경망은 최적화인가 근사화인가?

1. "여기"는 무엇과 관련이 있나요?

2. 신경망이 근사화기라는 것을 아직도 모르시나요?

 
Andrey Dik #:

1. "여기"는 어디인가요?

2. 신경망이 근사치라는 것을 아직도 모르시나요?

모르시나 보군요. 그렇지 않다면 근사치가 무슨 관련이 있는지 궁금하지 않을 것입니다.

어떤 목적으로 최적화를 논의에 포함시켰나요?

이 두 가지가 서로 다르다는 것을 이해하시나요?
 
Andrey Dik #:

아니요, 그런 얘기가 아닙니다.
이질적인 정보의 축적은 연결점을 찾지 못하게 뿐이며 많은 모순이 발생합니다.
그러나 특정 수준까지만, 특정 수준에서는 모놀리스를 형성하기에 충분한 정보가 너무 많아서 누락 된 퍼즐 자체가 복원되기 시작합니다.

예를 들어 서로 다른 금속으로 만들어진 두 개의 막대의 평평한 표면을 연마하면 거칠기가 적을수록 막대가 서로 잘 미끄러집니다. 표면을 계속 연마하면 막대가 서로 달라 붙고 분자가 두 막대에서 서로 침투하기 시작하여 마찰력이 더 이상 감소하지 않고 반대로 점프와 같은 성장이 발생합니다!

모순 될 가능성이 높지만 아이디어는 분명합니다.

동의합니다

하지만 갑작스러운 성장은 없을 것이기 때문입니다:

- 모든 사람이 지능의 발달을 멈추지 않을 정도로 고집스러운 것은 아니기 때문입니다.

- 영업 비밀과 높은 가격이 형성되기 시작하여 공급과 수요가 감소합니다.

여러분의 생각은 처음에 자신의 그래프에 있습니다: 높은 품질에 낮은 수량.

고품질을 위해 과도한 양의 정보가 버려집니다.
 
Maxim Dmitrievsky #:
모르시는 모양입니다. 그렇지 않았다면 근사치가 무슨 관련이 있는지 궁금하지 않았을 것입니다.

어떤 목적으로 최적화를 논의에 포함시켰나요?

이것들이 서로 다른 것임을 깨달을 수 있나요?

제가 질문에 답했는데 왜 같은 말을 반복하시나요?

제 게시물은 비뚤어진 FF를 언급한 Sanych의 게시물에 대한 답변이었습니다.

이해가 되시나요?

또한 최적화 없이는 어떤 종류의 학습도 불가능하다는 것을 이해할 수 없으며 분리 할 수없는 것들입니다.

 
Andrey Dik #:

질문에 답했는데 왜 같은 말을 반복하나요?

제 게시물은 비뚤어진 FF를 언급한 Sanych의 게시물에 대한 답변이었습니다.

이해가 되시나요?

그리고 어떤 형태의 학습도 최적화 없이는 불가능하다는 것을 이해할 수 없으며 분리 할 수없는 것들입니다.

그는 우리에게 극한이라는 개념이 없다고 정확하게 썼습니다. 우리는 모델 오류의 구성 요소인 새로운 데이터에 대한 근사치 및 안정성 기준을 가지고 있습니다.
 
Renat Akhtyamov #:

모순적일 수도 있겠지만 이해가 갑니다.

동의합니다

하지만 갑작스러운 성장은 없을 것입니다:

- 모든 사람이 지능의 발달을 멈추지 않을 정도로 고집스러운 것은 아니기 때문입니다.

- 영업 비밀과 높은 가격이 형성되기 시작하여 공급과 수요가 감소합니다.

처음에는 자신의 그래프에 대한 생각입니다.

저는 광택이 나는 막대의 예를 들었는데, 마찰력이 급증합니다.

물론 정보가 있으면 점프는 없지만 부드럽게 전환됩니다.

 
Maxim Dmitrievsky #:
그는 우리에게 극값의 개념이 없다고 정확하게 썼습니다. 모델 오류의 구성 요소인 새로운 데이터에 대한 근사치 및 안정성 기준이 있습니다.

근사치와 안정성 기준을 반복적으로 개선하나요, 그렇지 않나요?

아니면 동화에서 부자가 30년 동안 밥솥 위에 누워 있다가 갑자기 일어나서 모든 사람의 엉덩이를 걷어찼을 때처럼 움직이지 않는 관절의 윤활유가 사라져서 부자가 열흘 안에 아무도 걷어차지 못하고 일어나지 못하는 것일까요?

동화에서처럼 그냥 하면 되는 거죠. 아니, 반복해서 점수를 올리면서 최적화하는 과정입니다.

 
Andrey Dik #:

근사치 및 안정성 기준을 반복적으로 개선하나요, 그렇지 않나요?

아니요, 반복적으로 개선하면서 추정치를 개선하는 최적화 프로세스입니다.

무슨 뜻인가요? 다항식의 차수를 높이면 어떻게 되나요?
 
Maxim Dmitrievsky #:
무슨 뜻인가요?

이미 질문을 잊으셨나요?
최적화하지 않는다고 생각하더라도 항상 최적화를 수행한다는 뜻입니다.
여러분의 기준은 최적화 방법으로 개선하는 FF입니다.
 
Andrey Dik #:

아직 질문을 잊으셨나요?
최적화하지 않는다고 생각하더라도 항상 최적화를 수행해야 합니다.
여러분의 기준은 최적화 방법으로 개선하는 FF입니다.
질문이 없습니다. 저는 왜 많은 수의 기능이 인과 관계 추론에서 좋지 않은 결과를 제공하는지 썼습니다.

당신은 그것에서 추상화 된 것을 쓰고 있습니다.
사유: