2. 우리는 신경망에서 거품을 얻고 싶습니다 ... 오, 아니요. 첫째, 우리는 움직임의 방향과 가능하다면 그 강도의 추정치를 얻고자 합니다(예: 핍).
지금까지 (내 개념에 따르면) 신경망은 근사치로 남아 있습니다. 그래서 사실 입력변수와 출력변수의 기능적 관계를 표현하려고 합니다. 따라서 입력에 대한 내 생각. 그것들은 너무 복잡하지 않아야 하고 우리는 결과적으로 너무 많은 것을 원하지 않아야 합니다. 출력을 사용하면 어느 정도 명확합니다(방향, 높이). 그러나 입력 에 있는 것은 . 나는 3일째 머리를 긁적이다. 항상 일정한 간격으로 놓이도록 입력 신호를 처리하는 방법을 생각해내지 못하는 것이 매우 답답합니다. 왜냐하면 우리가 전체 샘플의 최대값으로 정규화하면 미래에 더 높은 값이 나타날 가능성이 항상 있기 때문입니다. 물론 사인이나 동일한 시그모이드와 같은 입력을 처리하는 옵션이 있지만 선형 압축을 원하기 때문에 이 모든 것이 잘못된 것 같습니다.
출력을 위해 아마도 쌍곡선 의존성을 사용할 것입니다. (Up-Dn)/(Up+Dn). 칠면조가 포함되어 있습니다.
2. 우리는 신경망에서 거품을 얻고 싶습니다 ... 오, 아니요. 첫째, 우리는 움직임의 방향과 가능하다면 그 강도의 추정치를 얻고자 합니다(예: 핍).
하지 않는 것이 좋습니다. 방향만 있으면 됩니다. 가능한 경우 힘을 상단에 조일 수 있습니다.
지금까지 (내 개념에 따르면) 신경망은 근사치로 남아 있습니다.
어, 그래.
그래서 사실 입력변수와 출력변수의 기능적 관계를 표현하려고 합니다. 따라서 입력에 대한 내 생각. 그것들은 너무 복잡하지 않아야 하고 우리는 결과적으로 너무 많은 것을 원하지 않아야 합니다. 출력을 사용하면 어느 정도 명확합니다(방향, 높이). 그러나 입력 에 있는 것은 . 나는 3일째 머리를 긁적이다. 항상 일정한 간격으로 놓이도록 입력 신호를 처리하는 방법을 생각해내지 못하는 것이 매우 답답합니다.
MACD
물론 사인이나 동일한 시그모이드와 같은 입력을 처리하는 옵션이 있지만 선형 압축을 원하기 때문에 이 모든 것이 잘못된 것 같습니다.
여기. 작업은 압축하는 것이 아니라 나누는 것이므로 선형 압축 이 아니라 XOR로도 나눌 수 없는 선형 나누기 가 됩니다.
따라서 비선형성이 있어야 합니다. n층 선형 퍼셉트론이 2층 아날로그 -- 입력 --> 출력으로 변환될 수 있다는 이론이 있습니다.
여기. 작업은 압축하는 것이 아니라 나누는 것이므로 선형 압축 이 아니라 XOR로도 나눌 수 없는 선형 나누기 가 됩니다.
따라서 비선형성이 있어야 합니다. n층 선형 퍼셉트론이 2층 아날로그 -- 입력 --> 출력으로 변환될 수 있다는 이론이 있습니다.
이것은 출력 신호의 비선형성을 나타냅니다. 입력 데이터를 네트워크 에 공급하기 전에 선형 압축합니다. 모든 orpatches의 데이터를 기반으로 간격 [0, 1]로 압축. 일부 비선형 함수에 의해 범위가 변환되면 큰 값에 대해 포화 상태가 되고 그 사이에는 차이가 없습니다. 그리고 이것은 반복 과 따라서 불일치가 있을 것임을 의미합니다. 압축은 어떻게든 선형적으로 수행되어야 합니다. 그러나 미래에 최대로 유지되도록하는 방법. (모스크 쉿)?
일부 비선형 함수에 의해 범위가 변환되면 큰 값에 대해 포화 상태가 되고 그 사이에는 차이가 없습니다. 그리고 이것은 반복 과 따라서 불일치가 있을 것임을 의미합니다. 압축은 어떻게든 선형적으로 수행되어야 합니다. 그러나 미래에 최대로 유지되도록하는 방법. (모스크 쉿)?
입력 값도 쉬운 질문이 아닙니다. 네트워크 입력에 적용할 사항은 여러 요인에 따라 다릅니다.
1. 어떤 종류의 신경망이 사용됩니까?
2. 신경망에서 무엇을 얻고자 합니까 - 가격이나 이동 방향, 반전 지점 또는 다음 캔들 또는 다른 것.
따라서 이러한 문제를 먼저 결정한 다음 입력으로 문제를 해결해야 합니다.
지금은 두 개의 네트워크에 대해서만 이야기할 것을 제안합니다.
1. 코호넨 네트워크
2. MLP
나머지는 나중을 위해 남겨두겠습니다.
1. 신경망 4-5층 일반(고리, 별 및 기타 요소 없이 직접 전파).
2. 우리는 신경망에서 거품을 얻고 싶습니다 ... 오, 아니요. 첫째, 우리는 움직임의 방향과 가능하다면 그 강도의 추정치를 얻고자 합니다(예: 핍).
지금까지 (내 개념에 따르면) 신경망은 근사치로 남아 있습니다. 그래서 사실 입력변수와 출력변수의 기능적 관계를 표현하려고 합니다. 따라서 입력에 대한 내 생각. 그것들은 너무 복잡하지 않아야 하고 우리는 결과적으로 너무 많은 것을 원하지 않아야 합니다. 출력을 사용하면 어느 정도 명확합니다(방향, 높이). 그러나 입력 에 있는 것은 . 나는 3일째 머리를 긁적이다. 항상 일정한 간격으로 놓이도록 입력 신호를 처리하는 방법을 생각해내지 못하는 것이 매우 답답합니다. 왜냐하면 우리가 전체 샘플의 최대값으로 정규화하면 미래에 더 높은 값이 나타날 가능성이 항상 있기 때문입니다. 물론 사인이나 동일한 시그모이드와 같은 입력을 처리하는 옵션이 있지만 선형 압축을 원하기 때문에 이 모든 것이 잘못된 것 같습니다.
출력을 위해 아마도 쌍곡선 의존성을 사용할 것입니다. (Up-Dn)/(Up+Dn). 칠면조가 포함되어 있습니다.
지금은 두 개의 네트워크에 대해서만 이야기할 것을 제안합니다.
1. 코호넨 네트워크
2. MLP
MLP 다층 퍼셉트론이란 무엇입니까?
코호넨은 카라슈토. 하지만 아마 두 번째로. 비록 ... 무엇을, 어디서 이해하는 것이 정상일 것입니다.
그건 그렇고, 코호넨은 선생님 없이 배우고 있지 않습니까?
MLP-다층 퍼셉트론이란 무엇입니까?
예
그건 그렇고, 코호넨은 선생님 없이 배우고 있지 않습니까?
원래 버전에서는 그렇습니다. 그러나 감독된 코호넨(supervised Kohonen)이라는 수정이 있는데, 이 경우 우리는 각 패턴의 승자를 직접 선택합니다.
2. 우리는 신경망에서 거품을 얻고 싶습니다 ... 오, 아니요. 첫째, 우리는 움직임의 방향과 가능하다면 그 강도의 추정치를 얻고자 합니다(예: 핍).
하지 않는 것이 좋습니다. 방향만 있으면 됩니다. 가능한 경우 힘을 상단에 조일 수 있습니다.
지금까지 (내 개념에 따르면) 신경망은 근사치로 남아 있습니다.
어, 그래.
그래서 사실 입력변수와 출력변수의 기능적 관계를 표현하려고 합니다. 따라서 입력에 대한 내 생각. 그것들은 너무 복잡하지 않아야 하고 우리는 결과적으로 너무 많은 것을 원하지 않아야 합니다. 출력을 사용하면 어느 정도 명확합니다(방향, 높이). 그러나 입력 에 있는 것은 . 나는 3일째 머리를 긁적이다. 항상 일정한 간격으로 놓이도록 입력 신호를 처리하는 방법을 생각해내지 못하는 것이 매우 답답합니다.
MACD
물론 사인이나 동일한 시그모이드와 같은 입력을 처리하는 옵션이 있지만 선형 압축을 원하기 때문에 이 모든 것이 잘못된 것 같습니다.
여기. 작업은 압축하는 것이 아니라 나누는 것이므로 선형 압축 이 아니라 XOR로도 나눌 수 없는 선형 나누기 가 됩니다.
따라서 비선형성이 있어야 합니다. n층 선형 퍼셉트론이 2층 아날로그 -- 입력 --> 출력으로 변환될 수 있다는 이론이 있습니다.
따라서 선형 퍼셉트론은 용광로에 있습니다.
글쎄, 입구는 어떻습니까? 누가 어떤 네트워크와 입력을 가지고 있습니까?
제한된 오실레이터를 적용해 보지만 결과는 천국과 같다. 어떤 결론을 내리려면 많은 작업을 해야 합니다.
MACD
그는 최대 업데이트를 가질 수 있습니다.
여기. 작업은 압축하는 것이 아니라 나누는 것이므로 선형 압축 이 아니라 XOR로도 나눌 수 없는 선형 나누기 가 됩니다.
따라서 비선형성이 있어야 합니다. n층 선형 퍼셉트론이 2층 아날로그 -- 입력 --> 출력으로 변환될 수 있다는 이론이 있습니다.
이것은 출력 신호의 비선형성을 나타냅니다. 입력 데이터를 네트워크 에 공급하기 전에 선형 압축합니다. 모든 orpatches의 데이터를 기반으로 간격 [0, 1]로 압축. 일부 비선형 함수에 의해 범위가 변환되면 큰 값에 대해 포화 상태가 되고 그 사이에는 차이가 없습니다. 그리고 이것은 반복 과 따라서 불일치가 있을 것임을 의미합니다. 압축은 어떻게든 선형적으로 수행되어야 합니다. 그러나 미래에 최대로 유지되도록하는 방법. (모스크 쉿)?
그는 최대 업데이트를 가질 수 있습니다.
네, 물론입니다. 하지만 저에게는 좋은 선택입니다.
이것은 출력 신호의 비선형성을 나타냅니다. 입력 데이터를 네트워크 에 공급하기 전에 선형 압축합니다. 모든 orpatches의 데이터를 기반으로 간격 [0, 1]로 압축.
아, 알았다.
일부 비선형 함수에 의해 범위가 변환되면 큰 값에 대해 포화 상태가 되고 그 사이에는 차이가 없습니다. 그리고 이것은 반복 과 따라서 불일치가 있을 것임을 의미합니다. 압축은 어떻게든 선형적으로 수행되어야 합니다. 그러나 미래에 최대로 유지되도록하는 방법. (모스크 쉿)?
이를 위해 우리는 데코렐레이션과 그와 같은 다른 것들을 사용할 것입니다%)