트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2396

 
막심 드미트리예프스키 :
예, 내 기사에서 가져올 수 있습니다. 테스터는 일반적으로 가장 간단합니다. 파이썬에서 봇의 예를 버릴 수 있습니다.

글쎄, 나는 또한 무언가가 있습니다 - 내 아이디어를 빠르게 테스트하기 위해 날카롭게했습니다. 그러나 결국에는 일반 테스터에서 실행하는 것이 어떻게 든 관례입니다. 이 습관을 없앨 가치가 있다고 생각하십니까? )

 
알렉세이 니콜라예프 :

글쎄, 나는 또한 무언가가 있습니다 - 내 아이디어를 빠르게 테스트하기 위해 날카롭게했습니다. 그러나 결국에는 일반 테스터에서 실행하는 것이 어떻게 든 관례입니다. 이 습관을 없앨 가치가 있다고 생각하십니까? )

이런 저런, 모델을 빨리 이식할 수 있는 기회가 있으면 좋아요.
 

Macbook은 MO 작업에서 새로운 프로세서로 찢어지고 던져졌습니다. 나쁜 소식은 CatBoost 가 아직 arm 아키텍처를 지원하지 않지만, 작업 중인 것 같습니다.

결론

이러한 테스트에서 다음과 같이 나타납니다.

  • 훈련을 위해   MLP   그리고   LSTM ,   M1 CPU는 훨씬 더 빠릅니다.   테스트한 모든 고급 서버보다
  • 훈련을 위해   CNN ,   M1은 약간 느립니다.   테스트한 고급 서버보다

물론 이러한 메트릭은 이 테스트에서 사용된 유사한 신경망 유형 및 깊이에 대해서만 고려할 수 있습니다.

20분 이상 지속되는 대규모 교육 및 집중 컴퓨팅의 경우 클라우드 기반 솔루션을 선택합니다. 클라우드 기반 솔루션은 길고 무거운 로드를 위해 제작된 카드를 제공하고 여러 작업을 동시에 보낼 수 있기 때문입니다. 그러나 이 시나리오는 내 작업의 10%만 차지하는 특정 연구에만 해당되며 대부분 특정 비즈니스 영역에서 전문적으로 사용하기 위한 것입니다.

머신 러닝 엔지니어로서, 제 일상적인 개인 연구에서 M1 Mac은 분명히 오늘날 가장 훌륭하고 비용 효율적인 옵션입니다.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
글쎄, 매는 어때? 그리드가 지능화되었습니까? 아니면 기술 혁신을 이루었습니까? 지치지 않게 말해줘!!!!
 

선생님과 함께 하는 이러한 유형의 학습에 대해 잘 알고 있는 사람이 있습니까?

선생님의 역할이 라벨이 아니라 사람 자신일 때, 그 사람은 자신이 좋아하는 이미지에 마우스를 대고, AMO는 이 이미지를 다른 모든 것과 분리하려고 시도하고 동일한 결과로 역사에서 동일한 이미지를 찾습니다..


그런 코스가 있는지 그리고 있다면 이름이 무엇인지 아는 사람이 있습니까?

나는 이것을 구현하는 방법을 알고 있지만 이미 준비된 것이 있습니까?

 
그 생각을 큰 소리로 표현하고 싶은 욕구도 있었다. 비정상성에 대한 생각. 조건에서 K-최근접이웃 방법을 사용하는 방법은 명확합니다. 우리는 시간 N   새로운 패턴에 가장 가까운 K가 선택되고 이를 기반으로 결정을 내립니다. 단순함은 실제로 훈련이 없기 때문에 발생합니다. 비슷한 방식으로 사용하기 쉬운 다른 ML 알고리즘이 있는지 궁금합니다.
 
알렉세이 니콜라예프 :
그 생각을 큰 소리로 표현하고 싶은 욕구도 있었다. 비정상성에 대한 생각. 조건에서 K-최근접이웃 방법을 사용하는 방법은 명확합니다. 우리는 시간 N   새로운 패턴에 가장 가까운 K가 선택되고 이를 기반으로 결정을 내립니다. 단순함은 실제로 훈련이 없기 때문에 발생합니다. 비슷한 방식으로 사용하기 쉬운 다른 ML 알고리즘이 있는지 궁금합니다.

이 방법과 방법 자체를 많이 연구하고 연구했는데 이유는 모르겠지만 나에게 가장 가깝고 직관적입니다.

이 방법은 "모델 예측 없음" 제품군에서 가져온 것입니다.

인터넷에서는 "과거 역사의 유사체에 의한 예측", "MGUA의 유사체를 복합화하는 방법" 등으로 알려져 있습니다.

한때 일기 예보에 사용되었습니다.

사실 이게 일반적인 클러스터링이고, 더 정확할 뿐.. 유일한 차이점은 기존 클러스터링에서 클러스터의 중심(프로토타입)이 유사체 사이에 있고 이 방법에서는 클러스터의 중심이 현재 가격 또는 무엇이든, 그래서 당신은 현재 순간에 정확히 아날로그를 더 정확하게 찾을 수 있습니다..

다차원적인 패턴을 찾기까지 했고, 선사시대 카로크에서 패턴을 찾기 위해 숲과 같은 나만의 미니메소드를 생각해내기도 했다. 나는이 주제에 매우 깊다..

 
mytarmailS :

이 방법과 방법 자체를 많이 연구하고 연구했는데 이유는 모르겠지만 나에게 가장 가깝고 직관적입니다.

이 방법은 "모델 예측 없음" 제품군에서 가져온 것입니다.

인터넷에서는 "과거 역사의 유사체에 의한 예측", "MGUA의 유사체를 복합화하는 방법" 등으로 알려져 있습니다.

한때 일기 예보에 사용되었습니다.

사실 이게 일반적인 클러스터링이고, 더 정확할 뿐.. 유일한 차이점은 기존 클러스터링에서 클러스터의 중심(프로토타입)이 유사체 사이에 있고 이 방법에서는 클러스터의 중심이 현재 가격 또는 무엇이든, 그래서 당신은 현재 순간에 정확히 아날로그를 더 정확하게 찾을 수 있습니다..

다차원적인 패턴을 찾기까지 했고, 선사시대 카로크에서 패턴을 찾기 위해 숲과 같은 나만의 미니메소드를 생각해내기도 했다. 나는이 주제에 매우 깊다..

방법은 직관적이므로 우회할 수 없습니다. 그러나 나는 다양성을 원합니다. 예를 들어, 하나의 새 예제가 추가되고 더 이상 사용되지 않는 예제가 폐기될 때 모델의 몇 가지 간단한 재훈련.

 

알렉세이 니콜라예프 :

하나의 새로운 예제가 추가되고 더 이상 사용되지 않는 예제가 폐기될 때 모델의 몇 가지 간단한 재훈련.

글쎄, 시간이 다른 사람들과 비교할 때 너무 중요한 신호로 판명되면 오래된 예를 버리는 것입니다.

 
알렉세이 니콜라예프 :

글쎄, 시간이 다른 사람들과 비교할 때 너무 중요한 신호로 판명되면 오래된 예를 버리는 것입니다.

나는 당신의 아이디어와 슬라이딩 윈도우에서 AMO의 지속적인 재교육의 차이점이 무엇인지 이해하지 못합니다.


시간순으로 정렬된 현재 이미지에서 마지막 n개의 이미지를 가져와서 이를 기반으로 예측을 수행하면 무엇을 제공해야 합니까?

위의 AMO와 같이 슬라이딩 윈도우에서 멍청하게 재훈련을 하면 어떤 이점이 있나요?