트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 428

 
막심 드미트리예프스키 :

그것은 분명합니다. 실제로 아무도 여기에서 비교하지 않았다고 생각합니다. :) Diplerning이 숲에 비해 이점을 제공하지 않는 것으로 판명되면 결국 나는 속지 않기 위해 정보를 찾을 것입니다. 그리고 거기에 있는 컴포넌트는 MLP라서 안줄수도 있고..

그건 그렇고, 2개 이상의 레이어가 있는 모든 것을 디플러닝이라고 하고, 2개의 은닉 레이어가 있는 MLP도 디플러닝입니다. 나는 Vladimir가 위 링크의 기사에서 설명한 심층 네트워크를 의미했습니다.

절대적으로 정확하지 않습니다. 이 정보는 어디서 얻나요?

그들은 예측 변수가 가장 중요하다고 쓰지만 모델은 거의 동일하게 작동하기 때문에 .. 그러나 이것은 이론이지만 실제로는 속도와 속도 사이의 절충안과 같이 모델의 선택도 매우 중요하다는 것이 밝혀졌습니다. 품질, NN은 일반적으로 길기 때문에 ...

DNN 매우 빠르고 검증되었습니다

음, 리바를 통한 P - MT5의 무리는 속도와 편의성 면에서 실제로 결함이 있습니다. 왼쪽 소프트웨어가 없는 네이티브가 필요하거나 MT5에서 P 서버에 직접 연결해야 하지만 네이티브가 더 좋습니다. 1 μl당 필요한 신경망을 C++에서 다시 작성하는 데 1번이 소요됩니다.

그들은 무엇을 확인 했습니까? 나는 파리가있다

아, IMHO를 추가하는 것을 잊었습니다.

연습에 기반한 IMHO

행운을 빕니다

 
블라디미르 페레르벤코 :

딥 러닝 ( 심층 구조화 학습 또는 계층적 학습 이라고도 함)은 하나 이상의 은닉층 을 포함하는 인공 신경망 (ANN)의 학습 작업에 대한 응용 프로그램입니다. 딥 러닝은 작업별 알고리즘과 달리 학습 데이터 표현 을 기반으로 하는 광범위한 기계 학습 방법 제품군의 일부입니다. 학습은 감독 되거나 부분적으로 감독되거나 감독되지 않을 수 있습니다.


오토인코더를 사용한 디플러닝의 경우 예, 빠르지만 아직 도달하지 못했기 때문에 논리적인 질문이 있었습니다. RF에 비해 이점이 있습니까?

추신 옵티마이저에서도 날아가나요? 클라우드에 있다면?

https://en.wikipedia.org/wiki/Deep_learning

 
막심 드미트리예프스키 :

딥 러닝 ( 심층 구조화 학습 또는 계층적 학습 이라고도 함)은 하나 이상의 은닉층 을 포함하는 인공 신경망 (ANN)의 학습 작업에 대한 응용 프로그램입니다. 딥 러닝은 작업별 알고리즘과 달리 학습 데이터 표현 을 기반으로 하는 광범위한 기계 학습 방법 제품군의 일부입니다. 학습은 감독 되거나 부분적으로 감독되거나 감독되지 않을 수 있습니다.


오토인코더를 사용한 디플러닝의 경우 예, 빠르지만 아직 도달하지 못했기 때문에 논리적인 질문이 있었습니다. RF에 비해 이점이 있습니까?

추신 옵티마이저에서도 날아가나요? 클라우드에 있다면?

https://en.wikipedia.org/wiki/Deep_learning

1. 이 정의는 어디에서 찾았습니까? Wiki ?? 진심이야? 시간이 지남에 따라 심각한 출처에 대한 링크를 찾을 것입니다.

2. 사전 훈련이 있는 DNN의 주요 이점은 전이 학습입니다. 훨씬 더 빠르고 정확하고... darch 패키지 사용

3. 모든 최적화는 R에서 수행되어야 합니다. 더 빠르고 투명하며 유연합니다.

행운을 빕니다

 
블라디미르 페레르벤코 :

1. 이 정의를 어디에서 찾았습니까? Wiki ?? 진심이야? 시간이 지남에 따라 심각한 출처에 대한 링크를 찾을 것입니다.

2. 사전 훈련이 있는 DNN의 주요 이점은 전이 학습입니다. 훨씬 더 빠르고 정확하고... darch 패키지 사용

3. 모든 최적화는 R에서 수행되어야 합니다. 더 빠르고 투명하며 유연합니다.

행운을 빕니다

이 튜토리얼이 끝나면 "다층 퍼셉트론"(MLP)이라는 간단한 딥 러닝 모델이 작동하는 방식과 Keras에서 빌드하여 MNIST에서 적절한 수준의 정확도를 얻는 방법을 이해하게 될 것입니다. 다음 강의에서는 더 복잡한 이미지 분류 문제(예: CIFAR-10)를 해결하는 방법을 살펴보겠습니다.
(인공) 뉴런

딥 러닝이라는 용어는 더 넓은 의미로 이해될 수 있지만 대부분의 경우 (인공) 신경망 분야에 적용됩니다.


https://habrahabr.ru/company/wunderfund/blog/314242/

그래서


다 거짓말일지도 몰라)

물론 IMHO

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
예측변수가 도대체 뭔가요? 시계열 은 예측자이다͵ NN만이 조금 더 깊어져야 한다 ͵
(모바일에서)
 
유리 아사울렌코 :
예측변수는 도대체 무엇인가? 시계열은 예측변수이다 ͵
(모바일에서)

넣는 것을 잊었습니다 :))
 
막심 드미트리예프스키 :

넣는 것을 잊었습니다 :))
그리고 누구를 인용했습니까?
 
유리 아사울렌코 :
그리고 누구의 말을 인용했습니까?
글쎄, 그 자신. 저작권의 종류)
 
막심 드미트리예프스키 :
이 튜토리얼이 끝나면 "다층 퍼셉트론"(MLP)이라는 간단한 딥 러닝 모델이 작동하는 방식과 Keras에서 빌드하여 MNIST에서 적절한 수준의 정확도를 얻는 방법을 이해하게 될 것입니다. 다음 강의에서는 보다 복잡한 이미지 분류 문제(예: CIFAR-10)를 해결하는 방법을 살펴보겠습니다.
(인공) 뉴런

딥 러닝이라는 용어는 넓은 의미로 이해될 수 있지만 대부분의 경우 (인공) 신경망 분야에 적용됩니다.


https://habrahabr.ru/company/wunderfund/blog/314242/

그리고 그래서


다 거짓말일지도 몰라)

물론 IMHO

아니요, 그들은 거짓말을 하지 않습니다. 아래는 설명입니다 (어떤 식으로든 끝내지 않을 기사에서 :(

소개

연구 및 응용의 주요 방향

현재, 심층 신경망의 연구 및 적용(우리는 다층 완전 연결 신경망 - MLP에 대해서만 이야기하고 있음)에서 은닉층에서 뉴런 가중치의 초기 초기화에 대한 접근 방식이 다른 두 가지 주요 흐름이 형성되었습니다.

첫째 , 신경망은 특히 은닉층이 3개 이상 증가할 때 은닉층에서 뉴런이 초기에 초기화되는 방식에 매우 민감하다는 것은 잘 알려져 있습니다. 이 문제를 해결하기 위한 초기 추진력은 G. Hynton 교수가 제안했습니다. 제안의 핵심은 RBM(restricted Boltzmann machine) 또는 AE(autoencoder)로 구성된 자동 연관 네트워크의 감독되지 않은 학습 동안 얻은 가중치로 신경망의 은닉층에 있는 뉴런의 가중치를 초기화하는 것이었습니다. 이러한 스택형 RBM(SRBM) 및 스택형 AE(SAE)는 레이블이 지정되지 않은 대규모 데이터 배열에 대해 특정 방식으로 훈련됩니다. 이러한 훈련의 목적은 데이터의 숨겨진 구조(표현, 이미지)와 종속성을 드러내는 것입니다. 사전 훈련 가중치를 사용하여 MLP 뉴런을 초기화하면 최적에 가장 가까운 솔루션 공간에 MLP가 배치됩니다. 이것은 MLP의 후속 미세 조정(훈련)이 더 적은 훈련 에포크(epoch)로 더 적은 양의 레이블이 지정된 데이터를 사용하는 것을 가능하게 합니다. 많은 응용 프로그램(특히 "빅 데이터" 처리)의 경우 이는 중요한 이점입니다.

두 번째: 과학자 그룹(Bengio et al.)은 숨겨진 뉴런의 초기 초기화, 특수 활성화 기능, 안정화 및 학습 방법을 위한 특정 방법의 개발 및 연구에 중점을 둡니다. 이 방향의 발전은 주로 이미지 인식, 텍스트 분석 및 분류, 한 언어에서 다른 언어로의 실시간 음성 번역에서 놀라운 결과를 보여준 딥 컨볼루션 및 순환 신경망(DCNN, RNN)의 급속한 발전과 관련이 있습니다. 이러한 신경망을 위해 개발된 아이디어와 방법은 MLP에 적용되기 시작했고 그에 못지않게 성공했습니다.

오늘날 두 방향 모두 실제로 실제로 사용됩니다. 이 두 접근 방식의 비교 실험[ ]에서는 한 접근 방식이 다른 접근 방식에 비해 상당한 이점을 나타내지 않았지만 여전히 하나가 있습니다. 사전 훈련된 신경망은 훈련 및 계산 리소스 에 대해 훨씬 적은 수의 예제가 필요하며 결과는 거의 같습니다. 일부 지역의 경우 이는 매우 중요한 이점입니다.

행운을 빕니다

 
블라디미르 페레르벤코 :

오늘날 두 방향이 실제로 활발히 사용됩니다. 이 두 접근 방식의 비교 실험[ ]에서는 한 접근 방식이 다른 접근 방식에 비해 상당한 이점을 나타내지 않았지만 여전히 하나가 있습니다. 사전 훈련된 신경망은 훈련 및 계산 리소스 에 대해 훨씬 적은 수의 예제를 필요로 하며 거의 동일한 결과를 제공합니다. 일부 지역의 경우 이는 매우 중요한 이점입니다.

행운을 빕니다

최근에 나는 이전에 익숙했던 GARCH로 돌아왔습니다. 수년간의 기계 학습 후 가장 놀랐던 것은 통화를 포함한 금융 시계열에 GARCH를 적용하는 것에 대한 엄청난 양의 출판물이었습니다.


딥 네트워크와 유사한 것이 있습니까?

사유: