트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2454

 
mytarmailS # :

5인분을 위한 새패키지 이름자체가 mt5R

예, 이해합니다. 저는 단지 다중 목표 최적화가 필요했습니다.

내 간단한 적합성 함수는 단순히 알고리즘의 관점에서 최소값인 벡터의 점 인덱스를 찾습니다.

이상적으로 알고리즘은 두 개의 인덱스를 생성해야 하며, 이 두 인덱스는 벡터의 최소값 인덱스가 됩니다.

하나의 벡터에서 두 개의 최소값을 찾고 두 개의 벡터에서 하나의 최소값을 찾는 데 차이가 없다고 생각했습니다.

내 단순 피트니스는 내 문제의 모델이 아닙니다. 알고리즘을 가장 간단하고 시각적으로 비교하고 싶었습니다.

당신의 피트니스 기능은 무엇을 하고 있습니까? 코드는 이해할 수 있을 것 같고 모든 것을 알고 있지만 뭔가의 본질을 이해할 수는 없습니다)

이것은 귀하의 모범이자 피트니스 기능입니다. 벡터에서 극값을 찾는 데는 다른 많은 방법이 있습니다. 당신은 스스로 문제를 명확하게 공식화합니다. 그러면 결정이 올 것입니다.

나는 이 패키지들이 당신의 문제를 해결하지 못한다는 것을 보여주었습니다.

행운을 빕니다

 
블라디미르 페레르벤코 # :

이것은 귀하의 모범이자 피트니스 기능입니다. 벡터에서 극한값을 찾는 데는 다른 많은 방법이 있습니다. 당신은 스스로 문제를 명확하게 공식화합니다. 그러면 결정이 올 것입니다.

나는 이 패키지들이 당신의 문제를 해결하지 못한다는 것을 보여주었습니다.

행운을 빕니다

작업 은 두 가지 유형의 다중 기준 최적화를 빠르고 간단하고 명확하게 비교하는 것입니다.

다른 방법으로 극값을 찾을 수 있다는 것은 분명합니다. 예를 들어 벡터에 대해 min() 함수를 호출하지만 이것은 대화가 아닙니다.

함수의 극한값을 구하는 것(벡터에서 최소값을 구하는 것)이 바로 그 문제라고 생각했는데, 솔직히 아직도 어딘가에서 서로를 이해하지 못한 것 같아요..

=============

글쎄, 평범한 유전학은 적어도 문제가 없다

set.seed( 123 )
x <- cumsum(rnorm( 100 ))

fit <- function(i)  x[ floor (i) ] /- 1  # (/-1) потому что GA максимизирует
library (GA)
GA <- ga(type = "real-valued" , 
         fitness =  fit,
         lower = 1 , upper = length(x) , 
         popSize = 50 , maxiter = 100 )
id <- c( floor (tail(GA@solution, 1 )))

plot(x,t= "l" )
points(id,x[id],col= 2 ,lwd= 5 )


================================

다중 기준 최적화에 대해 동일한 작업을 수행하는 것을 방해하는 요소는 한 지점이 아니라 여러 지점을 찾는 것입니다.

또한 "mco"(유전학)는 이에 대해 나쁘지 않게 대처했지만 "GPareto"(Gausian optim.)는 이론상 가장 지능적이거나 뭔가 인 것 같지만 "안녕하세요"가 전혀 ..

 

유전학이 가장 부진한 환경에서도 해결책을 찾는 방법은 정말 놀랍습니다.

인구 - 10명,

반복 - 10,

데이터 100만 포인트.

알고리즘은 데이터와 상호 작용하기 위해 100번(10 * 10)번만 시도하고 좋은 솔루션을 찾습니다.

그냥 놀라운

 
mytarmailS # :

작업 은 두 가지 유형의 다중 기준 최적화를 빠르고 간단하고 명확하게 비교하는 것입니다.

Adam 또는 SGD는 모든 MO 패키지에서 가져옵니다.
 
막심 드미트리예프스키 # :
Adam 또는 SGD는 모든 MO 패키지에서 가져옵니다.

나는 이것들을 정확히 비교하고 싶었습니다. 다중 기준 최적화를 위한 것입니다.

adam , 그리고 "모든 MO 패키지"에서도 확실히 다중 기준이 아닙니다.

알고리즘을 선택하는 데 문제가 없습니다)) 반대로 이것은 파이썬이 아닙니다)))

 
mytarmailS # :

작업 은 두 가지 유형의 다중 기준 최적화를 빠르고 간단하고 명확하게 비교하는 것입니다.

다른 방법으로 극값을 찾을 수 있다는 것은 분명합니다. 예를 들어 벡터에 대해 min() 함수를 호출하지만 이것은 대화가 아닙니다.

함수의 극한값을 구하는 것(벡터에서 최소값을 구하는 것)이 바로 그 문제라고 생각했는데, 솔직히 아직도 어딘가에서 서로를 이해하지 못한 것 같아요..

=============

글쎄, 평범한 유전학은 적어도 문제가 없다


================================

다중 기준 최적화에 대해 동일한 작업을 수행하는 것을 방해하는 요소는 한 지점이 아니라 여러 지점을 찾는 것입니다.

또한 "mco"(유전학)는 이에 대해 나쁘지 않게 대처했지만 "GPareto"(Gausian optim.)는 이론상 가장 지능적이거나 뭔가 인 것 같지만 "안녕하세요"가 전혀 ..

다중 기준 최적화라는 용어를 잘 이해하지 못할 수 있습니다. 이것은 동시에 여러 기준 에 의한 최적화입니다. 예: 신경망 작업의 결과로 균형 곡선이 있습니다. 최대 균형 또는 최소 손실을 위해 최적화할 수 있습니다. 균형과 축소 측면에서 동시에 최적화해야 하는 경우 다중 기준 최적화가 됩니다. 하나의 기준이 있습니다 - 함수의 최소값,이 함수의 모든 최소값을 찾고 필요한 것을 선택하십시오.

행운을 빕니다

 
블라디미르 페레르벤코 # :

다중 기준 최적화라는 용어를 잘 이해하지 못할 수 있습니다. 이것은 동시에 여러 기준 에 의한 최적화입니다. 예: 신경망 작업의 결과로 균형 곡선이 있습니다. 최대 균형 또는 최소 손실을 위해 최적화할 수 있습니다. 균형과 축소 측면에서 동시에 최적화해야 하는 경우 다중 기준 최적화가 됩니다. 하나의 기준이 있습니다 - 함수의 최소값,이 함수의 모든 최소값을 찾고 필요한 것을 선택하십시오.

행운을 빕니다

예, 모든 것을 이해하고 서로를 이해하지 못하지만 어쨌든 설명에 감사드립니다 ..

 
mytarmailS # :

예, 모든 것을 이해하고 서로를 이해하지 못하지만 어쨌든 설명에 감사드립니다 ..

동의한다. 별말씀을요.

 
안드레이 딕 # :

모듈로 취한 신경망 가중치의 평균 값이 훈련 품질의 지표입니까?

동일한 데이터에 대해 훈련된 두 개의 동일한 뉴런이 있다고 가정하고, 하나는 0.87의 값을 갖고 다른 하나는 0.23을 가지고 있는데, 어느 것이 더 잘 훈련되었습니까?

평균 답이 1에 가까울수록 연습에서 나온 것입니다. 왜 그런지는 설명할 수 없지만 저에게는 이것이 좋은 모델의 주요 징후 중 하나입니다.
 
나는 그러한 모델이 더 보편적이라는 것을 알았습니다. 테스트 표본에 대한 동일한 결과로 평균 반응이 더 높은 모델이 실생활에서 더 잘 작동합니다.