트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2417

 
레나트 아크티아모프 :

내가 그들에게 대답을 했음에도 불구하고

코스를 조금 바꿀 시간이야

지점은 이론으로 채워져 훌륭하게 성장했습니다.

나는 MO가 편리하고 펜에 금을 줄 것이라고 생각합니다.

))) 동의한다.

 
막심 드미트리예프스키 :
MO 기반 vskod에 microsoftware의 자동 완성 기능이 있습니다. 잘 작동하는 것 같습니다. 특이한 점은 발견하지 못했습니다.

Maxim을 듣거나 읽지 마십시오. 이것은 단지 영리한 문구의 집합일 뿐이며 그는 더 가치 있는 일을 할 수 없습니다. 그의 고문은 손실만 보고 논평을 거부하지만 여기에서 그는 모든 사람에게 조언을 배포합니다. Maxim, 예를 들어 조언자가 이익을 얻을 수 있도록 먼저 합리적인 일을 한 다음 조언을 제공하십시오.

 
YURY_PROFIT :

Maxim을 듣거나 읽지 마십시오. 이것은 단지 영리한 문구의 집합일 뿐이며 그는 더 가치 있는 일을 할 수 없습니다. 그의 고문은 손실만 보고 논평을 거부하지만 여기에서 그는 모든 사람에게 조언을 배포합니다. Maxim, 예를 들어 조언자가 이익을 얻을 수 있도록 먼저 합리적인 일을 한 다음 조언을 제공하십시오.

기술적인 문제는 여기에서 논의되고, 당신은 전혀 잘못된 대초원에 있습니다) 댓글에 오랫동안 의견이 주어졌습니다. 여기에서 시장을 논의할 수 없습니다.

 
막심 드미트리예프스키 :

기술적인 문제는 여기에서 논의되고, 당신은 전혀 잘못된 대초원에 있습니다) 댓글에 오랫동안 의견이 주어졌습니다. 여기에서 시장을 논의할 수 없습니다.

맥심 규칙.

 
도서관 :
비슷한 결론 - 나무 만. 최대값이 업데이트되고 모든 것이 바뀔 때 특히 재미있습니다. 물론 최대값을 수동 또는 자동으로 설정할 수 있지만(각 기능에 대해) 이것은 목발입니다.

그러한 대안이 제시되고 있는데, 정규화가 필요하지 않은 것 같습니다. 아직 시도하지 않았습니다.

또한 표 형식의 데이터와 시계열이 정확히 같은 것은 아니라는 점에 유의해야 합니다. 따라서 시계열에 개그가 있을 수 있습니다.

https://towardsdatascience.com/tabnet-e1b979907694

TabNet: The End of Gradient Boosting?
TabNet: The End of Gradient Boosting?
  • Adam Shafi
  • towardsdatascience.com
Each Step is a block of components. The number of Steps is a hyperparameter option when training the model. Increasing this will increase the learning capacity of the model, but will also increase training time, memory usage and the chance of overfitting. Each Step gets its own vote in the final classification and these votes are equally...
 
막심 드미트리예프스키 :

그러한 대안이 제시되고 있는데, 정규화가 필요하지 않은 것 같습니다. 아직 시도하지 않았습니다.

또한 표 형식의 데이터와 시계열이 정확히 같은 것은 아니라는 점에 유의해야 합니다. 따라서 시계열에 개그가 있을 수 있습니다.

https://towardsdatascience.com/tabnet-e1b979907694

시험을 마친?
 
막심 드미트리예프스키 :

기술적인 문제는 여기에서 논의되고, 당신은 전혀 잘못된 대초원에 있습니다) 댓글에 오랫동안 의견이 주어졌습니다. 여기에서 시장을 논의할 수 없습니다.

당신은 분명히 게시물의 본질을 이해하지 못했습니다.

설명하겠습니다. 여기에서 똑똑한 주제에 대해 이야기하고 자신이 놀라운 전문가임을 보여줍니다. 동시에 제품에 대한 의견에서 수십 명의 사람들이 다음과 같은 질문을 합니다. 멈추지 않고 끌 수 있습니다. 업그레이드하시겠습니까?" . 그리고 이러한 의견에 응답하고 제품을 수익성 있게 만드는 대신 여기에서 기술 문제에 대해 이야기합니다.

그리고 당신은 내가 여기에 글을 남긴 후에야 당신의 제품에 대한 댓글에 당신의 대망의 답변을 썼습니다.

나는 당신의 메시지가 그저 공허한 이야기일 뿐이며 당신의 제품이 꾸준히 새고 있다는 것을 당신의 대담자에게 전하고 싶습니다.

그리고 당신의 제품이 수백 명의 사람들에게 손실을 입히는 동안 전문가인 척 할 도덕적 또는 윤리적 권리를 가질 수 없습니다.

당신이 쓴 수십 개의 글은 공허한 구절이고, 병행한다면 당신의 제품을 구매한 사람들은 그 사용으로 인해 꾸준한 손실을 입는다.

 
알렉산더 이바노프 :

맥심 규칙.

전혀 운전하지 않으며 약간의 손실이 있습니다.

 
YURY_PROFIT :

전혀 운전하지 않으며 약간의 손실이 있습니다.

유리는 동화를 믿지 않아 .. 할 말은..
 
YURY_PROFIT :

당신은 분명히 게시물의 본질을 이해하지 못했습니다.

설명하겠습니다. 여기에서 똑똑한 주제에 대해 이야기하고 자신이 놀라운 전문가임을 보여줍니다. 동시에 제품에 대한 의견에서 수십 명의 사람들이 다음과 같은 질문을 합니다. 멈추지 않고 끌 수 있습니다. 업그레이드하시겠습니까?" . 그리고 이러한 의견에 응답하고 제품을 수익성 있게 만드는 대신 여기에서 기술 문제에 대해 이야기합니다.

그리고 당신은 내가 여기에 글을 남긴 후에야 당신의 제품에 대한 댓글에 당신의 대망의 답변을 썼습니다.

나는 당신의 메시지가 그저 공허한 이야기일 뿐이며 당신의 제품이 꾸준히 새고 있다는 것을 당신의 대담자에게 전하고 싶습니다.

그리고 당신의 제품이 수백 명의 사람들에게 손실을 입히는 동안 전문가인 척 할 도덕적 또는 윤리적 권리를 가질 수 없습니다.

당신이 쓴 수십 개의 글은 공허한 구절이고, 병행한다면 당신의 제품을 구매한 사람들은 그 사용으로 인해 꾸준한 손실을 입는다.

여기에 슈퍼 메가 전문가가 있다는 주제와는 거리가 먼 사람들에게 보입니다. 사실 머신러닝 분야에서 흔히 볼 수 있는 것들은 자랑할 것이 없습니다.
사유: