베이지안 방법은 느리고 큰 샘플에는 적합하지 않지만 다르게 작동하고 기본적으로 다시 훈련하지 않습니다. 각 모델에는 고유한 특성이 있습니다. 나는 이제 Bayes에 중독되었습니다. 재교육 없이 TS를 최적화할 수 있는 큰 힘
매력적인 잠재 고객 - 업데이트될 수 있으며 다시 재교육되지 않습니다.
글쎄, 200-1000개의 예측 변수가 있는 백만 개의 행을 제출하면 아마도 오랜 시간이 걸릴 것입니다 ... 가지 치기로-끝까지 나무를 만든 다음 잘라야합니다. 그리고 분에 분기가 중지되었습니다. 오류를 개선하면 비슷한 결과로 상당한 절감 효과가 있을 것이라고 생각합니다. xgboost 에서 매개변수를 감마라고 하며 자르기가 없는 것 같습니다. 분명히 개발자는 이것들이 상호 교환 가능한 것으로 결정했습니다.
도서관 : 글쎄요, 200-1000개의 예측변수가 있는 백만 분짜리 라인을 제출한다면 아마도 오랜 시간이 걸릴 것입니다... 그리고 가지 치기로 - 끝까지 나무를 만든 다음 잘라야합니다. 그리고 분에 분기가 중지되었습니다. 오류를 개선하면 비슷한 결과로 상당한 절감 효과가 있을 것이라고 생각합니다. xgboost에서는 매개변수를 감마라고 하며 크롭이 없는 것 같습니다. 분명히 개발자는 이것들이 상호 교환 가능한 것으로 결정했습니다.
글쎄, 그들은 그것을하는 방법을 더 잘 알고 있습니다. 전문가 팀이 부스팅에 대해 작업하고 테스트했습니다.
katboost는 일반적으로 작동하는 것 같습니다. 빠르게, 거기에 있는 나무는 처음에는 얕습니다.
그건 그렇고, 첫 번째 부분은 오류가 거의 개선되지 않고 두 번째 부분은 100% 개선되는 상황을 생각해 냈습니다.
각 10점씩 4개 섹터. 적어도 x축을 따라, 적어도 y를 따라 1 분할. 오류가 거의 개선되지 않고 약 50%가 유지됩니다. 예를 들어 처음에는 세로로 가운데를 나눕니다. 중간에 있는 두 번째 수평 분할은 오류가 매우 크게 개선됩니다(50%에서 0으로). 그러나 이것은 인위적으로 만들어진 상황이며 인생에서는 이런 일이 발생하지 않습니다.
샘플 크기는 결코 크지 않습니다. N이 너무 작아서 충분히 정확한 추정치를 얻으려면 더 많은 데이터를 가져와야 합니다(또는 더 많은 가정을 해야 함). 그러나 N이 "충분히 크면" 데이터를 세분화하여 자세히 알아볼 수 있습니다. , 다양한 연령대 등). N은 "충분한" 경우 더 많은 데이터가 필요한 다음 문제에 이미 도달했기 때문에 충분하지 않습니다.
시장이 어느 정도 안정적이고 추세가 있거나 무언가가 있다면 이번에는 효과가 있을 것입니다. 적어도 저에게는 효과가 있습니다. 음, 패턴은 동일합니다. 작동하지 않는 이유
모든 훈련을 하나의 버튼을 누르는 것으로 단순화하고 예측기로 소란을 피우지 않고)) 그런 기계가 재미있다는 것이 밝혀졌습니다. 인간 광기의 전시로 판매 할 수 있습니다
글쎄요, 저는 처음부터 예측 변수를 만지작거리지 않았습니다. 하지만 버튼 하나로 시도조차 하지 않았다. 버튼 하나로 같은 최적화 빼고는 프로필에서만 아무것도 못해요. 버튼 하나로 이 문제를 해결하는 방법은 미스터리입니다.)
글쎄요, 저는 처음부터 예측 변수를 만지작거리지 않았습니다. 하지만 버튼 하나로 시도조차 하지 않았다. 버튼 하나로 같은 최적화 빼고는 프로필에서만 아무것도 못해요. 버튼 하나로 이 문제를 해결하는 방법은 미스터리입니다.)
몬테칼과 테스트를 위한 최상의 오류를 찾고 있습니다. 샘플, 모든 것을 섭섭하다
최적화 프로그램 최적화몬테칼과 테스트를 위한 최상의 오류를 찾고 있습니다. 샘플, 모든 것을 섭섭하다
Monte Carlo가 없는 곳)) 그리고 최고의 실수로 모든 것이 그렇게 간단하지는 않습니다. 최적성은 다요소적이고 모호한 것이며 최적이 무엇인지는 분명하지 않습니다.
Monte Carlo가 없는 곳)) 그리고 최고의 실수로 모든 것이 그렇게 간단하지는 않습니다. 최적성은 다요소적이고 모호한 것이며 최적이 무엇인지는 분명하지 않습니다.
글쎄, 나는 f 번째 정기를 취하는 것이 분명합니다. 최적이 있고 시스템이 적어도 영원히 수익을 올릴 것이 분명합니다)
시장에 최적의 것은 전혀 없으며 오직 지역적일 뿐입니다.
나는 나무에 관한 이론을 읽고 있습니다.
가지 치기 (트리밍)의 편리성에 대해 생각했습니다.
트리를 구축할 때 분할을 찾을 수 없는 경우 잎을 분할하지 않는 것이 더 쉽고 빠를 수 있습니까? 그러면 오류가 최소한 일부 값(예: 0.1-0.5%)만큼 줄어듭니다.
결과는 동일하지만 더 빨라야 합니다.
아니면 모델이 0.0001% 개선된 몇 가지 분기 후 즉시 1-5% 개선되는 것이 가능한가요?
그럼 어디가 더 빠릅니까? 그리고 매우 빠르게
그러나 일반적으로 사람을 디자인하기 위해 스스로를 부스트하려고 했습니다.
베이지안 방법은 느리고 큰 샘플에는 적합하지 않지만 다르게 작동하고 기본적으로 다시 훈련하지 않습니다. 각 모델에는 고유한 특성이 있습니다. 나는 이제 Bayes에 중독되었습니다. 재교육 없이 TS를 최적화할 수 있는 큰 힘
매력적인 잠재 고객 - 업데이트될 수 있으며 다시 재교육되지 않습니다.
가지 치기로-끝까지 나무를 만든 다음 잘라야합니다.
그리고 분에 분기가 중지되었습니다. 오류를 개선하면 비슷한 결과로 상당한 절감 효과가 있을 것이라고 생각합니다. xgboost 에서 매개변수를 감마라고 하며 자르기가 없는 것 같습니다. 분명히 개발자는 이것들이 상호 교환 가능한 것으로 결정했습니다.
글쎄요, 200-1000개의 예측변수가 있는 백만 분짜리 라인을 제출한다면 아마도 오랜 시간이 걸릴 것입니다...
그리고 가지 치기로 - 끝까지 나무를 만든 다음 잘라야합니다.
그리고 분에 분기가 중지되었습니다. 오류를 개선하면 비슷한 결과로 상당한 절감 효과가 있을 것이라고 생각합니다. xgboost에서는 매개변수를 감마라고 하며 크롭이 없는 것 같습니다. 분명히 개발자는 이것들이 상호 교환 가능한 것으로 결정했습니다.
글쎄, 그들은 그것을하는 방법을 더 잘 알고 있습니다. 전문가 팀이 부스팅에 대해 작업하고 테스트했습니다.
katboost는 일반적으로 작동하는 것 같습니다. 빠르게, 거기에 있는 나무는 처음에는 얕습니다.
외환의 수백만 데이터 ... 필요한지 의심 스럽습니다.
각 10점씩 4개 섹터. 적어도 x축을 따라, 적어도 y를 따라 1 분할. 오류가 거의 개선되지 않고 약 50%가 유지됩니다. 예를 들어 처음에는 세로로 가운데를 나눕니다. 중간에 있는 두 번째 수평 분할은 오류가 매우 크게 개선됩니다(50%에서 0으로).
그러나 이것은 인위적으로 만들어진 상황이며 인생에서는 이런 일이 발생하지 않습니다.