트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1922

 
막심 드미트리예프스키 :

알타이 ..하지만 나는 마지막으로 가지 않았다. 순간, 과잉)

그건 그렇고, 당신은 플러스에 있습니까?

연속 변수에 대해서만 Catbust 모델을 구문 분석하기 위한 코드를 공유할 수 있습니다. C++ 코드 읽기, MQL 어레이로 변환 및 실행. 가능한 모든 매개 변수와 함께 작동한다고 말할 수는 없지만 특정 형식에 대해 수행했습니다.
 
알리악산드르 흐리신 :
연속 변수에 대해서만 Catbust 모델을 구문 분석하기 위한 코드를 공유할 수 있습니다. C++ 코드 읽기, MQL 어레이로 변환 및 실행. 가능한 모든 매개 변수와 함께 작동한다고 말할 수는 없지만 특정 형식에 대해 수행했습니다.

구문 분석은 어떻습니까? 나는 파이썬에 모든 것을 가지고있다.

이 형식으로 뱉어냅니다. 이진 분류기

 #include < string >
#include <vector>

/* Model data */
static const struct CatboostModel {
     unsigned int FloatFeatureCount = 24 ;
     unsigned int BinaryFeatureCount = 149 ;
     unsigned int TreeCount = 38 ;
     unsigned int TreeDepth[ 38 ] = { 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 , 4 };
     unsigned int TreeSplits[ 152 ] = { 111 , 141 , 18 , 122 , 100 , 119 , 14 , 81 , 123 , 46 , 70 , 33 , 137 , 63 , 95 , 12 , 136 , 61 , 56 , 27 , 135 , 98 , 78 , 44 , 138 , 80 , 147 , 36 , 142 , 125 , 65 , 92 , 94 , 55 , 77 , 112 , 113 , 120 , 58 , 17 , 133 , 35 , 16 , 71 , 130 , 117 , 76 , 68 , 103 , 99 , 54 , 29 , 110 , 64 , 41 , 3 , 116 , 140 , 106 , 88 , 127 , 87 , 118 , 69 , 128 , 105 , 8 , 45 , 148 , 79 , 121 , 109 , 102 , 124 , 62 , 131 , 146 , 66 , 5 , 104 , 86 , 139 , 93 , 11 , 20 , 67 , 4 , 89 , 59 , 143 , 51 , 32 , 30 , 144 , 42 , 53 , 2 , 40 , 19 , 25 , 90 , 115 , 50 , 75 , 7 , 129 , 82 , 73 , 79 , 24 , 49 , 0 , 114 , 38 , 97 , 31 , 37 , 72 , 126 , 107 , 47 , 96 , 43 , 23 , 22 , 34 , 26 , 15 , 86 , 10 , 28 , 84 , 39 , 74 , 9 , 57 , 145 , 83 , 132 , 134 , 52 , 101 , 108 , 21 , 126 , 91 , 1 , 48 , 13 , 60 , 85 , 6 };
     unsigned int BorderCounts[ 24 ] = { 0 , 2 , 7 , 5 , 5 , 2 , 5 , 6 , 3 , 4 , 6 , 2 , 9 , 8 , 6 , 9 , 7 , 5 , 7 , 6 , 5 , 8 , 8 , 24 };
     float Borders[ 149 ] = {- 0.000455000001 f, - 0.000224999996 f, - 0.00365500012 f, 0.000404999999 f, 0.000615000026 f, 0.000675000018 f, 0.00104500004 f, 0.00156 f, 0.00159500004 f, - 0.00115499995 f, - 0.000969999994 f, - 0.000215000007 f, - 1.49999996 e- 05 f, 0.000854999991 f, - 0.00139999995 f, - 6.50000002 e- 05 f, 0.000375000003 f, 0.000615000026 f, 0.000905000023 f, 0.000555000035 f, 0.000864999951 f, - 0.000505000004 f, - 0.000364999985 f, 0.000264999981 f, 0.000385000021 f, 0.001085 f, - 0.00156500004 f, - 0.000914999982 f, - 0.000415000017 f, - 7.50000036 e- 05 f, 0.000705000013 f, 0.000864999951 f, - 4.99999987 e- 06 f, 0.000224999996 f, 0.000274999999 f, - 0.00166499999 f, - 0.00149499997 f, - 0.000364999985 f, 0.0014500001 f, - 0.00346500007 f, - 0.00191999995 f, - 0.00103499996 f, 0.000224999996 f, 0.00164999999 f, 0.00318 f, - 0.00142500002 f, - 0.00111499999 f, - 0.00681000017 f, - 0.00107500004 f, 0.000104999999 f, 0.000185000012 f, 0.000505000004 f, 0.000564999995 f, 0.00059499999 f, 0.00116500002 f, 0.00246499991 f, - 0.00215499988 f, - 0.0020349999 f, 0.000155000002 f, 0.00059499999 f, 0.000725000049 f, 0.00143499998 f, 0.00159500004 f, 0.00461499998 f, - 0.00113500003 f, - 5.49999968 e- 05 f, 6.50000002 e- 05 f, 7.50000036 e- 05 f, 0.000735000009 f, 0.00431500003 f, - 0.000439999974 f, - 0.000224999996 f, - 0.000155000002 f, - 0.000135000009 f, 0.000325000001 f, 0.000534999999 f, 0.000714999973 f, 0.001605 f, 0.0020349999 f, - 0.00679500028 f, - 0.00156500004 f, - 0.00130999996 f, - 0.000815000036 f, - 0.000484999997 f, 0.000274999999 f, 0.00126500009 f, - 0.00630000001 f, - 0.000965000014 f, - 0.000914999982 f, 0.000944999978 f, 0.001085 f, - 0.00104500004 f, - 0.000570000033 f, - 0.000135000009 f, 0.000415000017 f, 0.000774999964 f, 0.00129000004 f, 0.00136499992 f, - 0.00214500003 f, - 0.00078500004 f, 0.000564999995 f, 0.000969999994 f, 0.00129500008 f, 0.00171500002 f, - 0.00109499996 f, - 0.000665 f, - 0.000505000004 f, - 0.000455000001 f, 0.00092000002 f, - 0.00078500004 f, - 0.00033000001 f, 0.000375000003 f, 0.000754999986 f, 0.000944999978 f, 0.000974999974 f, 0.00135000004 f, 0.00179500005 f, - 0.000735000009 f, - 0.000195000001 f, - 0.000140000004 f, - 4.50000007 e- 05 f, 2.49999994 e- 05 f, 0.000549999997 f, 0.000729999971 f, 0.00175000005 f, - 0.000645000022 f, - 0.000404999999 f, - 0.000390000001 f, - 0.00033000001 f, - 0.000315000012 f, - 0.000204999989 f, - 0.000195000001 f, 4.99999987 e- 05 f, 6.50000002 e- 05 f, 0.000109999994 f, 0.000230000005 f, 0.000245000003 f, 0.000354999996 f, 0.00046499999 f, 0.000484999997 f, 0.000495000044 f, 0.00059499999 f, 0.000684999977 f, 0.000705000013 f, 0.000725000049 f, 0.00109999999 f, 0.00122500001 f, 0.00124499993 f, 0.00194999995 f, };

     /* Aggregated array of leaf values for trees. Each tree is represented by a separate line: */
     double LeafValues[ 608 ] = {
         0.2730029119914884 , 0.03364653273046463 , - 0.2371262400839919 , 0.1081843550866285 , 0.1343627920272425 , - 0.1126874256586927 , - 0.1126874256586927 , - 0.1126874256586927 , - 0.06059264820464742 , 0.06930028482667829 , 0 , - 0.249182516740322 , 0 , - 0.04043442721784622 , 0.1126874256586928 , - 0.246778769760217 ,
         0.3055616697384914 , 0 , 0 , 0 , 0.3295134099067072 , 0 , - 0.001400906528597944 , 0.1109887188810945 , 0.3268369286843394 , 0.09915101998784448 , 0.1058842186334935 , - 0.2170923208654514 , 0.2805477815282972 , 0.1585452078030638 , 0.04581636331023499 , - 0.1482988821054673 ,
         0.2661001303798985 , 0 , 0.2465781759237509 , - 0.1025474154359036 , 0.1236081969018748 , - 0.1513185903680103 , 0.09970504556623555 , - 0.1329324554655258 , 0.1311330854183022 , 0 , 0.1102178581205619 , - 0.09318782033023576 , 0 , 0 , 0.0984009666714989 , - 0.2078721521946149 ,
         0.2318376125278687 , - 0.1062335532728426 , 0 , 0 , 0.08412564157842428 , - 0.1469343266107289 , 0 , - 0.08357104102221358 , 0.1653044215102119 , - 0.03314292702875558 , 0 , 0 , 0.003358906412990077 , - 0.1912230767439488 , 0 , - 0.2522267340231065 ,
         0.1973025375909275 , 0 , 0 , 0 , 0.4228820616711522 , - 0.07638314839084562 , 0 , 0 , 0.2694211287720111 , 0 , 0 , 0 , 0.1652145942168661 , - 0.08206648374492893 , - 0.1450852254716266 , - 0.1363614260665522 ,
         0.2270555010525044 , 0 , 0.1627207525378816 , - 0.06377453863892701 , 0 , 0 , - 0.1357966649842286 , - 0.2427437659214983 , 0 , 0 , 0 , 0 , 0 , 0 , 0 , - 0.1803912820573122 ,
         0.1804444671623995 , - 0.1017902080898772 , 0.2133898509109472 , 0.2517605145878034 , 0 , 0 , 0 , 0.0667661734515297 , 0.2610915548565391 , 0 , 0.1052820435018607 , - 0.04560350655907942 , 0 , 0 , 0 , - 0.3270645727235584 ,
         0.3575664582748267 , 0 , - 0.0134804607394401 , - 0.04992725827315483 , 0.2020647226798946 , 0 , - 0.03385866654059267 , 0 , 0.2644495544004545 , 0 , 0.05182748809759461 , - 0.1768682974102572 , 0.2407016500831285 , 0 , 0.04550057548317996 , - 0.119019763974849 ,
         0.08658245310355768 , - 0.02639731363946828 , 0 , 0 , - 0.07937732361985407 , 0.2547371055272361 , 0 , 0 , 0.02587599274452583 , - 0.05393875649408716 , 0 , 0 , 0 , - 0.1657068825017175 , 0 , - 0.2049254584747038 ,
         0.1440498437609123 , 0.1101736004819604 , 0.005464554800258488 , - 0.03812379875242829 , 0.1819257725985174 , 0 , 0.02309394186822163 , - 0.08799582858720537 , 0.08924300136100559 , 0 , - 0.1587820248277704 , 0 , 0.07685524153284377 , 0 , 0.03664203213434057 , - 0.1531993322169632 ,
         0.09806057100343098 , - 0.09888524364037948 , 0.2135150121698442 , - 0.09009400810853242 , 0.07220208574561482 , 0 , 0.06638832682433267 , - 0.08176789304081045 , 0.0580997781754348 , 0.2757911650361233 , 0.2520388352390843 , - 0.03558969703545899 , 0 , 0 , 0.05616828900715019 , - 0.05996334853624528 ,
         0.3034312237500126 , - 0.3295604473826144 , 0.1887070939415764 , - 0.01674053821735176 , 0.04203126063490011 , 0 , 0.06936231294655706 , - 0.04128791044025015 , 0 , 0 , 0.1230751670630003 , - 0.02722926856756647 , 0.03326065080614352 , 0 , 0.06968005579997801 , - 0.05689069395020619 ,
         0.1144715475069234 , 0 , 0.01532939962304299 , - 0.09842006335636103 , 0 , 0 , 0.3532831730583329 , - 0.1424529047285753 , 0.1130693244873004 , 0 , - 0.001413815681729 , - 0.1730902495689088 , 0 , 0 , - 0.003744815582707896 , - 0.2340067817777089 ,
         0.0582716295838749 , 0.05887691806098397 , 0.1830039055150205 , 0.1275695040047543 , 0.2265370556123239 , 0.05865002066522316 , 0.1412030624760486 , - 0.04465374880604451 , 0.1016168407643287 , - 0.1696982846816441 , 0.0168802138361802 , - 0.09464076746916356 , 0.118358865381315 , 0.07766416051208853 , - 0.004086300252646373 , 0.01145464025038506 ,
         0.09893204118662431 , 0 , 0 , 0 , - 0.1771744077440305 , 0 , - 0.08956662944160931 , 0 , 0.06459969382272165 , 0 , - 0.09920331948638744 , 0 , 0.06208790080353844 , - 0.06391545778445595 , - 0.03815083591344838 , - 0.193220691727352 ,
         0.2084212418556134 , - 0.2711170554066691 , 0.3287662064308552 , 0.04618819791309881 , 0.02295062367871115 , 0.06903818051790414 , 0.06785880462261525 , - 0.01900550327916934 , 0 , 0 , 0 , 0 , 0 , 0 , 0 , - 0.1379757023193675 ,
         0.1277198477469503 , - 0.1045845285066445 , 0.06646719763990752 , - 0.006328728989568992 , 0 , 0 , 0 , 0 , 0.2991650315125301 , - 0.1609657699217688 , 0.1807990380964121 , - 0.02247201152624968 , 0.06039630602452812 , 0 , 0.07323877669092338 , 0.1041619957787472 ,
        - 0.1701607137827854 , 0 , 0.08119342965694411 , 0 , 0 , 0 , 0 , 0 , 0 , 0 , 0.02263621203523299 , 0 , 0 , 0 , 0.001461819609651068 , - 0.3310861822552173 ,
         0.1708582471998724 , 0 , 0 , 0 , 0 , - 0.08085455495800464 , 0 , 0 , - 0.02242709602120458 , - 0.01626809043535743 , - 0.08378843901194441 , - 0.1314392215326333 , 0.1670789581203374 , - 0.03477863896354667 , - 0.02057073074698931 , - 0.132977812589716 ,
         0.01576995464742881 , 0 , 0.05788166290521737 , 0 , 0.1155558453551253 , 0 , 0 , 0 , 0.009175549226526487 , - 0.09285703148627725 , 0.0170554478209398 , - 0.1704207949809702 , - 0.1872038714907393 , 0 , 0.1259508080010625 , - 0.1193817874448983 ,
        - 0.1624959866223847 , 0.03397677382231543 , 0 , - 0.01337295631517065 , 0 , 0.1165918182388884 , 0 , - 0.04635935471889165 , 0 , 0.012563032729967 , 0 , - 0.1185940873147897 , 0 , 0.02522877097419614 , 0 , - 0.02570582073728468 ,
         0.002633980002093404 , 0.0725570801392979 , 0.03442625637449047 , 0.001037481484499863 , - 0.04931529849937184 , - 0.2105671840353762 , 0.1489911821071239 , 0.2202194677045035 , 0.1810528663002426 , 0 , - 0.08188791865647969 , - 0.124584203103273 , 0 , 0.03156045615123341 , 0.05563213612263092 , - 0.04578705044003427 ,
         0.01165640797726642 , - 0.1810863968750629 , - 0.1089920493861719 , 0.05654669419619869 , 0.05301303138076533 , 0.1259240607012236 , - 0.1400660470693698 , 0.06632028296608294 , 0.02792682995145789 , - 0.1631488652519533 , - 0.1472788242094764 , 0.02141183442530574 , 0.284237301261878 , - 0.001197458738763785 , 0.05972702215452129 , - 0.0586075718789894 ,
         0.02490937469062505 , 0.01810224834922746 , - 0.1092925911367815 , - 0.1197570696964759 , 0.008067995573721135 , - 0.1023547665228953 , - 0.09294834637942173 , 0.231300348695698 , 0.2206397515352709 , 0 , - 0.03762173512827768 , 0 , 0.102636146583814 , - 0.04563726647379882 , - 0.0298583349638738 , - 0.03244852061992397 ,
        - 0.1794615195377556 , 0.01921769229013687 , 0 , 0.01044638539736725 , 0 , 0.02781136690266 , 0 , 0.001867775508010755 , 0 , 0.1067785434424472 , 0 , - 0.2932442639776253 , 0 , 0 , 0 , - 0.03241018659571911 ,
        - 0.006510415667175931 , 0.07059931629954573 , - 0.05002576775584883 , 0 , 0.02889911804947202 , 0.1366522086842556 , 0.1459606096328157 , - 0.07315994927835844 , - 0.1602705507235337 , 0.1878187897030766 , - 0.04626610184165392 , - 0.09837710067806367 , 0.05397003977271773 , - 0.04858868406475466 , 0.0649201842045576 , - 0.06524393947925287 ,
         0.1459267556026626 , 0.01372089516811126 , - 0.1001303921089584 , 0 , 0.2092093674681419 , 0.01930448166419142 , - 0.04972139914274094 , 0 , 0.03545870984455322 , 0 , - 0.07554900451460518 , 0 , 0.2137989937258072 , 0.0008411572827327659 , - 0.00117214692641536 , 0.09422976943966678 ,
        - 0.1641700048226127 , 0.07641634809302257 , 0.01054185317373139 , 0.1341178828759175 , 0 , - 0.04019050552180111 , 0 , 0.1596324334341981 , 0 , 0.006806725110812047 , 0 , - 0.1081606151666887 , 0 , 0.01822843651581126 , 0 , - 0.01720619226968497 ,
         0.009025394520361704 , - 0.00389494343189025 , 0.2311406287627894 , - 0.083367208305538 , 0.1730715229027212 , - 0.1114791940489316 , 0 , - 0.1028046654549743 , - 0.07334162028427468 , 0.04581415665697729 , 0.09898474179992452 , 0.1365328178250054 , - 0.04325183693301483 , - 0.002210798573244916 , - 0.1387629807152628 , - 0.08980091117790198 ,
         0.1201356461649662 , 0.1758279743860605 , 0.04350349009977216 , 0.1134402521456353 , - 0.06435518652676646 , - 0.2395731049930946 , 0.08878547365332778 , - 0.03259992777530323 , 0.04016967881155449 , 0.05586731905591313 , 0.02231616278420573 , 0.06715298880059364 , - 0.02931637068858008 , - 0.02727342673220743 , 0.07981966823218006 , - 0.00736687454594985 ,
        - 0.1523999096887992 , 0.01066390065885025 , 0 , - 0.007937651487390564 , 0 , 0.05838570541522675 , 0 , - 0.01764599778668323 , 0.00926922900423862 , - 0.01462296480325223 , 0 , - 0.1231100245909153 , 0 , 0.2071885095206176 , 0 , - 0.07553876970469377 ,
        - 0.007509531863847287 , - 0.03821554347886918 , 0 , 0 , 0.04539951031452136 , - 0.03237816844587264 , 0.1489237277306394 , - 0.06858743023508017 , 0 , 0 , 0 , 0 , - 0.02197724937765806 , - 0.009927643925657297 , 0.1075288047240592 , 0.007583049665065472 ,
        - 0.1438530341047301 , 0.08211619188336085 , 0.009520674504357616 , - 0.035052444268162 , 0 , - 0.2209655809626173 , 0 , 0.02928893608785839 , 0 , 0.2307562221331639 , 0 , 0.004914926553117083 , 0 , - 0.04531825623377965 , 0 , - 0.01478427605905595 ,
        - 0.07585048830556372 , 0.06213280806503956 , 0 , 0 , - 0.2460691271464409 , 0.1587981422466466 , 0 , 0 , 0 , - 0.01873021929806146 , 0 , 0.1355384701582952 , - 0.06505176113152071 , 0.006237844209643408 , 0 , - 0.01139845636090814 ,
         0.03344525515709466 , 0 , 0.05456132700219524 , 0 , - 0.3220774353233821 , 0 , 0.09756717225728033 , 0 , 0 , 0 , 0 , 0 , - 0.05013487401906989 , - 0.1004156738161951 , 0.01006705311047576 , - 0.06297947180380781 ,
         0.03125880796992506 , 0.1620757216856216 , 0.02218793960373364 , 0 , - 0.05510500531128774 , 0 , - 0.1305668615108228 , 0.09175301826776584 , - 0.02241534935432258 , 0.06091737602659867 , 0.1959961615001555 , - 0.08945488952436154 , - 0.1297656911182584 , - 0.0327910998454452 , 0.04823531757180094 , - 0.0451880914096086 ,
        - 0.03549878434185903 , - 0.05751707772342768 , 0.03023724321196803 , - 0.03668922584353116 , 0.1446378062221211 , - 0.1558238670878492 , 0.0440168187902071 , - 0.07335968350547692 , 0.05992982442842611 , 0 , 0.1297678384005503 , 0.001564747370113251 , 0.1215230794033289 , - 0.237198658134785 , 0.1200964187472702 , - 0.003075362232407817 ,
         0.009596007555535021 , - 0.02731003882847802 , - 0.03313751244478664 , 0.2002494267502239 , - 0.00142054347110939 , 0 , - 0.07476518666658544 , 0.06964401248797676 , - 0.1775794863889658 , - 0.02635446781295587 , - 0.04719524974954924 , 0.1681250432344917 , 0 , 0 , 0.08871226782186471 , - 0.01856541295695367
    };
     double Scale = 1 ;
     double Bias = 0 ;
} CatboostModelStatic;

/* Model applicator */
double ApplyCatboostModel(
     const std::vector< float >& features
) {
     const struct CatboostModel& model = CatboostModelStatic;

     /* Binarise features */
    std::vector< unsigned char > binaryFeatures(model.BinaryFeatureCount);
     unsigned int binFeatureIndex = 0 ;
     for ( unsigned int i = 0 ; i < model.FloatFeatureCount; ++i) {
         for ( unsigned int j = 0 ; j < model.BorderCounts[i]; ++j) {
            binaryFeatures[binFeatureIndex] = ( unsigned char )(features[i] > model.Borders[binFeatureIndex]);
            ++binFeatureIndex;
        }
    }

     /* Extract and sum values from trees */
     double result = 0.0 ;
     const unsigned int * treeSplitsPtr = model.TreeSplits;
     const double * leafValuesForCurrentTreePtr = model.LeafValues;
     for ( unsigned int treeId = 0 ; treeId < model.TreeCount; ++treeId) {
         const unsigned int currentTreeDepth = model.TreeDepth[treeId];
         unsigned int index = 0 ;
         for ( unsigned int depth = 0 ; depth < currentTreeDepth; ++depth) {
            index |= (binaryFeatures[treeSplitsPtr[depth]] << depth);
        }
        result += leafValuesForCurrentTreePtr[index];
        treeSplitsPtr += currentTreeDepth;
        leafValuesForCurrentTreePtr += ( 1 << currentTreeDepth);
    }
     return model.Scale * result + model.Bias;
}

double ApplyCatboostModel(
     const std::vector< float >& floatFeatures,
     const std::vector<std:: string >&
) {
     return ApplyCatboostModel(floatFeatures);
}
 
MQL
mql 배열 가져오기
 
알리악산드르 흐리신 :
MQL

괜찮다면 공유

어쩌면 나는 유용한 것을 얻을 것입니다

 
막심 드미트리예프스키 :

괜찮다면 공유

어쩌면 나는 유용한 것을 얻을 것입니다

나중에야 집에 가면
 
알렉세이 비아즈미킨 :

이러한 유형의 클러스터링은 규칙을 생성하지 않는다는 것을 깨달았습니다.

예, 규칙을 생성하는 클러스터링 알고리즘을 전혀 모릅니다.

질문이 있음을 의미합니다 - 각 클래스에 라인의 액세서리를 csv에 저장하는 방법은 무엇입니까?

write.csv(myfile, file = "C:\\Users\\......\\myfile.csv" , sep = ";" ,row.names = F,col.names = T)

어리석게도 기존 데이터로 클러스터링을 계속하고 클래스 중 하나에서 새 행을 정의하는 것이 불가능한 이유가 이상하지만 가능합니까?

물론 할 수 있지만 마이크로리터로는 불가능합니다!

알렉세이 비아즈미킨 :
하지만 R 에 관한 책을 찾았습니다.

독서, 훌륭한 책

알렉세이 비아즈미킨 :

결과를 특정 열로 롤링하는 방법을 이해하지 못합니까?

나는 당신이 정말로 원하는 것을 이해하지 못합니다

알렉세이 비아즈미킨 :

이 그림은 이전과 동일한 예측 변수이지만 샘플 크기가 다르며 가장 중요한 것은 새로운 예측 변수가 추가되었다는 점입니다.

그리고 여기 그것을 해석하는 방법이 있습니다 - 재훈련 경향?

나는 이미 말했고, 악기의 의도된 목적에 맞게 해석하고, 당신은 꽃으로 못을 망치려고 애쓴다.

https://en.wikipedia.org/wiki/%D0%A1%D0%BD%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D1%80%D0 %B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8#:~:텍스트=%D0%B5%D0 %B4%D0%B8%D0%BD%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%20%D0%B2%D0%BE%D0 %B7%D0%BC%D0%BE%D0%B6%D0%BD%D1%8B%D0%BC%20%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D0 %BD%D1%82%D0%BE%D0%BC.-,%D0%9F%D1%80%D0%B5%D0%B8%D0%BC%D1%83%D1%89%D0%B5% D1%81%D1%82%D0%B2%D0%B0%20%D1%81%D0%BD%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F% 20%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8,%D1%82 %D0%B0%D0%BA%D0%B8%D0%BC%20%D0%BA%D0%B0%D0%BA%202D%20%D0%B8%D0%BB%D0%B8%203D.


기능 선택 [ 편집 ]   |   코드 편집 ]

주요 기사:   기능 선택

방법   기능 선택   원래 변수(특성 또는 속성이라고 함)의 하위 집합을 찾으려고 합니다. 세 가지 전략이 있습니다 - 전략   필터   (예를 들어,   기능의 축적 [ko] ), 전략   바디 랩   (예: 정확도에 따른 검색) 및 전략   투자   (모델이 예측 오류를 기반으로 구축됨에 따라 기능이 추가되거나 제거되도록 선택됨). 작업 참조   조합 최적화 .

경우에 따라 회귀 또는 분류 와 같은 데이터 분석 이 원래 공간보다 축소된 공간에서 더 정확하게 수행될 수 있습니다 [3] .

기능 투영 [ 편집 ]   |   코드 편집 ]

피쳐 투영은 다음에서 데이터를 변환합니다.   고차원 공간   저차원 공간으로. 데이터 변환은 다음과 같이 선형일 수 있습니다.   주성분법   (MGK), 그러나 많은 기술이 있습니다   비선형 차원 축소 [ko] [4] [5] . 다차원 데이터의 경우 사용할 수 있습니다.   텐서   차원 축소에 대한 표현   부분 공간의 다중 선형 학습 [ko] [6] .


어제 우리가 한 일

차원 축소 [ 편집 ]   |   코드 편집 ]

고차원 데이터 세트(즉, 10개 이상의 차원 포함) 의 경우 일반적으로 k-최근접 이웃 을 적용하기 전에 차원 축소가 수행됩니다.   ( 영문 k-최근접 이웃 알고리즘 , k-NN) 효과를 피하기 위해   차원의 저주 [16] .


차원 축소의 이점 [ 편집 ]   |   코드 편집 ]

  1. 필요한 시간과 메모리를 줄입니다.
  2. 다중 공선성을 제거하면 기계 학습 모델의 속도가 향상됩니다.
  3. 데이터 를 2D 또는 3D와 같이 매우 낮은 차원으로 축소하면 시각적으로 데이터를 표현하는 것이 더 쉽습니다.


 

나는 중요한 시장 반전을 보기로 결정했습니다. 목표로 중요한 반전. 혼돈일줄 알았는데 아니네..

녹색 턴 업

레드 턴 다운

회색 이 아닌 반전

2D로 어떻게 든 더 명확하게


추가 데이터 추가, 구매당 4개의 클러스터 및 4개의 마을 할당, 이제 필요한 클러스터를 선택하고 각각에 일종의 분류기를 사용하여 회전하지 않는 것과 회전하지 않는 것을 분리해야 합니다.


젠장, 데이터에 얼마나 많은 쓰레기가 있는지 상상해보십시오.이 모든 것이 필요한 정보와 어떻게 든 분리되어야합니다.


여기에서는 일반적인 클러스터링을 사용할 수 없습니다.


예를 들어 DBscan과 같은 더 심각한 것을 시도하거나 수동으로 선택할 수 있습니다. 어디선가 그런 기술에 대해 들은 적이 있습니다.

 
mytarmailS :

나는 상당한 시장 반전을 보기로 결정했습니다. 목표로 중요한 반전. 혼돈일줄 알았는데 아니네..

녹색 턴 업

레드 턴 다운

회색 이 아닌 반전

2D로 어떻게 든 더 명확하게


추가 데이터 추가, 구매당 4개의 클러스터 및 4개의 마을 할당, 이제 필요한 클러스터를 선택하고 각각에 일종의 분류기를 사용하여 회전하지 않는 것과 회전하지 않는 것을 분리해야 합니다.


젠장, 데이터에 얼마나 많은 쓰레기가 있는지 상상해보십시오.이 모든 것이 필요한 정보와 어떻게 든 분리되어야합니다.


여기에서는 일반적인 클러스터링을 사용할 수 없습니다.


예를 들어 DBscan과 같은 더 심각한 것을 시도하거나 수동으로 선택할 수 있습니다. 어디선가 그런 기술에 대해 들은 적이 있습니다.

특정 클러스터 내에서 어떻게든 표지판을 볼 수 있습니까?

 
로르샤흐 :

특정 클러스터 내에서 어떻게든 표지판을 볼 수 있습니까?

무슨 뜻이야? 클러스터에는 기능이 없으며 유사성으로 기능의 일부를 결합합니다.

 
mytarmails :

무슨 뜻이야? 클러스터에는 기능이 없으며 유사성으로 기능의 일부를 결합합니다.

클러스터의 기능 값은 흥미 롭습니다.

사유: