Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1486
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ne olduğunu hiç anlamadım, Wikipedia bir kriptograf olmadan çözemeyeceğinizi söylüyor. Çok boyutlu dağıtımlar, ancak yalnızca python kodu açılırsa bunların nasıl oluşturulacağı net değil
evet, canları cehenneme. Sadece en geriye dönük resim, eşbütünleşme ile karşılaştırıldığında güzeldir.
işte kanıtı https://www.quantconnect.com/tutorials/strategy-library/pairs-trading-copula-vs-cointegration
Kopula, birkaç rastgele değişkenin ortak dağılım yoğunluğunun bir fonksiyonudur. Kavramsal olarak, bu oldukça basit bir matematiksel yapıdır, onu anlamak, örneğin iki rastgele süreç almak ve birinin diğerine bağımlılığının 2 boyutlu bir tablosunu oluşturmak, süreçler bağımsız ise, bir nokta alanı elde etmek. düzgün bir kare alan olsun ve bağımlılarsa, farklı desenler, bir yerde noktaların sıkışması ve diğerlerinde seyrekleşme olacaktır, burada noktaların yerel yoğunluğu kopuladır, bağımlılığı gösterir, doğrusal veya doğrusal olmayan.
IMHO, bir tahmin ile gerçek hayat arasındaki farkı anlamanız gerekir, bir ticaret sisteminin görevi bir tahmin yapmaktır, risk ve sermaye yönetiminin görevi sistemin hayatta kalmasını sağlamaktır.
peki ya kopulalar veya homunculi, TS'nin MO yardımıyla veya bir optimize edici yardımıyla nasıl elde edildiği .... - bu bir tahmindir, ancak gerçek durumu kontrol edemez - fiyat
Eh, kopulalara karşı değilim, aslında, Max'e onları hatırlattığı için bile, risk yönetiminde, belki de MO'nun yardımıyla bir şekilde uyarlanabilir ve tahmin edilebilirler.
typedef struct
{
double dist;
double* vector;
} distvect;
int distvectcomp(distvect *v1, distvect *v2)
{
if (v1->dist == v2->dist) return 0;
double sub = v1->dist - v2->dist;
return sub / fabs(sub);
}
double* parsen(dataset inputs, dataset outputs, int k, double kernel(double), double vector[])
{
distvect* dvarr = malloc(inputs.length * sizeof(distvect));
for (int i = 0; i < inputs.length; ++i)
{
double dist = 0;
for (int j = 0; j < inputs.dimentions; ++j) dist += pow(vector[j] - inputs.data[i][j], 2);
distvect dv = { dist, outputs.data[i] };
dvarr[i] = dv;
}
qsort(dvarr, inputs.length, sizeof(distvect), distvectcomp);
double *res = calloc(outputs.dimentions, sizeof(double));
double W = 0;
for (int i = 0; i < k; ++i)
{
if (dvarr[i].dist == 0) continue;
double w = kernel(dvarr[i].dist);
W += w;
for (int d = 0; d < outputs.dimentions; ++d)
res[d] += dvarr[i].vector[d] * w;
}
for (int d = 0; d < outputs.dimentions; ++d) res[d] /= W;
free(dvarr);
return res;
}
Ne? bu SVM saplaması nedir
Evet, hayır, bu "Parzen penceresi" ne tür bir svm, nükleer yumuşatma, ancak neredeyse mükemmel olması anlamında "yarı optimal" (Mitchell bir yerde vardı), ancak yalnızca çok yavaş, her yineleme tüm yeni bir noktaya veri kümesi ve çekirdek ile evrişim
Bir ağaç oluştururken tüm örnek üzerindeki sinyal dağılımının tekdüzeliğini hesaba katacak bir ağaç oluşturmak için neden algoritmalar olmadığını anlamıyorum?
Belki bir şekilde uygulayacağız çünkü ticaret için kritik öneme sahip.
Yaprakları bu dağılımı göz önünde bulundurarak değerlendiriyorum ama ağaç buna göre yapılmış olsaydı çok daha etkili yapraklar/ağaçlar olurdu.Bir ağaç oluştururken tüm örnek üzerindeki sinyal dağılımının tekdüzeliğini hesaba katacak bir ağaç oluşturmak için neden algoritmalar olmadığını anlamıyorum?
Belki bir şekilde uygulayacağız çünkü ticaret için kritik öneme sahip.
Yaprakları bu dağılımı göz önünde bulundurarak değerlendiriyorum ama ağaç buna göre yapılmış olsaydı çok daha etkili yapraklar/ağaçlar olurdu.En iyi algoritmayı önerin.
Tartışmayacağım, ama boşuna budama ile ağaçlara işkence ettiğinizi dışlamıyorum.
Gençliğimde bonsai'yi doğanın bir alay konusu olarak görürdüm ama ebeveyn olduğumda bu fikrin tüm derinliğini anladım.
Orada, her bölmeden önce, veriler özniteliğe göre sıralanır ( zaman içinde karıştırır ), bölünür (ortaya veya çeyreklere), hata azaltma hatırlanır ve tüm öznitelikler için tekrarlanır. En iyi ayrılık bir düğüm olur.
En iyi algoritmayı önerin.
Bu nedenle, tahmin edicileri ve değerlerini sıralarken bir tahmin vermeniz ve çok kalabalık olan değerlere (aralıklara) sahip tahmin edicileri almamanız, ancak örnek boyunca dağılmış olanları tercih etmeniz gerekir.
Onlar. sadece mutlak frekansını değil, bir numune üzerinde bir bölünmenin tekrarlanma sıklığını değerlendirmek gerekir.