Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2105

 
Vladimir Perervenko :

Uygunluk fonksiyonu, optimizasyon işlemi sırasında optimizasyon kriterinin değerini hesaplar. Modeli eğitmekle ilgisi yok.

Fakat aynı regresyonda, hangi sayısal vektör şeklinde bir hedefimiz var ve onu modelden bir vektör ile yaklaştırmaya çalışıyoruz, bu yüzden hatayı en aza indiriyoruz (bunlar da optimizasyonlar)? veya doğru nöron ağırlıklarını bulma

Şimdi yaptığım şey bu, ayrıca aslında harmoniklerden bir model yaratıyorum.

 
mytarmailS :

uygunluk fonksiyonuna, dengeyi hesaplamak ve komisyonu hesaba katmak için yeni bir fonksiyon eklendi ...

öğrenme yol boyunca daha da kötüleşti, ......

her şeyin klasiklere göre olması için yine de bir tür doğrulama yapabilir

 
Maksim Dmitrievski :

"ticaret yapma" eklemek için catboost multiclass'ı metac'a ayrıştırmanız gerekir

strateji yelpazesi artacak

Yaparsan harika olur!

 
Alexey Vyazmikin :

Yaparsan harika olur!

2 çok yönlü model kullanabilirsiniz

 
Maksim Dmitrievski :

"ticaret yapma" eklemek için catboost multiclass'ı metac'a ayrıştırmanız gerekir

strateji yelpazesi artacak

İşaretlerken, burada

....
rand = random.randint(min, max)
         if dataset['close'][i] >= (dataset['close'][i + rand ]):
            labels.append( 1.0 )
        elif dataset['close'][i] <= (dataset['close'][i + rand ]):
            labels.append( 0.0 )              
         else :
            labels.append( 0.0 )
.....

örneğin olarak değiştir

 rand = random.randint(min, max)
         if dataset['close'][i] - (dataset['close'][i + rand ])>= 2 *spred:
            labels.append(- 1.0 )
        elif dataset['close'][i] - (dataset['close'][i + rand ])<= - 2 *spred:
            labels.append( 1.0 )              
         else :
            labels.append( 0.0 )

Yani, delta belirli bir değerden küçük olduğunda, çit üzerinde.

 
mytarmailS :

Fakat aynı regresyonda, hangi sayısal vektör şeklinde bir hedefimiz var ve onu modelden bir vektör ile yaklaştırmaya çalışıyoruz, bu yüzden hatayı en aza indiriyoruz (bunlar da optimizasyonlar)? veya doğru nöron ağırlıklarını bulma

Şimdi yaptığım şey bu, ayrıca aslında harmoniklerden bir model yaratıyorum.

Elbette optimizasyon ama bu optimizasyon regresyon modeliyle yapılıyor.

 
mytarmailS :

uygunluk fonksiyonuna, dengeyi hesaplamak ve komisyonu hesaba katmak için yeni bir fonksiyon eklendi ...

Yol boyunca öğrenmek daha da kötüleşti, neden? Sanırım artık algoritma komisyondan tasarruf etmek için işlem sayısını en aza indirmeye çalıştığı için ... sonuç olarak daha az deneyim sonucu daha az işlem ..

İşte grafikler, eğitim sırasında birkaç işlem olduğunda eğitimin başarısız olduğu doğrudan görülebilir...

gri renkte, bu eğitim TRAIN 1500 puan

siyah TEST 500 puandır

BURADA birkaç işlem vardı, algo hiçbir şey öğrenmedi, çok düşük frekans ..


Giriş noktalarını 2 gün önceden bilmek güzel))

Ama hepsini nasıl test edeceğimi bilene kadar sürekli olarak yeniden eğitmek muhtemelen daha iyidir.

Neye benziyor?

Özet eğri sentez kodu nerede? Gördüm gibi ama şimdi bulamıyorum.

 
Vladimir Perervenko :

Elbette optimizasyon ama bu optimizasyon regresyon modeliyle yapılıyor.

o zaman anlamadım (((neden bir fitness eğlencesi inşa edemiyorsun. orada?

 
mytarmailS :

o zaman anlamadım (((neden bir fitness eğlencesi inşa edemiyorsun. orada?

Nereye gidilir?

 
Vladimir Perervenko :

Özet eğri sentez kodu nerede? Gördüm ama şimdi bulamıyorum.

Sildim, kimsenin ilgilenmediğini düşündüm, sizin için kodu atabilirim, okunabilir bir forma çevirmeniz yeterli

Bu arada, tavlama yönteminin kararsızlığıyla karşılaştım, onunla nasıl çalışacağımı bile bilmiyorum, çok kararsız sonuçlar, parametreler çok atlıyor ...


buna varmak

önce rastgele bir başlangıç noktası başlatırım,

sonra bir çözüm bulununca saklıyorum

sonra tekrar tavlamayı başlatırım, ancak başlangıç parametreleri zaten bulunan çözümden ve birkaç kez böyle devam eder.