Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2741

 
Aleksey Vyazmikin #:

Nasıl yani, sizden bir betik yapmanızı istedim - evet, alıntı yapıyorum " Örneklemim için hesaplamalar için R'de bir betik yapabilir misiniz - deneyin iyiliği için çalıştıracağım. Deney, optimum örneklem büyüklüğünü ortaya çıkarmalıdır. ", ancak bu zaten yapılmış olan bir şeye yanıttır.

Daha önce "... Dinamikte nasıl izlemeyi, nasıl gerçekleştirmeyi öneriyorsunuz? " - burada dinamiklerde tahmin edicinin tahmin edilmesinin uygulanmasını soruyordum, yani bazı pencerelerle düzenli tahmin ve her yeni örnekte mi yoksa her n örnekten sonra mı bir pencere olduğu açık değil. Eğer bunu yaptıysanız, ben anlamadım.

Gönderdiğiniz kod harika, ancak tam olarak ne yaptığını veya özünde neyi kanıtladığını anlamak benim için zor, bu yüzden ek sorular sormaya başladım. Grafikli iki resim ne anlama geliyor?

Kod, kayan bir pencerede tahmin edicilerin önemini iki farklı algoritma ile hesaplıyor, orman ve başka bir yol... Tıpkı sorduğunuz gibi.
 
mytarmailS #:

Kayan bir pencerede modeli yeniden eğitin ve özelliklerin önemine bakın veya sadece bazı iyi özellik tanımlayıcıları alın ve sk. Pencere.

...

Ayrıca her zevke uygun farklı özellik seçiciler, muhtemelen R-ka'da mevcut olanların %5'i.

etkili tahminler elde etmek için kayan pencere boyutu, sadece adım adım veya sabit olarak kayan değil, - sorun bu - her yinelemede yalnızca pencere boyutunu ayarlamak - modelin öğrenmesi uzun zaman alacaktır ... ve periyodik manuel yeniden eğitimin kendisi bir kayan penceredir! -- bunu zaten periyodik olarak yapacaksınız (kabul edilebilir st.dev'in ötesine geçerek) -- kendi yeniden eğitim programınız varsa - bunu da otomatikleştirebilirsiniz. AMA tekrar ediyorum - pencere boyutu da değişkendir.

...

Farklı mı? - algoritmik olarak her zaman (!) özellik eşleştirmeye dayanır, buna ne derseniz deyin, ... sadece kendi nüansları ve kendi uygulama alanı.

herkes buna korelasyon demek istemese bile

SanSanych Fomenko # :

Ben tahminci-öğretmen korelasyonu kavramına güveniyorum. "Bağlantı" korelasyon DEĞİLDİR ya da hemen hemen her MOE modeline uyan tahmin edicilerin "önemi" değildir.

caret linki - aynı Sınıflandırma ve Regresyon Eğitimi - önemsiz bir MO olarak, Python için aynı sklearn.

Sadece MO sadece olasılıksal modeller (mevcut olasılık dağılımlarına dayalı) oluşturmak için değil, aynı zamanda determinantal ve dinamik olanlar için de yaratılmıştır... ancak olasılıkların herhangi bir genellemesinin temeli her zaman (!) istatistik (korelasyonlarıyla birlikte) olacaktır, buna ne derseniz deyin... Aksi takdirde yanlı(!) tahminler elde edersiniz - yani modeliniz hedefinizi değil, başka bir şeyi (rastgele) modelliyor olacaktır.

 
mytarmailS #:
Kavgayı bırakmak ve tek bir amaç için birleşmek için ne yapmamız gerekiyor????????

Harika bir soru!

---

daha fazla alıcı mı yoksa satıcı mı olduğunu anlamamız gerekiyor.

Ama tek sorun, fiyat düşerse daha fazla alıcı olacağıdır, garanti!

 
JeeyCi #:


caret bağlantısı - aynı Sınıflandırma ve Regresyon Eğitimi - önemsiz bir MO olarak, Python için aynı sklearn.


Daha dikkatli okuyun ve bir şeyler uydurmanıza gerek yok

 
mytarmailS #:
Komut dosyası, iki farklı algoritma kullanarak kayan bir pencerede tahmin edicilerin önemini hesaplar, en başta ve başka bir yol... Tıpkı sorduğunuz gibi.

Forrest, belirli bir algoritmada tahmin edicinin kullanım sıklığını verir, bu nedenle hedefle ilgili OLMAYAN tahmin edicilere kolayca yüksek önem verir.

 
СанСаныч Фоменко #:

Daha dikkatli okuyun ve bir şeyler uydurmayın.

Eğer caret gerçekten bu şekilde yazılıyorsa daha dikkatli okuyamazsınız.

 
СанСаныч Фоменко #:

Forrest, belirli bir algoritmada tahmin edicilerin kullanım sıklığını verir, bu nedenle hedefle ilgili OLMAYAN tahmin edicilere yüksek önem vermek kolaydır.

Tekrar ediyorum: düzinelerce hazır fiş seçici var ve herkes hedefle bir bağlantı arıyor, her şey zaten bizden önce, uzun zaman önce icat edildi.

 
СанСаныч Фоменко #:

Sanırım hayatta kalma analizinin uygulanmasına ilişkin bazı ipuçları gördüm. Bu yönde ilginç bir şey var mı? Durdurma tetiklenmeden önce bir işlem sırasında arıza süresini istenen yönde maksimum fiyat hareketinin değeriyle değiştirmekle ilgili bazı fikirlerim var. Temel fikir, rastgele dolaşma için davranışın ne olması gerektiğinden sapmaları aramaktır. Bu alanda, bu arada, matstat (örneğin Cox regresyonu) ve MO uygulaması da çok gelişmiştir.

 
JeeyCi #:

... pencere boyutu da kayan bir pencere boyutudur

Makine öğrenimi tam olarak uygun bir araç olmaktan uzaktır çünkü

Makine öğrenimi, verilerin (muhtemelen rastgele) bir politika kullanılarak modelin çevre ile etkileşimi sonucu oluşturulduğu RL bağlamında farklı zorluklarla karşılaşır

yani, önce mevcut ortamı, ardından içindeki fs'yi ve oradaki karşılık gelen davranışı modellemeniz gerekir, yani aktörün bir durumu olmalıdır - bu, yeni bir pencereye (yani kayan pencere boyutunu dikkate alarak) ve dolayısıyla yeni bir ortam politikasına ve içindeki aktörün karşılık gelen / yeni davranışına geçmenin temelidir ... Genel olarak, Derin Takviyeli Öğrenme muhtemelen daha uygundur, burada

Bir alım satım aracısını eğitmek için, fiyat ve diğer bilgileri sağlayan, alım satımla ilgili eylemler sunan ve aracıyı buna göre ödüllendirmek için portföyü takip eden bir piyasa ortamı oluşturmamız gerekir.

örneğin - oyun teorisi (aktörün çevreyle etkileşimi) ve bilgi teorisi (bilginin aktörün tepkilerine ve çevrenin tepkilerine teğet geçmesi, yani yeni çevre koşullarının oluşması, yani sonuçlar) vardır... - Bu arada, SanSanych Fomenko 'nun bilgi teorisi terimiyle ne kastettiğini anlamadım . .. Yoksa tezi yine yanlışokunuyor?

p.s. Örneği kendim test etmedim....

machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
  • stefan-jansen
  • github.com
Reinforcement Learning (RL) is a computational approach to goal-directed learning performed by an agent that interacts with a typically stochastic environment which the agent has incomplete information about. RL aims to automate how the agent makes decisions to achieve a long-term objective by learning the value of states and actions from a...
 
JeeyCi #:

Caret'in gerçekten ne anlama geldiği konusunda daha dikkatli olamam.

classDist {caret} diyor , yani caret PAKETİNİN bir parçası olan belirli bir işlevi belirtiyor

Anladığım kadarıyla R'yi tanımıyorsunuz. O zaman neden bu başlıkta ve genel olarak MO'da zamanınızı boşa harcıyorsunuz?

R'ye hakim olmadan, MO tartışması anlamsızdır.