Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 694

 

Uzun bir gönderi vardı ama moderatör sildi çünkü kendimi tutamadım ve duygularımı tipik bir Rus tarzında ifade ettim .... o yüzden kısa keseceğim ....

Dürüst olmak gerekirse, aldığım sonuçlara göre ben sadece Ouel. Evet, 110 girdiden 3'ten 5'e farklı koşullar altında seçildi ve buna göre oldukça küçük olduğu ortaya çıkan modeller, AMA bunu bir şeyle nasıl çözdüler. İlk olarak, seçilen girdiler üzerine inşa edilen TÜM modeller testimi %100 geçti. Böyle bir sonucu sadece bir kez alabildim ve sonra kazara, ama burada her şey kararlı ........

Evet, polinomların kendileri çok küçük çıktı, ama ne fark var ki. Savaşta her yol iyidir. Küçük polinomlardan kesinlikle piyasaya çıkacağız, işe yararlarsa bu benim suçum değil ......

Ancak yine de, bunların hepsi aceleyle ve teoriyi doğrulamak için daha fazla zamana ihtiyaç var, ancak burada aracın son iki hafta boyunca çevre koruma sahasındaki çalışmasına iyi bir örnek.

Tabii ki, bu bir sonraki başlıkta tartışılacak olan şey değil, ancak sonuç birinci sınıf, Öz sermaye tüm OOC sitesinde sürekli olarak sıfırın üzerinde!!!!

R ile ilgili yardım talebime yanıt veren herkese teşekkür etmek istiyorum. Gerçekten çok zaman kazanmama yardımcı oldunuz. Şimdi, sinyalinizi yeşil bölgeye taksiye çevirmek kaldı !!!!!

 
Dr. tüccar :

Örneğin jPrediction, verileri [-1; 1] aralığına ölçeklendirir ve bu sayılar üzerinde zaten eğitilmiştir. Girdileri değerlendirmeden önce R'de aynı aralığa ölçeklendirmek de mümkündür.

Ağaç bazlı tahmin yöntemleri muhtemelen sonucu değiştirmeyecektir, ormanlar için verilerin hangi aralıkta geldiği çok önemli değil ama kontrol etmekte fayda var. vtreat ayrıca aralık konusunda seçici değildir.


Ama genel olarak, girdilerin nörona beslenmeden önce bile lineer olmayan dönüşümünden bahsediyor. Nöronlar girdilere karşı çok hassastır ve girdi verilerini bir şekilde özel bir şekilde işlerseniz sonuçları iyileşebilir. Örneğin, girdileri sigmoid aracılığıyla dönüştürmek için böyle bir numara duydum.

Yanılmıyorsam, yerleşik modellerin zaten böyle bir işlevi var. Öyle görünüyor....

 double sigmoid( double x) {
   if ( MathAbs (x) < 1.0 ) {
       return 2.0 * signum(x) - x;
   }
   return signum(x);
}
 
Michael Marchukajtes :

Öyle görünüyor....

Bazı özel "Sigmoid Reshetov" :)

İşte farklı veri dönüşümlerine sahip ilginç bir resim.
Tüm tahmin ediciler yaklaşık olarak aynı çubuklara sahipse, nöronun çok mutlu olacağını ve kolayca öğreneceğini söylüyorlar. Scale()x2->Sigmoid() üzerindeki tahmin edicilerin son üçte biri oldukça iyi görünüyor, ancak tahmin edicilerin ilk yarısı ile bir şeyler yapılması gerekiyor, aksi takdirde nöron boğulur.
Ve jPrediction'da olduğu gibi [-1; 1]'de ölçeklendirme için kutu grafiğine bakarsanız, o zaman bir şekilde hiç iyi değil.


Dosyalar:
 

Bugün Kâselerin günü, ama neye benzediğini ve onu elimizde tutmak için ne kadar uğraşılması gerektiğini biliyoruz !!!!

Bu kelimeden korkmuyorum ama bugün kendim için kâseyi buldum. Birden fazla test yaptım ve sonuçlar harika. Dr. Tüccar aslında açılışa yol açan destek için. Bu kelimeden korkmuyorum ........ R'nin yardımıyla, bir dizi değişken tahmin ediciyi etkili bir şekilde bulmak mümkün oldu ve hedefin aynı sayıda sınıfa sahip olduğu göz önüne alındığında, daha sonra oynayarak biraz (birini ekleyerek veya çıkararak), önemli öngörücüler kümesi bir , iki sütunla genişletilebilir. Bir kez denedim ve onları eklemek çok normaldi. Ardından, maksimum öğrenme çıktılarına sahip modeli optimize etmeye ve seçmeye başlıyoruz.


Tabii ki kafa karıştıran polinomun büyük boyutu değil ama teorik olarak eğitim aralığının %50'si kadar yani bir hafta çalışacak ve bu benim için yeterli!!!!!! Ama olay şu... Ve şimdi burada güvenilir ve istikrarlı kalıplar arayanlara sesleniyorum. Örnekle anlatmak daha kolay....

110 tahmin edicinin ve karşılık gelen çıktının olduğu 1000 satır ve 111 sütunlu bir veri tablosu tutuyorum. AMA tüm tabloyu almıyorum, ancak 40 kayıttan küçük bir yeni bölüm alıyorum (bu yaklaşık 2 haftalık TS operasyonudur) Sonuç olarak, 40 x 110 artı hedef olan bir eğitim setim var. Aslında, bu belirli günde, bu aralıkta pazardan bir dilim alıyorum. Bu dilim sabittir. Ayrıca, sanatının olağanüstü dehasının yardımı olmadan, Bay Dr. R programlama ortamında tüccar, çıktıyla ilgili olarak önemli girdi değişkenleri seçiyorum ve anladığım kadarıyla diğer piyasa katılımcılarına göre bir avantaja sahip olmanızı sağlayan o kötü şöhretli alfanın olduğu 3 ila 5 sütun alıyorum. Ve şimdi en önemli şey.... Neden bütün bu çarşı oldu aslında. Eğitim için veri tablosuna başka bir satır eklediğim anda, sütunlar grubu çarpıcı biçimde değişecek, yani alfa başka bir sütun kümesine kaçacak. Belki hemen değil, ancak bir değil birkaç satır ekledikten sonra. Tobish TC sinyalleri!!!! Alfa, amaç fonksiyonu için minimal ve yeterli olan saf haliyle aynı düzenliliktir. AMA bu model açık değildir, yani onu çıplak gözle görmek son derece zordur. Bu aşamada AI bağlanır ve işini yapar.

Şimdi, beşten fazla girişte nadiren yer alıyorsa ve toplam alan 110 giriş ise, alfanın boşalttığım tüm veri alanına nasıl atlayabileceğini hayal edin. Başka bir deyişle, her yeni dilimde tamamen farklı tahmin edici setleri alıyorum. Ve ona nasıl ayak uydurmak istersiniz ve hatta YILLARCA !!!!!!! haftalarca buradaysa, o zaman onu normal şekilde yakalarsın ....... Ama kesinlikle haklısın Kase var, sadece herkesin kendine ait bir yeri var ve onu bir arada tutmak için küçük bir çaba göstermen gerekmiyor. ......

Ve yine demo hesap teorisyenlerine atıfta bulunarak, bu şekilde yapılır.......

Teoriyi geliştirdim ve üzerinde bazı testler yaptım. Testler iyi sonuçlar verdi. Modeller, robot şarjlıyken VPS-ka tarafından eğitilir. Bu haftaki sinyalimi takip edin ve varsayımlarımın ne kadar değerli olduğunu hemen göreceksiniz.

 

Harika!

Zafer R!

 
Michael Marchukajtes :

Şimdi, beşten fazla girişte nadiren yer alıyorsa ve toplam alan 110 giriş ise, alfanın boşalttığım tüm veri alanına nasıl atlayabileceğini hayal edin. Başka bir deyişle, her yeni dilimde tamamen farklı tahmin edici setleri alıyorum.

şimdi beynini çalıştır

 
birleştirici :

şimdi beynini çalıştır

Tavsiyenize gerçekten uyarsanız ve düşünürseniz, şimdiye kadar sadece bir cevap kendini önermektedir. Dilim durağandır ve ondaki herhangi bir değişiklik sizi tamamen farklı yasaların işlediği başka bir boyuta (mecazi olarak konuşursak) atar. Bu yüzden piyasada para kazanmak çok zordur. Buna durağan olmama da denir. Tahmin edebilen bilgi, olası maksimum veri kümesinin yalnızca %5'i olduğunda ve bir sonraki sinyalde küme önemli ölçüde değişebilir veya hiç değişmeyebilir. Üstelik deltayı ve hacmini sadece %5'i burada ve şimdi çalışan 11 enstrüman için saklıyorum ve bunların ne zaman değişeceği bilinmemekle birlikte, diğer kolonlarla yer değiştirme başladığında bu anın gerçekleşebileceği de açık. izlenir ve buna göre modelin havaya uçtuğu anı belirler.... Daha fazla test yapmamız gerekiyor ..... ve zaman yok ...

 

OOS, 15 dakika tf

2 numaralı stratejide kusurlar bulundu, düzeltildi, işe yarıyor gibi görünüyor

s. 3 kaldı ve büyük bir potansiyel hissettiğim RL eklendi, ancak uygulama hakkında çok düşünmem gerekecek


 

Sekiz makine öğrenimi modelinin incelenmesiyle ilgili ilginç bir makale

Spesifik olarak, şu algoritmaları ele alıyoruz: çok katmanlı algılayıcı (MLP), lojistik regresyon, saf Bayes, en yakın komşular, karar ağaçları, rastgele ormanlar ve gradyan artırıcı ağaçlar. Bu modeller, farklı doğrusal ve doğrusal olmayan bağımlılıkları (temel durum) yansıtan sekiz veri üretme sürecinden (DGP'ler) gelen zaman serilerine uygulanır. Süreksizlikler ve değişen derecelerde gürültü eklenerek ek karmaşıklık ortaya çıkar.


Ve işte sonuçlar

İlk olarak, optimal tahminler tarafından belirlenen hedef düzeyine kıyasla, bilinmeyen temel DGP'lerde sağlam performans elde etmek için makine öğrenimi modelleri buluyoruz. Gürültünün yokluğunda (temel durum), makine öğrenimi modelleriyle elde edilen sonuçlar, neredeyse optimal tahminin sonuçlarına benzer. Model bazında, MLP'ler ve GBT, hem doğrusal hem de doğrusal olmayan DGP'ler için en iyi sonuçları sağlar. Doğrusal olmayanlığı olmayan veya çok küçük olan süreçler için LR, özellikle düşük hesaplama maliyeti düşünüldüğünde iyi bir alternatif sunar. NB ve tek karar ağaçlarının daha kötü performans sağladığını buluyoruz ve bu nedenle zaman serisi tahmin görevleri için yukarıda belirtilen teknikleri öneriyoruz.

 

İkincisi, özellik alanına çok az gecikmeli değer eklemektense çok fazla gecikmeli değer eklemek daha iyidir. Çoğu makine öğrenimi modelinin, DGP'nin süreç denklemi tarafından önerilen gerekli gecikme sayısını aşma konusunda oldukça sağlam olduğunu görüyoruz. RF durumunda, ek özelliklerin dahil edilmesi tahmin doğruluğunu bile artırır. Bir gecikme ile başlamanızı ve bir bekleme setinde veya çapraz doğrulama ile performansı izleyen gecikmelerin sayısını kademeli olarak artırmanızı öneririz.

 

Üçüncüsü, en sağlam makine öğrenimi modeli olan LR ile tahmin doğruluğu üzerinde çok güçlü bir olumsuz etkiye sahip olan sıçramaları bulduk. Negatif etkileri azaltmak için, hem özellik uzayına (DIFF) ilk farkların eklenmesi hem de LOF algoritmasına dayalı atlamaların kaldırılması iyi sonuçlar vermiştir. Her iki tekniğin kombinasyonunu öneriyoruz.

 

Dördüncüsü, zaman serisini gürültüyle kirletmek, tüm makine öğrenimi modellerinde tahmin doğruluğu üzerinde en zararlı etkiye sahiptir. Yine, LR'nin gürültü varlığında en sağlam makine öğrenme modeli olduğunu bulduk. Ayrıca, özellik alanına ilk farkların (DIFF) ve hareketli ortalamaların (MA) dahil edilmesi gibi ek azaltma önlemleri, iyileştirilmiş sonuçlar verir.

 
San Sanych Fomenko :

Sekiz makine öğrenimi modelinin incelenmesiyle ilgili ilginç bir makale

Model bazında, MLP'ler ve GBT, hem doğrusal hem de doğrusal olmayan DGP'ler için en iyi sonuçları sağlar. Doğrusal olmayanlığı olmayan veya çok küçük olan süreçler için LR, özellikle düşük hesaplama maliyeti düşünüldüğünde iyi bir alternatif sunar. NB ve tek karar ağaçlarının daha kötü performans sağladığını buluyoruz ve bu nedenle zaman serisi tahmin görevleri için yukarıda belirtilen teknikleri öneriyoruz.

CART'ın doğrusal olmayan görevlerde hiç çalışmadığı gerçeği göz önüne alındığında, düz kaptanlar açıktır