Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 637
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
:)))) Bu durumda Büyücü yardıma çağrılmalıdır :)))).
Sadece bir şey söyleyebilirim - trend / düz durumdan sorumlu olan negentropidir. Eğilim, sürecin "hafızası", dağılımın "kuyruğu" ve negentropi çok büyük ve düzlükte neredeyse 0. Bununla sadece kendim ilgileniyorum, ama bu küçük şeyin önemini anlıyorum- çalışılan parametre.
Hiçbir şey ona yardım etmeyecek. Yemek kaşığı gibi bir trend/düz değiştirici zamanında iyi olmalıdır.
Kırmızı çizgi - gerçek. Syn.-modeli. Bu örnekte, çok geç. Alttaki resim, model gecikmiş...
Kardeşler bizim için küçük bir adım atmaya devam ediyor ama tüm insanlık için büyük bir adım olacak.....
Mişa, inandım! Biliyordum! Yakışıklı! Sen en iyisin!)))
Mişa, inandım! Biliyordum! Yakışıklı! Sen en iyisin!)))
Desteğin için teşekkürler dostum!!!!! Ona gerçekten ihtiyacım var. Sadece bir dahaki sefere bana hitap ederken doğru yaz. güzelYYY!!!! Kulağa çok daha iyi geliyor...
Devam edelim...
Değerleri olan iki sütun var, A sütununda bir olayın olasılığını ve B sütununda başka bir olayın olasılığını hesapladım. Durum çok basit > 0. A sütununda sıfırdan büyük olayların sayısı sayılır ve toplam satır sayısına bölünür, B sütununda aynı sayıda değer sayılır ve toplam gözlem sayısına bölünür.
Değerlerimle daha fazla çalışma, koşullu olasılığı nasıl hesaplayabilirim???? İki sütunum olduğunu ve her ikisinin de 40 satırı olduğunu düşünürsek ????
Tamam, diğer tarafa gideceğim. Diyelim ki 100 girişlik bir giriş setim var. Her girdi için entropiyi hesapladım ve -10 ile 10 arasında sonuçlar aldım. Soru: Hangi girdilerin alınması tercih edilir????
Diyelim ki sıfırın altında 10 girişim var, diğerleri yukarıda, AMA tüm değerler -10 ile 10 arasında.....
Ve bir şey daha... Karşılıklı bilgiyi hesaplayamıyorum.... Daha doğrusu, daha sonraki entropi ve VI hesaplaması için koşullu olasılığı.
Parmaklarda ktonit açıklayabilir veya daha iyi bir örnek.
ilk sütun 40 satır giriş değişkeni
ikinci sütun 40 satır kapalı ....
Geceleri, hipotezi belirlemek için harika bir iş çıkardı. Burada bu şeylerin içinde dinlendim ve hiçbir şey. Lütfen yardım edin ve hipotezim hakkındaki düşüncelerimi ifade edeceğim ...
Bilgi teorisi okumadım, ancak R'de entropi konusunda biraz deneyimim var.
Aslında, daha fazla entropi, verilerde daha fazla kaos. Yüksek entropiye sahip bir tahmin edici, hedefle oldukça zayıf bir şekilde ilişkilidir. Ve tam tersi - düşük entropi, hedefin tahmin ediciden kolayca belirlendiğini gösterir.
Negentropi, entropinin tersidir, enropi ile karşılaştırıldığında yeni bir bilgi getirmez, sadece kolaylık sağlamak için tanıtıldı. Öngörücünün büyük bir entropisi varsa, o zaman negentropi küçüktür. Entropi küçükse, negentropi büyüktür. Sıcak ve soğuk, aydınlık ve karanlık vb. gibi, biri diğerine yumuşak bir şekilde geçer.
Ama hepsi bu kadar değil, bir de çapraz entropi var. Bu, her iki öngörücünün birlikte hedefle ilişkisidir, yüksek çapraz entropi kötü, düşük çapraz entropi iyidir. Makine öğreniminde, genellikle birlikte kullanıldığında yüksek entropili iki öngörücünün düşük çapraz entropi verdiği görülür, hepimizin ihtiyacı olan budur. Tahmin edicilerin her biri kendi başına hedefle kötü bir şekilde ilişkili olsa da (her ikisi için de yüksek entropi), ancak ikisi birlikte tam isabet sağlayabilirler (düşük çapraz entropi). Bu nedenle, her bir tahmincinin entropisini ayrı ayrı ölçemez ve tahmine göre bir küme seçemezsiniz. Düşük çapraz entropili tüm öngörücü setini seçmek gerekiyor, örneğin entropilerine ayrı ayrı bakmıyorum bile.
İşte örnekler -
1) Yüksek entropi tahmincisi. Hedef sınıfı ondan tahmin etmek genellikle imkansızdır.
2) Düşük entropi tahmincisi. Yakından bakarsanız, tahmin değeri 0 ile 0,25 arasında veya 0,4'ten küçükse, sınıf değeri = 1. Aksi takdirde, sınıf = 2. Bu, ML'de kullanmak için çok uygun bir tahmin edicidir.
3) her biri yüksek bir entropiye sahip iki öngörücü ve model, yalnızca birinci veya yalnızca ikinci öngörücüyü kullanarak hedefi asla tahmin edemez. Ancak onları bir araya getirdiğimizde (X ekseni birincinin değeridir ve Y ikincinin değeridir), birlikte hedef sınıf hakkında çok iyi bilgi verdikleri hemen açıktır (her iki tahmin için de aynı işaret = sınıf1, farklı işaret = sınıf2). Bu, düşük çapraz entropiye bir örnektir.
Desteğin için teşekkürler dostum!!!!! Ona gerçekten ihtiyacım var. Sadece bir dahaki sefere bana hitap ederken doğru yaz. güzelYYY!!!! Kulağa çok daha iyi geliyor...
Bu yüzden seni seviyoruz Usta! Her zaman hızlı, her zaman doğru! sen bizim canımızsın!!!)))
"Mishanina'nın Tanıkları". Şubat 2018
Yine bir soru. NS'nin 8 modeli vardır. Akım sinyalinde, NS çıkışlarının entropileri aşağıdaki gibidir.
5.875787568 - 5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925
Hangisini seçmeli? Kırmızı? negatif entropisi veya mavisi olduğu için mi? sıfıra yakındır. Bu iki modelin farklı yönlere baktığını söyleyeceğim ama biliyoruz ki kimin haklı olduğunu zaman gösterecek.... Sonunda biri kazanacak. Bunu kim düşünüyor???
Yukarıda yazdıklarımı özetlersek, önce öngörücü kombinasyonlarının çapraz entropisini belirlemelisiniz ve çapraz entropinin daha düşük olduğu bu öngörücü kombinasyonunu almalısınız. Negatif almanız garip, benim durumumda sadece sonsuzdan sıfıra, ama önemli değil, o zaman en olumsuz olanı alın.
NS'nin çıktı entropisi, bence, nöronun kendisinin bir değerlendirmesi kadar kötü. Sonuçta, ağın çıkışlarını, vakaların %100'ünde doğru cevabı verecek şekilde ayarlayabilirsiniz ve düşük entropi elde edersiniz, ancak aynı zamanda büyük bir fazla takma mümkündür. Fazlalık kötü.
Gerçek şu ki, Excel için entropiyi hesaplayan bir eklenti buldum. Hesaplamanın mantığını değiştirmeden ihtiyacım olan formda bitirdim ve buna göre böyle bir sorum var. Bu sikloaların hesaplanmasında burada ne olduğunu açıklayın. Tam olarak ne yaptıklarını anladım, ama işte bunu farklı bir şekilde nasıl göreceğimiz .... Hmm ....
ActiveSheet.Range(Data1) İçindeki Her Değer İçin
X(I) = Değer
Nn = Nn + Değer
ben = ben + 1
Sonraki Değer
Bu döngüde X dizisi yazılır ve kümülatif miktar da soru yokmuş gibi gider ama sonra ....
I = 1'den N'ye
X(I) = X(I) / Nn
sonraki ben
Dizinin her bir elemanını toplam değer miktarına bölüyoruz, bu yüzden bunun sadece aynı frekans araması olduğundan şüpheleniyorum. Doğru şekilde????
Pekala, işte bu... bir nevi anlaşıldı, olasılığı bulmak için tüm frekansları toplamamız gerekiyor. Çok doğru?
Yukarıda yazdıklarımı özetlersek, önce öngörücü kombinasyonlarının çapraz entropisini belirlemelisiniz ve çapraz entropinin daha düşük olduğu bu öngörücü kombinasyonunu almalısınız. Negatif almanız garip, benim durumumda sadece sonsuzdan sıfıra, ama önemli değil, o zaman en olumsuz olanı alın.
NS'nin çıktı entropisi, bence, nöronun kendisinin bir değerlendirmesi kadar kötü. Sonuçta, ağın çıkışlarını, vakaların %100'ünde doğru cevabı verecek şekilde ayarlayabilirsiniz ve düşük entropi elde edersiniz, ancak aynı zamanda büyük bir fazla takma mümkündür. Fazlalık kötü.
Çapraz entropiyi bulmak için önce iki olayın koşullu entropisini bulmanız gerekir, şu anda tam olarak bunu yapıyorum ....
Ve modelin entropisinin tahmini, modelin FOS üzerinde çalışması sırasında gereklidir. Bir sinyal vererek, bu sinyalin entropisini hesaplayabilir ve bundan sonuçlar çıkarabiliriz. Sinyalin entropisi arttı. Lanet olsun, düştü, bu bizim buharlı lokomotifimiz ....