MetaTrader 5 Python Kullanıcı Grubu - Metatrader'da Python nasıl kullanılır - sayfa 83
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Bu doğru - uygun şekilde hazırlanmadı ....
Bununla ilgili nerede okumalı? Bana göre neyin önemli neyin önemsiz olduğu konusunda Meclis için veriler hazırlıyorum.
Bir şey benim için bir gizem: aynı türden verileri "bir grup halinde" toplamanız mı yoksa kullanılabilir hale geldikçe eklemeniz mi gerekiyor?
Hangi taraftan veri toplanacak: daha "eski" mi yoksa "yeni" mi?
Bu doğru - uygun şekilde hazırlanmadı ....
Bununla ilgili nerede okumalı? Bana göre neyin önemli neyin önemsiz olduğu konusunda Meclis için veriler hazırlıyorum.
Bir şey benim için bir gizem: aynı türden verileri "bir grup halinde" toplamanız mı yoksa kullanılabilir hale geldikçe eklemeniz mi gerekiyor?
Hangi taraftan veri toplanacak: daha "eski" mi yoksa "yeni" mi?
MO konusunda birinden cevap vermesini isteyin. Bu konu konektörle ilgili.
Sorun şu ki, normalleşme felaket bir şey!
Açıklamama izin ver. Bazı veriler var A, B, C...
Önem ve benzeri açılardan farklıdırlar. Herkes (Google'da) satırlarla değil, sütunlarla (A-A-A, B-B-B, B-B-B) normalleştirmenin gerekli olduğunu yazıyor. Bu mantıksal olarak anlaşılabilir.
Ancak "tahmin edilecek" yeni veriler olduğunda, yalnızca BİR satır ise NASIL normalleştirilir? Ve bu satırdaki herhangi bir terim, eğitim ve test verilerinde normalleştirmenin ötesine geçebilir mi?
Ve hatlarda normalleştirme herhangi bir etki yaratmaz!
Aslında, bu nüansları kontrol ettikten sonra, bu "ruhun çığlığı" içimde doğdu)))
normalizasyon katsayıları korur. Aralığın ötesine geçmekten kaçınmak için, büyük bir tarih parçası alıp normalleştirmeniz, ardından bu katsayıları uygulamanız gerekir. yeni verilere
normalleştirilmemiş verilerde, ızgara öğrenmeyecek veya zayıf öğrenecektir. Böyle özellikleri varnormalizasyon katsayıları korur. Aralığın ötesine geçmekten kaçınmak için, büyük bir tarih parçası alıp normalleştirmeniz, ardından bu katsayıları uygulamanız gerekir. yeni verilere
normalleştirilmemiş verilerde, ızgara öğrenmeyecek veya zayıf öğrenecektir. Böyle özellikleri varHer şey mantıklı ve anlaşılır, ama! Ağ öğreniyor! Ek olarak, normalleştirilmemiş verileri kullanırken eğitimin daha zor olduğu, ancak bunun kritik olmadığı bilgisi vardır.
Ve aralıklardan nasıl atlamamalı? Örneğin bir fiyatı var. Eğitim ve test verileri için bir fiyat aralığı var - 123-324 alalım. Ama bugün fiyat 421'e yükseldi. Bu aralığa nasıl düşecek?
Ancak sorunun özünden uzaklaştık - neden normal eğitim ve testlerle tahmin hiç bir şey değil?
Canım kayaklarım yine gitmiyor... Yardım istiyorum.
Eğitilmiş ağın tahminini kontrol etmek için küçük bir test cihazı çizmeye karar verdim.
Burada her şey iyi
Ve sonra tripler...
küfür
Sorun nedir?
İnternette dolaştıktan sonra ve kodumu yazdığım makaleye baktıktan sonra, "yeni başlayanlar için" herhangi bir makalenin her yazarının kesinlikle önemli bir şey söylemeyi unutacağı hayal kırıklığı yaratan bir sonuca vardım ...
Burada ve burada – ağı eğitirken StandardScaler'ın kullanıldığı ortaya çıktı. Ve makalede, bunun ne için olduğu hakkında hiçbir gu-gu yok.
Ayrıca, StandardScaler standardizasyon ile ilgilidir. Ve tek bir girdi vektörü için aynı standardizasyonu nasıl çıkarabilirim - özellikle bir kelime değil.
Veri kümesindeki sütunlara göre "standartlaştırma" yapılması daha da kötü! Hayır, sadece istatistikler için - bu normaldir. Ve tahminler için - bu "***dolu"! Yeni veriler göründüğünde, ağı yalnızca yeni verilerin "standartlaştırma" aralığına girmesi için yeni bir şekilde eğitmem gerekiyor mu ???
Övün!
Bu "yeni ağ" öğrenirken, durum şimdiden kökten değişebilir. İyi de buna ne gerek var?
Burada bir sürü "keskin" kitaplığa sahip Python var ....
Beni ikna edebilirseniz çok minnettar olurum.
not Python'da boşuna zaman harcadığıma inanmak istiyorum.
İnternette dolaştıktan sonra ve kodumu yazdığım makaleye baktıktan sonra, "yeni başlayanlar için" herhangi bir makalenin her yazarının kesinlikle önemli bir şey söylemeyi unutacağı hayal kırıklığı yaratan bir sonuca vardım ...
Burada ve burada - ağı eğitirken StandardScaler'ın kullanıldığı ortaya çıktı. Ve makalede, bunun ne için olduğu hakkında hiçbir gu-gu yok.
Ayrıca, StandardScaler standardizasyon ile ilgilidir. Ve tek bir girdi vektörü için aynı standardizasyonu nasıl çıkarabilirim - özellikle bir kelime değil.
Veri setindeki sütunlara göre "standartlaştırma" yapılması daha da kötü! Hayır, sadece istatistikler için - bu normaldir. Ve tahminler için - bu "***dolu"! Yeni veriler göründüğünde, ağı yalnızca yeni verilerin "standartlaştırma" aralığına girmesi için yeni bir şekilde eğitmem gerekiyor mu ???
Övün!
Bu "yeni ağ" öğrenirken, durum şimdiden kökten değişebilir. İyi de buna ne gerek var?
Burada bir sürü "keskin" kitaplığa sahip Python var ....
Beni ikna edebilirseniz çok minnettar olurum.
not Python'da boşuna zaman harcadığıma inanmak istiyorum.
Acıyla yarı yarıya uğraştım. )))
Ama şimdi başka bir soru ortaya çıktı (bunun uğruna tüm bunları başlattım):
Ağı eğitirken aşağıdaki sonuçları aldım
Başka bir deyişle - sonuç ustaca!
Test cihazınızı çalıştırın. Bu sonucu aldım
Peki, söyle bana, ağ hangi yerde %98 doğru sonuçlara göre eğitiliyor????
Merhaba, tartışmadan birkaç sayfa okumak, aşağıdaki soru hakkında somut bir şey bulamadı:
- Şu anda MT ve R entegrasyonu için MetaTraderR veya MetaTrader5 paketleri gibi çalışan herhangi bir şey var mı?
Şerefe
Afedersiniz, destanıma devam edeceğim ...)))
Aynı Google'dan biraz daha bilgi topladıktan sonra şu sonuca vardım:
Bu iki koşulu yerine getirdikten sonra ağ öğrenmede gözle görülür bir azalma elde ettim. Üstelik şunu keşfettim
Artı, başka bir soru ortaya çıktı: ağın yanıtı ne olmalı?