Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2751

 
Aleksey Nikolayev #:

Algoritmanızı KNN (ya da onun bir modifikasyonu) ile karşılaştırdınız mı? Kazancın ne kadar önemli olduğu ilginç olurdu.

KNN hiç de aynı şey değildir.


Ben sınıflandırma ile değil "tahmin yeteneği" ile ilgileniyorum ve hatta bizim işimizde işe yaramayan bir öğretmen olmadan.

 
Vladimir Perervenko #:

İşte bu gerçekten ileriye doğru atılmış büyük bir adım. Göstergelerin ve uzmanların yeniden yazılması gerekiyor mu?

Hazır buradayken, ICA için teşekkürler ve hala feature_extraction("benzersiz ve önemli bileşenlerin tanınması" olarak nitelendirdiğiniz) hakkında bir sorum var -- bu konuya bir kez göz attım (Python için açıklama) ve sonra vazgeçtim.... Bu çıkarımı yalnızca görüntü ve metinlerle çalışırken kullandıkları izlenimini edindim -- yapılandırılmış verilerle (faktör tablosu gibi) çalışırken bu yaklaşımla uğraşmalı mıyız?... yararlılığını anlamak için algoritmanın özü hakkında birkaç kelime yazabilir misiniz?, sadece makalenizde bir şekilde bu konuda bir şeyler gördüm...? yoksa bir şey mi kaçırdım? (ve Python'da gördüklerim bana feature_extraction 'ı piyasadaki faktörlere uygulama konusunda ilham vermedi).

tercihler hakkında: yoksa hala normal (veya tanımladığınız gibi hiyerarşik) PCA ile kalmaya mı karar verdiniz?

şu anda hangi boyut indirgemesini kullanıyorsunuz?

ve makale için teşekkürler

Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
  • www.mql5.com
Эта статья продолжает серию публикаций о глубоких нейросетях. Рассматривается выбор примеров (удаление шумовых), уменьшение размерности входных данных и разделение набора на train/val/test в процессе подготовки данных для обучения.
 

NN'lerin artan bilgi ile çalışabileceğine dair önemli şüpheler var. Hemen yukarıda duvarlar arasında koşan ve kırmızıya dokunmadan yeşili yiyen bir şeye atıfta bulunulmuştu. Labirent büyüdükçe (bilgi artışı) kırmızı/yeşil hafızası da yok olacaktır. Bu yüzden önceki düzende iyi hareket eder ama yenisinde edemez. Kalıplar tekrarlandığı sürece, az ya da çok çalışır. Ve sadece eğitildiği yerde mükemmel çalışır.

Aynı koşullar için aynı NN'ye karşı tez, bir öğrencinin daha verimli bir algoritma yazabileceğidir. Ve bu algoritmayı başka bir öğrenci geliştirebilir veya diğer_eğrilik_uzayı koşullarına getirebilir (veya optimize edebilir/basitleştirebilir). Bu basitleştirilmiş örnekte NN kullanmak bir çıkmaz sokaktır, sonucu bilinçli ve niteliksel olarak iyileştirilemez. Ve bu genel olarak NN (ve DL) ile ilgili genel bir sorundur. Bu yöntemler, S/B dikdörtgende mor bir arka plan üzerinde kırmızımsı, yeşilimsi bir dizi kırmızı/yeşil, yuvarlak/kare tanımak için kullanılabilir. Dar özel problemlerin çözümü, sonsuza kadar eşitlik çıktısı değil

 
СанСаныч Фоменко #:

KNN hiç de aynı şey değildir.


Ben sınıflandırma ile değil "tahmin yeteneği" ile ilgileniyorum ve hatta bizim işimizde işe yaramayan bir öğretmen olmadan da.

Bununla birlikte, KNN, kayan bir pencerede kullanırsanız durağan olmama durumuyla başa çıkmanın en kolay yolunu sunar. Her zaman aynı tahminci kümesini kullanır, bu da onu tahminci kümesini değiştiren bir algoritma ile karşılaştırmayı ve bu karmaşıklığın faydasını değerlendirmeyi mümkün kılar.

 
Alexey Burnakov "Tah minci Tahmini ve Seçimi" algoritmalarının neden başarısız olduğunu açıklar.

Benzer sorunları sağlam ve hassas bir şekilde çözen yöntemimi yayınlayacağım - teoriyi vereceğim ve kodu R'de yayınlayacağım.

Bu, makine öğrenimi görevlerinin "anlaşılmasının" karşılıklı olarak zenginleştirilmesi için yapılır.

Benim gönderdiklerim sizin söylediklerinizi göndermek için yeterli değil mi?

 
Aleksey Nikolayev #:

Ancak KNN, kayan pencerede kullanıldığında durağan olmama durumuyla başa çıkmanın en kolay yolunu sağlar. Her zaman aynı tahminci kümesini kullanır, bu da onu tahminci kümesini değiştiren bir algoritma ile karşılaştırmayı ve bu karmaşıklığın faydasını değerlendirmeyi mümkün kılar.

İstenilen sonucu veremeyecek bir şeyi yapmanın bir anlamı olduğunu düşünmüyorum.

 

Burada kim ticarette NN ve AI uygulaması hakkında soru sordu?

(moderated ) platform ( moderated) (moderated) (moderated) (moderated) (moderated) (moderated) doğal dilde ticaret koşullarının / kurallarının / parçalarının-algoritmalarının tanımını anlar. Tabii ki İngilizce olarak

İşte bence yapay zeka çabalarının doğru hareket ve uygulama yönü. Wolfram alanında olduğu gibi, ancak Wolfram çoğunlukla bir ansiklopedi

---

Şu anda, aynı alanda çalışan ve uzun süredir iletişim halinde olan insanlar birbirlerini anlayamıyorlar. Bir otomatik çevirmen ya da karşılıklı imzalanmış ve bağlayıcı bir isimlendirme anlaşması olmadan:-)

 
Aleksey Nikolayev #:

Algoritmanızı KNN (ya da onun bir modifikasyonu) ile karşılaştırdınız mı? Kazancın ne kadar önemli olduğu ilginç olurdu.

SanSanych Fomenko #:

Prensipte istenen sonucu veremeyecek bir şeyi yapmanın anlamını göremiyorum.


Aleksey Nikolayev #:

Bununla birlikte, KNN, kayan bir pencerede kullanırsanız durağan olmama durumuyla başa çıkmanın en kolay yolunu sunar. Her zaman aynı tahminci kümesini kullanır, bu da onu tahminci kümesini değiştiren bir algoritma ile karşılaştırmayı ve bu karmaşıklığın faydasını değerlendirmeyi mümkün kılar.

KNN esasen K-means ( k-en yakın komşuların yabancı adı?) ise, o zaman(K-means) Öklid mesafesini kullanır ... "değişkenler ilişkili olmadığında - Mahalanobis mesafesi normal Öklid mesafesi ile çakışır" ... LDA 'da . .. Eğer değişkenler birbiriyle ilişkiliyse, dün genel anlamda belirtildiği gibi Mahalanobis daha iyidir
 
СанСаныч Фоменко #:

Buna katılmıyorum.

Piyasa değişiyor ve değişimin zaman aralıkları birbirinden farklı ve bağımsız.

Eskiden 3 ila 6 ay arasında yaşayan Uzman Danışmanlar yazabiliyordum. Onları hafta sonları optimize ettim. Sonra öldüler ve kısa bir süre için depozitoyu boşaltmaya yetecek kadar . Optimize etmek için yeterli zaman yoktu. Sonunda durum daha da kötü oldu: bir süre sonra, parametreleri seçmenin imkansız olduğu bir sınır olduğu ortaya çıktı.

Daha uzun piyasa değişim dönemleri vardır: 5-7 yıl. Ancak sonuç aylık dönemlerle aynıdır. Bot sonsuza dek ölür. Piyasadan belirli bir botu özel bir mesajla göndereceğim - bunu burada yapamazsınız.

Yani tüm bu "örneklem dışı" fikri saçmalık. Bir botun hala bir ömrü var, ne kadar süreceğini bilmiyoruz: 3 ay ya da 7 yıl. Bot öldüğünde, bunu başka bir düşüşle karıştırır ve depomuzu boşaltırız.

İdeal olarak, bir sonraki mumda yeniden eğitilmelidir. Keneler üzerinde çalışırsak, o zaman bir sonraki kene üzerinde, H1'de ve ardından bir sonraki saatin gelişinde.

Teşekkür ederim, neden her barda))))) oldukça açık. Ve neden dakikalar sonra kenelere gidiyorsunuz))))))

 
JeeyCi #:


KNN esasen K-means ( k-en yakın komşuların yabancı adı?) ise, o zaman(K-means) Öklid mesafesini kullanır ... "değişkenler ilişkili olmadığında - Mahalanobis mesafesi sıradan Öklid mesafesi ile çakışır" .... LDA 'da . .. Eğer değişkenler birbiriyle ilişkiliyse, dün genel bir şekilde belirtildiği gibi Mahalanobis daha iyidir

Öklid mesafesi yerine başka bir mesafe kullanmanızı engelleyen hiçbir şey yoktur. Elbette Mahalanobis'i kullanamazsınız, çünkü bu iki nokta arasındaki değil, bir nokta ile bir örnek arasındaki mesafedir.