Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3388

 
Maxim Dmitrievsky #:

Neden çok sayıda işaret kötüdür? Kozulu üzerine bir kitaptan ilginç bir grafik.

Özellik sayısına bağlı olarak eğitim örneğinde aynı örneği bulma olasılığı.

Net değil. Eğitim örneğinde olduğu gibi aynı örneğin nerede olduğunu bulma olasılığı?

 
Aleksey Vyazmikin #:

Hiçbir şey net değil. Eğitim örneğinde olduğu gibi aynı örneğin nerede olduğunu bulma olasılığı?

veri kümesindeki aynı satır

yalnızca 1.000 satırınız varsa

Kabaca konuşmak gerekirse, 18+ özelliğiniz varsa, her satırı hatırlaması için bir sınıflandırıcıyı eğitirsiniz çünkü bunlar tekrar etmezler bile

ve nedensel çıkarımda, istatistikleri hesaplamak için örnekleri eşleştiremezsiniz.
 
Aleksey Vyazmikin #:

1. Bu matrisi nasıl elde ediyorsunuz? Buradaki sayılar nedir?

2. Ben kurallardan bahsediyorum. Benim yaklaşımımda kuralın nasıl ve neyden türetildiği umurumda değil, ancak yanıt eğitim örneğindeki bir diğerine benziyorsa, ek bilgi taşımaz.

1. herhangi bir özellik değeri

2. Sizi şaşırtacağım, kimse özelliklerin nasıl oluşturulduğunu umursamıyor, herkes özellikleri yalnızca yanıta göre değerlendiriyor
 
Maxim Dmitrievsky #:

Neden çok sayıda işaret kötüdür? Kozulu üzerine bir kitaptan ilginç bir grafik.

Özellik sayısına bağlı olarak eğitim örneğinde aynı örneği bulma olasılığı.

14'ten (ve hatta 10'dan) fazla özelliğiniz varsa, kayıp olmadan azaltamayacağınız çok sayıda kural elde edersiniz.


Bunların hepsi gündelik çerçevededir.
Yapılandırılmamış özelliklere sahip modellerde (metin, resim).
Birkaç bin öznitelik normdur.
 
mytarmailS #:
Bunların hepsi sıradan şeyler...
Yapılandırılmamış özelliklere sahip modellerde (metin, resim).
Birkaç bin özellik normaldir.

Nöroniklerin içinde sec2sec gibi verimli sıkıştırma algoritmaları kullanıyorlar, bu da doğru.

 
Maxim Dmitrievsky #:

Nöroniklerin içinde sec2sec gibi verimli sıkıştırma algoritmaları kullanır, bu yüzden de adildir.

Metinden bahsediyorsak, vakaların %95'inde normal kelime sayımını kullanır - belirli bir gözlemde bir kelimenin kaç kez geçtiği? 0, 1, 103..

Ve özellik matrisinin daha az yer kaplaması için "seyrek matris" formatında tutulur, bu uygundur çünkü matris değerlerinin %95'i sıfırdır.

Resimler konvolüsyondur.

Ve seq2seq nadir bir problem için egzotiktir.
 
mytarmailS #:
Metinden bahsediyorsak, vakaların %95'inde aşağıdaki gibi olağan kelime sayacı kullanılır - bu gözlemde bir kelime kaç kez geçti? 0, 1, 103..

Ve özellik matrisini daha az dolu hale getirmek için "seyrek matris" biçiminde tutulur, bu uygundur çünkü matris değerlerinin %95'i sıfırdır
.

Resimlerde, konvolüsyon.

Ve seq2seq nadir bir sorun için egzotiktir.

Bunlar farklı mimariler, katmanlı pastalar. Karşılaştırmak zor. Normal sınıflandırma ya da regresyondan bahsediyoruz. Bu durumda evrensel bir yasa gibi görünüyor.

 
Maxim Dmitrievsky #:

Bunlar başka mimariler, katmanlı pastalar. Karşılaştırmak zor. Sıradan bir sınıflandırma ya da regresyondan bahsediyoruz. Bu durumda, evrensel bir yasa gibi görünüyor.

Hepsi aynı şey.

Nöronlardan bahsetmiyorum, ileri beslemenin yapısından bahsediyorum.

----------------------------------------------------------------------

Hatırladım, buna kelime çantası deniyor.



Yeni, alışılmadık, anlaşılmaz, karmaşık olan nedir?


Aynı işaret tablosu + herhangi bir MO


Bu, yapılandırılmamış verilerle (metin) çalışıyor, ardından bunları bir kelime torbası yapısına ve ardından istediğimiz başka herhangi bir şeye çeviriyoruz

 
mytarmailS #:
Hepsi aynı.

Nöronlardan bahsetmiyorum, özellik beslemesinin yapısından bahsediyorum.

----------------------------------------------------------------------

Hatırladım, buna kelime çantası deniyor.



Yeni, alışılmadık, anlaşılmaz, karmaşık olan nedir?


Aynı işaret tablosu + herhangi bir MO


Bu, yapılandırılmamış verilerle (metin) çalışıyor, ardından bunları bir kelime torbası yapısına ve ardından istediğimiz başka herhangi bir şeye çeviriyoruz

Bu farklı bir konudan. Bunları nasıl dönüştürürseniz dönüştürün, girdi vektörünün boyutluluğu belirtilen eşikten daha düşük olmalıdır, aksi takdirde bir örüntü belirleyemezsiniz. Kategorik olanlar muhtemelen vektör uzunluğu konusunda daha büyük bir sınıra sahiptir. Ayrıca, satır sayısına olan bağımlılığı da göz önünde bulundurun. Büyük verilerde özellik sayısı daha fazla olabilir.
 
Maxim Dmitrievsky #:
Bu farklı bir konudur. Bunları nasıl dönüştürürseniz dönüştürün, girdi vektörünün boyutluluğu belirtilen eşikten daha düşük olmalıdır, aksi takdirde bir örüntü tespit edemezsiniz. Kategorik olanlar muhtemelen vektör uzunluğu konusunda daha büyük bir sınıra sahiptir. Ayrıca, satır sayısına olan bağımlılığı da dikkate alın. Büyük verilerde özellik sayısı daha fazla olabilir.
Başka ne olabilir)))
Tüm dünya bunu yapıyor ve herkes mutlu)