Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2809

 
Valeriy Yastremskiy #:

Lib türü dikkate almıyor mu? Veri türü, en ucuz hesaplamalar için veri gibidir. Aynı matris hesaplamalar için tasarlanmalıdır.

R için numpy'nin bir benzerini bulamadım ve oradaki matrisler o kadar hızlı değil ve R'nin kendisi paradigması nedeniyle çok fazla bellek tüketiyor.

Elbette, üçüncü taraf bir kütüphane yavaş olabilir, kim kontrol eder ki?

Neyle karşılaştıracağımı bilmiyorum, bu yüzden hızı karşılaştırmak için gigabaytlık bir veri kümesi yüklemek istemiyorum
 
Алексей Тарабанов #:

Asla olmaz.

Peki takviye ile eğitim?
 
mytarmailS #:
Peki ya takviyeli öğrenme?

Topkstarter, hubr'da R üzerinde DQN üzerine bir makale yazdı.

Takviyeli öğrenmenin sadece zor bir optimizasyon olduğu anlaşılmalıdır.

Bazı durumlarda işe yarayabilir, bazı durumlarda yaramayabilir.

 
Maxim Dmitrievsky #:

R için bir numpy analogu bulamıyorum..

..
Tam olarak neye ihtiyacınız var? Hız gerekiyorsa, veri tablosu, veri çerçevelerinin hızlı analogu ise tibble, büyük miktarda veri ise büyük matris.

 
mytarmailS #:
..
Tam olarak neye ihtiyacınız var? Eğer hız ise veri tablosu, eğer veri çerçevelerine hızlı bir analog ise tibble, eğer büyük miktarda veri ise büyük matris.

Alexey'in acısını hafifletmek istedim) Baştan itibaren kesinlikle daha kolay... ama yine de.

 
Maxim Dmitrievsky #:

Topikstarter, R'deki merkezde DQN hakkında bir makale yazdı

pekiştirmeli öğrenmenin sadece akıllıca tasarlanmış bir optimizasyon olduğu anlaşılmalıdır

Bazı durumlarda işe yarayabilir, bazı durumlarda yaramayabilir.

Hafıza sorusu bağlamında...
RL'de eylem matrisini ve durum veya eylem değerlendirme matrisini sonsuza kadar güncelleyebilirsiniz, sürekli güncellenen bellek gibi. Ama haklı mıyım bilmiyorum.
 
mytarmailS #:
Hafıza sorusu bağlamında.
RL'de eylem matrisini ve durumların değerlendirme matrisini veya eylemlerin değerlendirme matrisini sonsuza kadar güncelleyebilirsiniz, bu sürekli güncellenen bir bellek gibidir.... Ama haklı mıyım bilmiyorum.

Durumları yeni verilere göre ayarlayabilir, ancak hepsi aynı seviyede veya Mashka gibi, yani bir gecikmeyle.

Temelde bir ödül, bir hedef seçmek daha önemlidir. Ve işlemleri farklı yönlere atacak ve her iterasyonda daha iyi ve daha iyi olacak.

 
Maxim Dmitrievsky #:

Alexey'in acısını hafifletmek istedim) Baştan itibaren kesinlikle daha kolay... ama yine de

Alexey düşünmek ve dinlemek isteseydi.... benim yazımla 2 dakika sürerdi.
 
Maxim Dmitrievsky #:

durumları yeni verilere göre ayarlayabilir, ancak hepsi seviye veya Mashka benzeri, yani gecikmeli

Özünde ödülü, yani hedefi seçmek daha önemlidir. Ve anlaşmalar kendi kendine farklı yönlere savrulacak ve her yinelemede daha iyi ve daha iyi hale gelecektir

hafıza, ağırlıkları eğitilmiş bir NS'dir, her adımda onu eğitirsiniz, ağırlıkları biraz hareket ettirirsiniz... çok değil, bu yüzden bir gecikme olur.

ve bunu terminale aktaramazsınız.

 
Maxim Dmitrievsky #:

hafıza, ağırlıkları eğitilmiş bir NS'dir, her adımda onu yeniden eğitirsiniz, ağırlıkları biraz hareket ettirirsiniz... çok değil, bu yüzden gecikme .

.
Eğitimli bir ağ veya herhangi bir eğitimli AMO veya hatta Mashka hafızadır. Evet, bu analojiyi kabul edebilirsiniz....

Ancak eğitilmiş bir sinir ağını "yeniden eğittiğinizde", ağırlıkları değiştirirsiniz, şimdiki zaman lehine geçmişi unutursunuz....

Bu yeniden eğitim değildir, her adımda yeniden eğitimdir, tıpkı kayan penceredeki Mashka gibi, orada olmasına rağmen kayan pencerenin dışında ne olduğunu hatırlamaz....