Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1980
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Hafıza nasıl organize edilir?
nereye bağlı
Hemen anladıysan açıklama bekliyorum :)
http://peterbloem.nl/blog/transformers
Herkese merhaba, videoyu doğrudan forum başlığına yüklemedim, blogumda yayınladım. DİKKAT, piyasayla gerçekten ilgilenenler için normatif kelime dağarcığı değil ...
https://www.mql5.com/en/blogs/post/739164
Herkese merhaba, videoyu doğrudan forum başlığına yüklemedim, blogumda yayınladım. DİKKAT, piyasayla gerçekten ilgilenenler için normatif kelime dağarcığı değil ...
https://www.mql5.com/en/blogs/post/739164
ondan önce sadece ormanda dolaştım, NN-ki kullanmadım .....
Evet, aynıyım... Bu yüzden blok diyagram için konuşuyorum, böylece en azından görüntü düzeyinde neyin işe yaradığını anlamak için
Evet, aynıyım... Bu yüzden blok diyagram için konuşuyorum, böylece en azından görüntü düzeyinde neyin işe yaradığını anlamak için
Kohonen (VQ) tabakası nedir 2 gün boyunca takıldım
ama bunun sadece ilkel bir otomatik kodlayıcı olduğu ortaya çıktı
Vladimir onlar hakkında makaleler yazdınereye bağlı
Hemen anladıysan açıklama bekliyorum :)
http://peterbloem.nl/blog/transformers
Neyi yaratamıyorum, anlamıyorum, demiş Feynman.
Çarpma, toplamadan daha iyidir, işaret dikkate alınır. Genel olarak, diyelim ki argümanın ürünü ve bundaki sonuç bir şeydir) tek bir muhasebe işlevi.
İstekler, anahtarlar ve değerler ne kadar organize olduğu tam olarak anlaşılamamıştır.
Sözde paralel işleme türü ve eğitilmiş verilere erişim ile öz-dikkat olarak adlandırılan girdi ve çıktı sonuç vektörlerinin skaler ürünü arasındaki temel fark. bunda bir şey var. Ve sonra bu skaler ürünlerin matrisi eğitimde kullanılır. Ve bu ağırlık değil.
Makalede kısa bir uzun hafıza bulamadım.
Genel olarak, ek düzeltici matrisler oluşturulur.
Ben doğru olduğunu iddia etmiyorum.
Neyi yaratamıyorum, anlamıyorum, dedi Feynman.
Çarpma, toplamadan daha iyidir, işaret dikkate alınır. Genel olarak, diyelim ki argümanın ürünü ve bundaki sonuç bir şeydir) tek bir muhasebe işlevi.
İstekler, anahtarlar ve değerlerin ne kadar organize olduğu tam olarak anlaşılamamıştır.
Sözde paralel işleme türü ve eğitilmiş verilere erişim ile öz-dikkat olarak adlandırılan girdi ve çıktı sonuç vektörlerinin skaler ürünü arasındaki temel fark. bunda bir şey var. Ve sonra bu skaler ürünlerin matrisi eğitimde kullanılır. Ve bu ağırlık değil.
Makalede kısa bir uzun hafıza bulamadım.
Genel olarak, ek düzeltici matrisler oluşturulur.
Ben doğru olduğunu iddia etmiyorum.
bu farklı bir algoritmadır (şimdiki en havalı gibi), lstm'deki gibi uzun ve kısa bellek tanımları yoktur, örneğin
uzun ve kısa hakkında sadece lstm hücresinin nasıl çalıştığını görmek için
Kohonen (VQ) tabakası nedir 2 gün boyunca takıldım
ama bunun sadece ilkel bir otomatik kodlayıcı olduğu ortaya çıktı
Vladimir makalelerde onlar hakkında yazdıVladimir özellikle VQ hakkında mı yazdı? ya da sadece ?
Ama ya hafıza? orada nasıl çalışıyor? , kalıcı mı yoksa bir pencerede mi çalışıyor (gösterge olarak), statik mi yoksa yeniden eğitilmiş mi?
İskele ile benzer bir şey yapmak mümkün mü?
milyonlarca sorum var
bu farklı bir algoritmadır (şimdiki en havalı gibi), lstm'deki gibi uzun ve kısa bellek tanımları yoktur, örneğin
uzun ve kısa hakkında sadece lstm hücresinin nasıl çalıştığını görmek için
Ahh. Öyleyse, anladığım kadarıyla zaman zaman kendine dikkat ve kaynaklar var. Genel olarak, ağ mimarisini ölçeklendirmek, performansını bir dereceye kadar iyileştirir. Burada, anladığım kadarıyla, farklı ağ mantıklarının kombinasyonları ve ardından ölçeklenmesi yoluyla ağın karmaşıklığı)) Ve buna göre
Transformatör öğrenimindeki darboğaz, kişisel dikkatin nokta çarpım matrisidir. Sıra uzunluğu için t , içeren yoğun bir matristir t kare elemanlar. Standart 32 bit hassasiyetle ve t = 1000 bu tür 16 matristen oluşan bir toplu iş, yaklaşık 250 MB bellek alır. Tek bir öz-dikkat işlemi için bunlardan en az dördüne (softmax öncesi ve sonrası, artı gradyanları) ihtiyacımız olduğundan, bu bizi standart bir GPU'da maksimum on iki katmanla sınırlar ve 12 GB kaplar.
Anlamak için önce dokuyu çalışıp düşünmek zorunda kalacaksın..
beyin için vitamin satın almanız, daha az içmeniz gerekebilir)
Henüz çözemedim ama göründüğü kadar zor değil
Pekala, burada tekrar normal blok şemaya dönüyoruz, önce görüntü düzeyinde bir anlayış olması için çizilmesi gerekiyor ...
tip -
birinci sınıflandırıcı (bunu yapar, bunu, bunu yapar)
sonra tekeri çıkışa bağlarız)) (bunu yapar, bunu yapar)
sonra orada bir şey düşünürüz (o bunu yapar, bunu yapar)
tekerleğe tekrar çık
vb...
Ve terimleri bile bilmediğiniz bir tür karmaşık saçmalığı hemen okursanız, o zaman ne olur?, genellikle piyasaya uygun olduğu bir gerçek değil ...
Yani tam olarak bu algoritmanın çalışma prensibini ve belirttiğim gibi blok diyagram seviyesinde tam olarak ne anlamanız gerektiğini anlamanız gerekiyor. O zaman neyin ne olduğu ve neyin ne olduğu konusunda bir anlayış olacak ve bir anlayış olduğunda, neyin ve nasıl geliştirilebileceğine dair bir anlayış olacak.