Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1980

 
Valeriy Yastremskiy :
Hafıza nasıl organize edilir?

nereye bağlı

Hemen anladıysan açıklama bekliyorum :)

http://peterbloem.nl/blog/transformers

Transformers from scratch
  • peterbloem.nl
I will assume a basic understanding of neural networks and backpropagation. If you’d like to brush up, this lecture will give you the basics of neural networks and this one will explain how these principles are applied in modern deep learning systems. Self-attention The fundamental operation of any transformer architecture is the self-attention...
 

Herkese merhaba, videoyu doğrudan forum başlığına yüklemedim, blogumda yayınladım. DİKKAT, piyasayla gerçekten ilgilenenler için normatif kelime dağarcığı değil ...

https://www.mql5.com/en/blogs/post/739164

Говорим и показываем о рынке
Говорим и показываем о рынке
  • www.mql5.com
Оказывается пьяным меня смотреть ещё интересней. ВНИМАНИЕ в видео используется не нормативная лексика так что уберите детей от экрана телевизора. Ну и говорим собственно о рынке
 
Michael Marchukajtes :

Herkese merhaba, videoyu doğrudan forum başlığına yüklemedim, blogumda yayınladım. DİKKAT, piyasayla gerçekten ilgilenenler için normatif kelime dağarcığı değil ...

https://www.mql5.com/en/blogs/post/739164

Ayrıca Maxim'e doğrudan bir çağrı var!!!!!
 
Maksim Dmitrievski :

ondan önce sadece ormanda dolaştım, NN-ki kullanmadım .....

Evet, aynıyım... Bu yüzden blok diyagram için konuşuyorum, böylece en azından görüntü düzeyinde neyin işe yaradığını anlamak için

 
mytarmailS :

Evet, aynıyım... Bu yüzden blok diyagram için konuşuyorum, böylece en azından görüntü düzeyinde neyin işe yaradığını anlamak için

Kohonen (VQ) tabakası nedir 2 gün boyunca takıldım

ama bunun sadece ilkel bir otomatik kodlayıcı olduğu ortaya çıktı

Vladimir onlar hakkında makaleler yazdı
 
Maksim Dmitrievski :

nereye bağlı

Hemen anladıysan açıklama bekliyorum :)

http://peterbloem.nl/blog/transformers

Neyi yaratamıyorum, anlamıyorum, demiş Feynman.

Çarpma, toplamadan daha iyidir, işaret dikkate alınır. Genel olarak, diyelim ki argümanın ürünü ve bundaki sonuç bir şeydir) tek bir muhasebe işlevi.

İstekler, anahtarlar ve değerler ne kadar organize olduğu tam olarak anlaşılamamıştır.

Sözde paralel işleme türü ve eğitilmiş verilere erişim ile öz-dikkat olarak adlandırılan girdi ve çıktı sonuç vektörlerinin skaler ürünü arasındaki temel fark. bunda bir şey var. Ve sonra bu skaler ürünlerin matrisi eğitimde kullanılır. Ve bu ağırlık değil.

Makalede kısa bir uzun hafıza bulamadım.

Genel olarak, ek düzeltici matrisler oluşturulur.

Ben doğru olduğunu iddia etmiyorum.

 
Valeriy Yastremskiy :

Neyi yaratamıyorum, anlamıyorum, dedi Feynman.

Çarpma, toplamadan daha iyidir, işaret dikkate alınır. Genel olarak, diyelim ki argümanın ürünü ve bundaki sonuç bir şeydir) tek bir muhasebe işlevi.

İstekler, anahtarlar ve değerlerin ne kadar organize olduğu tam olarak anlaşılamamıştır.

Sözde paralel işleme türü ve eğitilmiş verilere erişim ile öz-dikkat olarak adlandırılan girdi ve çıktı sonuç vektörlerinin skaler ürünü arasındaki temel fark. bunda bir şey var. Ve sonra bu skaler ürünlerin matrisi eğitimde kullanılır. Ve bu ağırlık değil.

Makalede kısa bir uzun hafıza bulamadım.

Genel olarak, ek düzeltici matrisler oluşturulur.

Ben doğru olduğunu iddia etmiyorum.

bu farklı bir algoritmadır (şimdiki en havalı gibi), lstm'deki gibi uzun ve kısa bellek tanımları yoktur, örneğin

uzun ve kısa hakkında sadece lstm hücresinin nasıl çalıştığını görmek için

 
Maksim Dmitrievski :

Kohonen (VQ) tabakası nedir 2 gün boyunca takıldım

ama bunun sadece ilkel bir otomatik kodlayıcı olduğu ortaya çıktı

Vladimir makalelerde onlar hakkında yazdı

Vladimir özellikle VQ hakkında mı yazdı? ya da sadece ?

Ama ya hafıza? orada nasıl çalışıyor? , kalıcı mı yoksa bir pencerede mi çalışıyor (gösterge olarak), statik mi yoksa yeniden eğitilmiş mi?

İskele ile benzer bir şey yapmak mümkün mü?

milyonlarca sorum var

 
Maksim Dmitrievski :

bu farklı bir algoritmadır (şimdiki en havalı gibi), lstm'deki gibi uzun ve kısa bellek tanımları yoktur, örneğin

uzun ve kısa hakkında sadece lstm hücresinin nasıl çalıştığını görmek için

Ahh. Öyleyse, anladığım kadarıyla zaman zaman kendine dikkat ve kaynaklar var. Genel olarak, ağ mimarisini ölçeklendirmek, performansını bir dereceye kadar iyileştirir. Burada, anladığım kadarıyla, farklı ağ mantıklarının kombinasyonları ve ardından ölçeklenmesi yoluyla ağın karmaşıklığı)) Ve buna göre

Transformatör öğrenimindeki darboğaz, kişisel dikkatin nokta çarpım matrisidir.   Sıra uzunluğu için t , içeren yoğun bir matristir   t kare elemanlar.   Standart 32 bit hassasiyetle ve t   =   1000 bu tür 16 matristen oluşan bir toplu iş, yaklaşık 250 MB bellek alır.   Tek bir öz-dikkat işlemi için bunlardan en az dördüne (softmax öncesi ve sonrası, artı gradyanları) ihtiyacımız olduğundan, bu bizi standart bir GPU'da maksimum on iki katmanla sınırlar ve 12 GB kaplar.

 
Maksim Dmitrievski :

Anlamak için önce dokuyu çalışıp düşünmek zorunda kalacaksın..

beyin için vitamin satın almanız, daha az içmeniz gerekebilir)

Henüz çözemedim ama göründüğü kadar zor değil

Pekala, burada tekrar normal blok şemaya dönüyoruz, önce görüntü düzeyinde bir anlayış olması için çizilmesi gerekiyor ...

tip -

birinci sınıflandırıcı (bunu yapar, bunu, bunu yapar)

sonra tekeri çıkışa bağlarız)) (bunu yapar, bunu yapar)

sonra orada bir şey düşünürüz (o bunu yapar, bunu yapar)

tekerleğe tekrar çık

vb...


Ve terimleri bile bilmediğiniz bir tür karmaşık saçmalığı hemen okursanız, o zaman ne olur?, genellikle piyasaya uygun olduğu bir gerçek değil ...

Yani tam olarak bu algoritmanın çalışma prensibini ve belirttiğim gibi blok diyagram seviyesinde tam olarak ne anlamanız gerektiğini anlamanız gerekiyor. O zaman neyin ne olduğu ve neyin ne olduğu konusunda bir anlayış olacak ve bir anlayış olduğunda, neyin ve nasıl geliştirilebileceğine dair bir anlayış olacak.