Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ders 25. Stokastik Gradyan İnişi
25. Stokastik Gradyan İnişi
Bu videoda, genellikle sonlu toplam problemi şeklinde ortaya çıkan büyük ölçekli makine öğrenimi problemlerini çözmek için bir optimizasyon yöntemi olarak stokastik gradyan iniş (SGD) kavramı tanıtılmaktadır. Konuşmacı, SGD'nin hesaplamayı hızlandırmak için gradyanı hesaplamak üzere rasgele veri noktalarını nasıl seçtiğini ve yöntemin dalgalı doğası nedeniyle optimuma yaklaşırken toplu gradyan inişinden nasıl farklı davrandığını açıklar. SGD'nin temel özelliği, stokastik gradyan tahmininin, beklentideki gerçek gradyanın yansız bir versiyonu olmasıdır ve gürültüyü azaltmak için stokastik gradyan varyansının kontrol edilmesi gerekir. Mini partilerin kullanımı, derin öğrenme GPU eğitiminde ucuz bir paralellik aracı olarak tartışılır, ancak doğru mini parti boyutunun seçilmesi, görünmeyen verilerin varlığında çözümün sağlamlığını etkileyebilecek hala açık bir sorudur. SGD'yi optimize etmedeki zorluklar, mini parti boyutunu belirlemeyi ve stokastik gradyanları hesaplamayı içerir, ancak araştırmacılar, bir genelleme teorisi geliştirerek SGD'nin sinir ağlarındaki etkinliğini anlamaya çalışıyorlar.
Ders 26. Derin Öğrenme İçin Sinir Ağlarının Yapısı
26. Derin Öğrenme İçin Sinir Ağlarının Yapısı
Bu video, derin öğrenme için sinir ağlarının yapısını tartışıyor. Amaç, m özelliğe sahip özellik vektörleri ile bir sinir ağı oluşturarak verileri ikili bir şekilde sınıflandırmak, verileri iki kategoriden biri olarak sınıflandırabilen bir öğrenme işlevi oluşturmaktır. Doğrusal sınıflandırıcılar doğrusal olmayan verileri ayıramadığından, bu işlevlerin oluşturulmasında doğrusal olmama esastır. Video ayrıca sinir ağındaki ağırlık ve katman sayısının önemini tartışıyor ve kullanıcıların işlev oluşturma pratiği yapması için TensorFlow oyun alanı gibi kaynaklar sağlıyor. Son olarak video, bir pastayı keserek elde edilen düz parça sayısı formülünü kanıtlamak için kullanılan özyinelemeyi ve bunun derin öğrenmedeki toplam kaybı en aza indirme optimizasyon problemiyle nasıl ilişkili olduğunu tartışıyor.
Ders 27. Geri Yayılım: Kısmi Türevleri Bulun
27. Geri Yayılım: Kısmi Türevleri Bulun
Bu video, geri yayılım ve kısmi türev bulma ile ilgili birkaç konuyu kapsar. Konuşmacı kısmi türevler için zincir kuralının kullanımını gösterir ve matris çarpımında hesaplama sırasının önemini vurgular. Geri yayılım, gradyanları hesaplamak için verimli bir algoritma olarak vurgulanır ve etkinliğini göstermek için çeşitli örnekler verilir. Stokastik gradyan inişinin yakınsaması, stokastik gradyan inişinde rastgele bir kayıp sırası fonksiyon örneklerinin kullanımına ilişkin bir proje fikriyle birlikte kısaca tartışılmaktadır. Genel olarak, video, geri yayılım ve uygulamaları hakkında kapsamlı bir genel bakış sunar.
Ders 30: Rank-One Matrix'i Tamamlamak, Dolaşanlar!
Ders 30: Rank-One Matrix'i Tamamlamak, Dolaşanlar!
Ders 30'da öğretim görevlisi birinci derece matrisi ve dolaşım matrislerini tamamlamayı tartışıyor. 2x2'lik bir determinantla başlarlar ve bunu bir matriste hangi değerlerin birinci sırada olması için doldurulabileceğini daraltmak için kullanırlar. Öğretim görevlisi daha sonra 4x4'lük bir matris için bir kombinatoryal probleme geçer ve yalnızca verilen dört sayı ile oluşturulabilen döngüsel kalıpları içeren dolaşım matrislerini tanıtır. Ders ayrıca, sinyal işlemede önemli olan döngüsel evrişim, özdeğerler ve dolaşım matrislerinin özvektörlerini de kapsar.
Ders 31. Dolaşım Matrislerinin Özvektörleri: Fourier Matrisi
31. Dolaşım Matrislerinin Özvektörleri: Fourier Matrisi
Dolaşım matrislerinin özvektörleri hakkındaki bu videoda konuşmacı, dolaşım matrislerinin görüntü işleme ve makine öğrenimi ile nasıl ilişkili olduğunu ve bunun Fourier matrisiyle bağlantısını tartışıyor. Konuşmacı, ayrık Fourier dönüşümü (DFT) ve Fourier dönüşümleri ile ilgili olarak evrişimi ve dolaşım matrislerini anlamanın önemini vurgular. Konuşmacı, dolaşım matrislerinin, özellikle Fourier matrisinin özvektörlerini ve hepsinin, aynı zamanda özdeğerler olan aynı sekiz sayı kümesinden nasıl oluşturulduğunu tartışır. Konuşmacı ayrıca, sütunların nasıl ortogonal olduğu ancak ortonormal olmadığı ve dolaşım matrisinin simetrisi nedeniyle özvektörlerinin toplamının nasıl sıfıra ulaştığı ve onları birbirine dik yaptığı da dahil olmak üzere Fourier matrisinin özelliklerinden bahsediyor. Son olarak, konuşmacı Fourier Matrisinin bir özvektörü olarak Argan Vektörü kavramını örneklerle gösterir.
Ders 32: ImageNet Evrişimli Bir Sinir Ağıdır (CNN), Evrişim Kuralı
Ders 32: ImageNet Evrişimli Bir Sinir Ağıdır (CNN), Evrişim Kuralı
Bir derin öğrenme kursunun Ders 32'sinde, evrişimli sinir ağlarının (CNN'ler) görüntü sınıflandırmadaki gücü, evrişim katmanları, normal katmanlar ve maksimum havuzlama katmanları içeren büyük bir derin CNN tarafından kazanılan ImageNet yarışması örneğiyle tartışılır. Ders ayrıca çarpma ve evrişimi birbirine bağlayan evrişim kuralına, iki boyutlu evrişim örneklerine, Kronecker ürününün iki boyutlu Fourier dönüşümü için ve sinyal işlemede kullanımına ve periyodik ve periyodik olmayan arasındaki farka odaklanır. evrişim ile ilgili durumlar. Öğretim görevlisi ayrıca bir dolaşım matrisinin özvektörlerini ve özdeğerlerini ve Kronecker toplam işlemini tartışır.
Ders 33. Sinir Ağları ve Öğrenme Fonksiyonu
33. Sinir Ağları ve Öğrenme İşlevi
Bu videoda konuşmacı, gradyan iniş veya stokastik gradyan iniş ile optimize edilen ve kaybı en aza indirmek için eğitim verilerine uygulanan sinir ağları için f öğrenme fonksiyonunun yapısını tartışıyor. Sinir ağları ve öğrenme işlevinin yanı sıra çapraz entropi kaybı da dahil olmak üzere makine öğreniminde kullanılan çeşitli kayıp işlevlerini göstermek için elle çizilmiş bir resmin kullanımını açıklıyor. Konuşmacı ayrıca, nükleer manyetik rezonans kullanarak moleküllerin şekillerini belirleme gibi çeşitli uygulamalarda klasik bir problem olan, mesafeleri verilen noktaların konumlarını bulma probleminden de bahsediyor. Bir sinir ağının yapısını elde etmenin son adımı olan X'in inşasını tartışarak bitiriyor ve Cuma günü gönüllülerin bir projeyi tartışmaları için bir çağrıdan bahsediyor.
Anlatım 34. Mesafe Matrisleri, Procrustes Problemi
34. Mesafe Matrisleri, Procrustes Problemi
Konuşmacı, bir vektör kümesini başka bir vektör kümesine mümkün olduğunca yaklaştıran en iyi ortogonal dönüşümü bulmayı içeren Procrustes problemini tartışır. Bir uzaklık matrisinin Frobenius normunu ve bunun Procrustes problemi ile bağlantısını hesaplamak için farklı ifadeleri açıklarlar. Konuşmacı ayrıca matrislerin izi kavramını tanıtıyor ve Procrustes probleminde doğru Q'yu buluyor. Ek olarak, derin öğrenmenin gerçekten işe yarayıp yaramadığı sorusunu ele alırlar ve iki matrisin iç çarpımının SVD'sini hesaplamayı ve SVD'den ortogonal matrisleri kullanmayı içeren en iyi ortogonal matrisi bulmayı içeren bir matris problemine çözüm sunarlar.
Anlatım 35. Grafiklerde Küme Bulma
35. Grafiklerde Küme Bulma
Bu video, grafiklerde kümelemeyi ve K-ortalamaları ve spektral kümeleme gibi farklı algoritmalar kullanarak kümelerin nasıl bulunacağını tartışır. Laplace matrisi, spektral kümelemede kullanılır ve özvektörleri aracılığıyla grafikteki kümeler hakkında bilgi sağlayabilir. En küçük pozitif özdeğer için özvektör olan Fiedler özvektörü, kümeleme için önemlidir. Konuşmacı ayrıca, farklı kümeleri tanımlamada özvektörlerin ortogonal olmasının önemini vurgulamaktadır. Ek olarak, lineer cebirde Julia kullanarak geriye yayılımı kapsayacak bir sonraki dersin kısa bir ön izlemesi var. Öğrencilerin projelerini çevrimiçi olarak veya öğretim görevlisinin ofisi dışında sunmaları teşvik edilir.
Ders 36: Alan Edelman ve Julia Language
Ders 36: Alan Edelman ve Julia Language
Bu videoda Alan Edelman, makine öğrenimi için programlama dillerinin gücünü ve matematikteki önemini tartışıyor. Teknik değerleri ve makine öğrenimindeki kullanılabilirliği nedeniyle Google tarafından tanınan Julia dilinin son gelişimini vurgulamaktadır. Edelman, Julia'daki otomatik türevin nasıl çalıştığını açıklıyor ve Babil algoritması aracılığıyla sayısal sonlu farklar kullanmadan x'in karekökünü hesaplama örneği veriyor. Ayrıca verimli hesaplama için Julia'daki türlerin kullanımını ve blok matrislerle geri yayılım sürecini basitleştirmeyi tartışıyor. Genel olarak Edelman, matematiksel hesaplamalar için lineer cebirin önemini ve karmaşık fenomenleri anlamadaki rolünü vurgular.