Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
CS 198-126: Ders 3 - Derin Öğrenmeye Giriş, Bölüm 2
CS 198-126: Ders 3 - Derin Öğrenmeye Giriş, Bölüm 2
Dersin bu bölümünde, gereksiz işlemler gerçekleştirmeden gradyan iniş algoritması için gerekli tüm kısmi türevleri almanın daha hızlı bir yolu olan geri yayılım kavramı açıklanmaktadır. Öğretim görevlisi ayrıca derin öğrenme optimizasyonu için normal gradyan inişinin nasıl geliştirileceğini tartışır ve optimizasyon yöntemleri olarak momentum, RMSprop ve Adam'ı tanıtır. Bir modelin eğitim geçmişini takip etmenin önemi, toplu normalleştirmenin kullanımı ve model performansını iyileştirmek için bir teknik olarak birleştirmenin yanı sıra, bırakma ve atlama bağlantıları gibi aşırı uydurmayı azaltmaya yardımcı olmak için derin öğrenmede yaygın olarak kullanılan teknikler de tartışılmaktadır. Son olarak öğretim görevlisi, PyTorch'un kullanım kolaylığına kısaca değinir ve soruları yanıtlar.
CS 198-126: Ders 3 - Derin Öğrenmeye Giriş, Bölüm 2
CS 198-126: Ders 3 - Derin Öğrenmeye Giriş, Bölüm 2
Dersin bu bölümünde, gereksiz işlemler gerçekleştirmeden gradyan iniş algoritması için gerekli tüm kısmi türevleri almanın daha hızlı bir yolu olan geri yayılım kavramı açıklanmaktadır. Öğretim görevlisi ayrıca derin öğrenme optimizasyonu için normal gradyan inişinin nasıl geliştirileceğini tartışır ve optimizasyon yöntemleri olarak momentum, RMSprop ve Adam'ı tanıtır. Bir modelin eğitim geçmişini takip etmenin önemi, toplu normalleştirmenin kullanımı ve model performansını iyileştirmek için bir teknik olarak birleştirmenin yanı sıra, bırakma ve atlama bağlantıları gibi aşırı uydurmayı azaltmaya yardımcı olmak için derin öğrenmede yaygın olarak kullanılan teknikler de tartışılmaktadır. Son olarak öğretim görevlisi, PyTorch'un kullanım kolaylığına kısaca değinir ve soruları yanıtlar.
CS 198-126: Ders 4 - Ön Eğitim ve Büyütmelere Giriş
CS 198-126: Ders 4 - Ön Eğitim ve Büyütmelere Giriş
Bu derste konuşmacı, makine öğreniminde özellik çıkarmanın evrimini, derin öğrenmenin avantajlarını ve modellerin doğruluğunu ve hızını artırmak için transfer öğrenmenin nasıl kullanılabileceğini açıklıyor. Ayrıca sinir ağlarında katmanları dondurma ve ince ayar kavramını ve katıştırmaların kategorik değişkenlerin boyutsallığını azaltmadaki önemini tartışıyorlar. Ders, modelleri önceden eğitmek ve öğrenilen temsilleri sonraki görevlere aktarmak için kullanılabilecek yapboz, döndürme ve maskelenmiş sözcük tahmini görevleri dahil olmak üzere kendi kendine denetimli öğrenmeyi ve farklı görevlerini tanıtıyor. Son olarak, bilgisayarla görüde kendi kendine denetimli öğrenmeye yönelik yenilenen ilgi tartışılıyor ve ders, öğrencileri yüksek Crush not defterinde ödevlerini tamamlamaya teşvik ediyor.
tablo verileri için basit, ancak metin, ses veya resimler gibi veriler için karmaşıktır. Bununla birlikte, görüntüler için, klasik bilgisayar görüşünde bulunan özel özellik çıkarıcılar mevcuttur.
CS 198-126: Ders 5 - Bilgisayarla Görmeye Giriş
CS 198-126: Ders 5 - Bilgisayarla Görmeye Giriş
Bilgisayarla görme üzerine olan bu ders, bilgisayarla görmenin tarihi ve yıllar içindeki gelişimi dahil olmak üzere çeşitli konuları kapsar. Eğitmen ayrıca derin öğrenmeyi ve bunun klasik bilgisayarla görme yöntemlerinde nasıl geliştiğini açıklar. Ders, evrişim kavramını ve bunların bilgisayar görüşünde özellik çıkarıcılar olarak nasıl kullanıldığını ve evrişimli sinir ağlarının (CNN'ler) oluşturulmasına yol açar. Buna ek olarak ders, alıcı alanların rolünü tartışır ve CNN'lerin alıcı alanını artırmak için bir yöntem olarak havuzlama katmanlarını tanıtır. Genel olarak ders, bir alan olarak bilgisayar görüşüne ve görüntülerden bilgi çıkarmak için kullanılan tekniklere genel bir bakış sunar. Dersin ikinci bölümünde, kıvrımlar sırasında bir görüntünün boyutunu korumak için dolgu ve aynı dolgu dahil olmak üzere çeşitli teknikler tartışılmaktadır. Evrişimli katmanlardaki adım kavramı da kapsanarak, bir havuzlama katmanının etkisini nasıl taklit edebileceğini gösterir. Bir CNN'nin anatomisi ve çekirdek boyutu, adım, dolgu ve havuzlama katmanları dahil olmak üzere hiper parametreleri, evrişimli bir katmanın, özelliklerin düşük boyutlu bloklarını tam olarak bağlı bir ağ ortamına geçiren bir özellik çıkarıcı olarak nasıl davrandığına vurgu yapılarak açıklanır. sınıflandırma için ağ Dersler ayrıca, el yazısı rakamları sınıflandırmak için LeNet ağ mimarisini ve görüntü verilerini bir sinir ağından geçirmeden önce normalleştirmenin önemini de kapsar. Son olarak, ek eğitim verileri oluşturmak için bir teknik olarak veri artırma ele alınmış ve eğitim sırasında model kontrol noktasının önemi vurgulanmıştır.
CS 198-126: Ders 6 - Gelişmiş Bilgisayar Görüsü Mimarileri
CS 198-126: Ders 6 - Gelişmiş Bilgisayar Görüsü Mimarileri
Gelişmiş bilgisayarla görme mimarileri üzerine olan bu ders, evrişimli sinir ağlarına (CNN'ler) ve bunların çeşitli tekniklerine odaklanmaktadır. Öğretim görevlisi, daha yüksek doğruluk ve daha basit mimariler için geriye dönük artık değerleri korumak için kalıntılar gibi gelişmiş tekniklere geçmeden önce AlexNet ve VGG mimarisini açıklar. Darboğazlar ve tek tek evrişimlerin kullanımı ve ayrıca bilgisayarla görme mimarilerinde kimliği öğrenebilmenin önemi tartışılmaktadır. Ders ayrıca, sinir ağlarında kaybolan gradyanlar ve bunun toplu normalleştirme ve artık ağlarla nasıl hafifletilebileceği konularını da kapsar. Küresel ortalama havuzlama ve derinlemesine ayrılabilir evrişim gibi teknikler derinlemesine açıklanır, ardından mobil ağ mimarisi ve faydaları tartışılır.
Ayrıca öğretim görevlisi, gelişmiş bilgisayarla görme mimarilerini inceler ve adım yerel evrişimleri ve tek tek evrişimleri kullanarak evrişimli sinir ağı modellerini optimize etmeye odaklanır. Gelecekteki ağları verimli bir şekilde oluşturmak için bu optimizasyonları ve belirli optimizasyonlarla ortaya çıkabilecek sorunları anlamanın önemini vurguluyor. Ders, verimli ağ modelinin diğer ağlarla karşılaştırılmasıyla vurgulanan doğruluk, performans ve model boyutu arasındaki ödünleşim üzerine bir tartışma ile sona erer. Öğrenciler yaklaşan bir kısa sınav ve bir sonraki Cuma günü teslim edilecek bir ev ödevi hakkında bilgilendirilir.
CS 198-126: Ders 7 - Nesne Algılama
CS 198-126: Ders 7 - Nesne Algılama
Ders, nesne algılamayı, özellikle basit bir CNN sınıflandırmasına yerelleştirmeyi, nesne algılama için IOU yöntemini, R-CNN sistemini ve YOLO ile işlem süresini en aza indirmek için nesne algılama algoritmalarını optimize etmeyi tartışır. Video, bir görüntüyü keserek YOLO'yu açıklıyor ve belirsizliği ortadan kaldırmak için bağlantı kutuları kullanmak da dahil olmak üzere YOLO nesne algılamanın zorluklarını tartışıyor. Son olarak, nesne tespiti için tamamen evrişimli bir sinir ağı olan YOLO mimarisi keşfedildi ve sınıflandırma için çok sayıda sınıfın depolanması devam eden bir araştırma sorusu olarak sunuldu. Konuşmacı, okunamazlık nedeniyle RCNN'ye karşı tavsiyede bulunurken "Sarı Kağıt" ın okunmasını tavsiye ediyor.
CS 198-126: Ders 8 - Anlamsal Bölümleme
CS 198-126: Ders 8 - Anlamsal Bölümleme
Ders, anlamsal bölümleme ve örnek bölümleme dahil olmak üzere görüntü bölümlemeyi tartışır. Segmentasyonun temel amacı, bir görüntüdeki tüm nesneleri algılamak ve onları ayırmaktır. Öğretim görevlisi, anlamsal bölümleme için evrişimli bir sinir ağının (CNN) nasıl kullanılabileceğini ve alt örneklemenin, hesaplama açısından pahalı olan tam çözünürlüklü görüntülerde nasıl yardımcı olabileceğini açıklar. Küçük bir hacmi tekrar görüntü boyutuna dönüştürmek için farklı yaklaşımlar da tartışılmaktadır. Ders, önceki iyileştirmeleri atlama bağlantıları ile birleştiren bir semantik bölümleme modeli olan U-Net'i tanıtıyor ve Mask R-CNN yaklaşımı kullanılarak örnek bölümlemeye nasıl genişletilebileceğini açıklıyor. Önceden eğitilmiş bir semantik segmentasyon modeli gösterilir ve konuşmacı eğitim öncesi ve yaklaşan kurs ödevlerinden bahseder.
CS 198-126: Ders 9 - Otokodlayıcılar, VAE'ler, Üretken Modelleme
CS 198-126: Ders 9 - Otokodlayıcılar, VAE'ler, Üretken Modelleme
Bu derste, bir veri kümesine dayalı olarak yeni görüntüler oluşturmak için makine öğreniminin kullanılmasını içeren üretken modelleme kavramı tanıtılmaktadır. Özellik öğrenme için kullanılan bir tür sinir ağı olan otomatik kodlayıcılar, yapılarına ve sıkıştırma ve yeniden oluşturma yoluyla girdi verilerinin özelliklerini nasıl öğrenebileceklerine odaklanılarak açıklanmaktadır. Ders aynı zamanda değişken otomatik kodlayıcıları ve bunların faydalarını ve ayrıca otomatik kodlayıcılarda görüntüler arasında enterpolasyon yapmak için yapılandırılmış gizli boşlukların kullanımını kapsar. Ayrık verilerle çalışmak için vektör nicelemenin önemi tartışılır ve giriş verilerinin kodlanmasını önlemek için bir yeniden yapılandırma kaybı ve bir taahhüt kaybı içeren bir varyasyonel otomatik kodlayıcı için kayıp fonksiyonu açıklanır. Ders, işlenen konuların tekrarı ile sona erer.
CS 198-126: Ders 10 - GAN'lar
CS 198-126: Ders 10 - GAN'lar
GAN'lar üzerine ders, oyun teorisi benzeri bir kurulumda birbiriyle rekabet eden ayrımcı ve üretici olmak üzere iki ağ kavramını tanıtıyor. Jeneratörün girişi, gerçek görünümlü görüntüler oluşturmak için anlam atadığı rastgele gürültüdür ve ayrımcının işi, görüntünün gerçek mi yoksa sahte mi olduğuna karar vermektir. GAN'lar, negatif çapraz entropi kaybına karşılık gelen bir kayıp işlevi kullanır; üretici bunu en aza indirmek ister ve ayrıştırıcı bunu en üst düzeye çıkarmak ister. Değer işlevi, üreticinin ne kadar iyi çalıştığını ve ayrımcı tarafından sahte ve gerçek verileri doğru şekilde sınıflandırarak maksimize edilmesi gerektiğini temsil eder. Ders ayrıca, eğitim GAN'ları ve üreticinin değiştirmek için daha fazla aracıya sahip olmasını sağlayan doygun olmayan kayıpla ilgili sorunları da kapsar.
CS 198-126: Ders 11 - Gelişmiş GAN'lar
CS 198-126: Ders 11 - Gelişmiş GAN'lar
Gelişmiş GAN'lar hakkındaki bu ders, çift doğrusal üst örnekleme, aktarılmış evrişim, koşullu GAN'lar, StyleGAN ve CycleGAN dahil olmak üzere GAN modellerinin kararlılığını ve kalitesini geliştirmeye yönelik çeşitli teknikleri kapsar. Ders ayrıca GAN'larda kontrollü rastgele gürültü, uyarlanabilir örnek normalleştirme ve video işlemeyi tartışır. Daha iyi kararlılık ve sonuçlar elde etmek için öğretim görevlisi, ayrımcıyı aşırı derecede sinirlendirmemeye karşı uyarıda bulunurken, test sırasında daha büyük parti boyutlarının kullanılmasını ve rastgele gürültü aralığının kısaltılmasını önerir. Ek olarak, çeşitli görüntüler oluşturmak için farklı boyutlarda gizli alanın geniş bir dağılımıyla başlanması önerilir. Son olarak ders, çok büyük ölçeklerde GAN'lar oluşturmaya yardımcı olan Big Gan'a değiniyor.