Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
CS 198-126: Ders 12 - Difüzyon Modelleri
CS 198-126: Ders 12 - Difüzyon Modelleri
Difüzyon modelleriyle ilgili bu derste, konuşmacı difüzyon modellerinin arkasındaki sezgiyi tartışıyor - bir görüntüye eklenen gürültüyü tahmin etmek ve orijinal görüntüyü elde etmek için gürültüyü gidermek. Ders, eğitim sürecini, geliştirilmiş mimariyi ve görüntü ve video oluşturmada difüzyon modellerinin örneklerini kapsar. Buna ek olarak, ders, görüntünün semantik kısmında yayılmayı çalıştırmak için modeli gizli bir alana sıkıştıran gizli yayılma modelleriyle ilgili derinliğe iner. Konuşmacı ayrıca Dolly Q, Google'ın Imagine modeli ve Facebook'un Make a Video gibi ilgili modellere ve bunların metin kullanarak 3B modeller oluşturma becerilerine genel bir bakış sağlar.
CS 198-126: Ders 13 - Dizi Modellemeye Giriş
CS 198-126: Ders 13 - Dizi Modellemeye Giriş
Dizi modelleme hakkındaki bu derste, konuşmacı dizi verilerini temsil etmenin ve çok fazla bilgi kaybetmeden makul sayıda zaman adımına ulaşmanın önemini tanıtıyor. Tekrarlayan sinir ağları (RNN'ler), değişen uzunluklardaki girdi ve çıktıları idare etme yeteneğine sahip olan bu zorlukları çözmeye yönelik ilk girişim olarak tartışılmaktadır. Ancak, RNN'lerle ilgili sorunlar, bunların en iyi şekilde performans göstermesini engeller. Metin gömme, yüksek boyutlu bir sıcak vektör kullanmak yerine, metin verilerini temsil etmenin daha verimli bir yolu olarak sunulmuştur. Ek olarak, konumsal kodlama kavramı, bir dizideki öğelerin sırasını ikili değerler yerine sürekli değerler kullanarak temsil etmenin bir yolu olarak tartışılır.
CS 198-126: Ders 14 - Transformatörler ve Dikkat
CS 198-126: Ders 14 - Transformatörler ve Dikkat
Transformers ve Dikkat hakkındaki bu video ders, dikkatin arkasındaki kavram ve motivasyonu, dikkatin Transformers ile ilişkisini ve NLP ve vizyondaki uygulamasını kapsar. Öğretim görevlisi, yumuşak ve sert dikkati, kişisel dikkati, yerel dikkati ve çok başlı dikkati ve bunların Transformer mimarisinde nasıl kullanıldığını tartışır. Ayrıca, anahtar-değer-sorgulama sistemini, artık bağlantıların ve katman normalleştirmenin önemini ve girdi gömmelerinden kqv elde etmek için doğrusal bir katman uygulama sürecini açıklarlar. Son olarak, ders, dikkat mekanizmasının hesaplama verimliliğini ve ölçeklenebilirliğini vurgularken, diziden vektöre örneklerde konum yerleştirmelerin ve CLS belirtecinin kullanımını kapsar.
CS 198-126: Ders 15 - Görüntü Transformatörleri
CS 198-126: Ders 15 - Görüntü Transformatörleri
Bu derste konuşmacı, görüntü işleme görevleri için Görüntü Dönüştürücülerinin (ViT'ler) kullanımını tartışır. ViT mimarisi, bir Transformer'dan geçmeden önce doğrusal bir katman çıktısı kullanılarak girdi katıştırmalarına yansıtılan ayrık yamalar halinde görüntülerin alt örneklemesini içerir. Model, gerçek veri kümesi üzerinde ince ayar yapılmadan önce büyük, etiketli bir veri kümesi üzerinde önceden eğitilir ve önceki son teknoloji yöntemlere göre daha az işlemle mükemmel performans elde edilir. ViT'ler ve Konvolüsyonel Sinir Ağları (CNN'ler) arasındaki farklar, ViT'lerin küresel bir alıcı alana ve CNN'lerden daha fazla esnekliğe sahip olmasıyla tartışılmaktadır. Vizyon görevleri için Transformers ile kendi kendini denetleyen ve denetimsiz öğrenmenin kullanımı da vurgulanmıştır.
CS 198-126: Ders 16 - Gelişmiş Nesne Algılama ve Anlamsal Bölümleme
CS 198-126: Ders 16 - Gelişmiş Nesne Algılama ve Anlamsal Bölümleme
Bu ileri düzey nesne algılama ve semantik bölümleme dersinde öğretim görevlisi, evrişimli sinir ağlarının (CNN'ler) ve Transformatörlerin, özellikle doğal dil işleme (NLP) ve bilgisayar görüşünde avantajlarını ve dezavantajlarını tartışır. CNN'ler dokusal önyargıda mükemmelken, Transformers, önemli kavramları birbirine bağlamak ve belirli girdilere odaklanmak için kişisel dikkat katmanlarını kullanarak hem NLP hem de bilgisayarla görme görevlerini verimli bir şekilde yerine getirir. Ardından ders, dokudan çok şekle öncelik veren ve onları bozulmaya karşı dayanıklı kılan Vision Transformers'ı derinlemesine inceliyor. Görüntü sınıflandırması, semantik bölümleme ve nesne algılamada üstün olan Vision Transformer'ın geliştirilmiş bir versiyonu olan Swin Transformer'ın avantajlarını ve sınırlamalarını da açıklıyor. Ders, her türlü veriyi işleyebilen modellerde genellenebilirliğin önemini ve sürücüsüz araba gibi alanlardaki potansiyel uygulamaları vurgular.
CS 198-126: Ders 17 - 3 Boyutlu Görme Araştırması, Bölüm 1
CS 198-126: Ders 17 - 3 Boyutlu Görme Araştırması, Bölüm 1
Video, nokta bulutları, kafesler, vokseller ve parlaklık alanları dahil olmak üzere farklı 3B görsel temsilleri ve bunların artılarını ve eksilerini tartışıyor. Ders aynı zamanda ileri ve geri ışın yayını, katılar ve saydamlar için farklı yaklaşımlarla birbiriyle kesişen nesneler için görüntülerin renklendirilmesi ve işlenmesini de kapsar. Öğretim görevlisi, farklılaştırılabilir işlemenin sınırlamalarına ve Parlaklık Alanlarının her bir XYZ noktası için bir yoğunluk ve fiziksel renge sahip bir işlevi nasıl oluşturabileceğine değinerek onu daha öğrenilebilir hale getirir.
CS 198-126: Ders 18 - 3 Boyutlu Görme Araştırması, Bölüm 2
CS 198-126: Ders 18 - 3 Boyutlu Görme Araştırması, Bölüm 2
3B görüntü hakkındaki bu derste, eğitmen parlaklık alanlarını, özellikle de uzayda konum alan ve renk ve yoğunluk çıkaran Sinirsel Işıma Alanlarını (NeRF'ler) tartışır. Konuşmacı, kameranın bakış açısından sorgulamayı ve görüntünün nasıl görüneceğini anlamak için kara kutu işlevini kullanmayı içeren işleme sürecini açıklıyor. Dersler, 3D görüntüde nesnelerin tutarlı perspektiflerini temsil etmedeki zorlukları ve bir nesnenin XYZ verilerini almak için MLP'lerin kullanımını ve yoğunluk ve RGB bilgilerini çıkarmak için görünüm yönünü tartışır. Ders ayrıca hacimsel işlemenin zorluklarını ve bilgisayar görüşünü iyileştirmek için Nerf türevlerini kullanma konularını da kapsar. Eğitmen, bir sinir ağı kullanarak gerçekçi 3 boyutlu görüntüler oluşturmak için uzay daralmasının kullanımını göstererek bitirir.
CS 198-126: Ders 19 - İleri Görüş Ön Eğitimi
CS 198-126: Ders 19 - İleri Görüş Ön Eğitimi
Bu video, kontrastlı öğrenme, gürültü giderme otomatik kodlayıcılar, bağlam kodlayıcılar ve Mae ağı dahil olmak üzere ileri görüşte kendi kendine denetimli ön eğitim için kullanılan çeşitli teknikleri kapsar. Konuşmacı, güçlü ve zayıf yanlarını tartışarak her bir yönteme genel bir bakış sunar ve her ikisinden de daha iyi performans gösteren BYOL yönteminde karşılaştırmalı ve yeniden oluşturma kayıplarını birleştirmenin faydalarını vurgular. Video, kendi kendini denetleyen öğrenmedeki en son araştırma eğilimleri ve bunların bilgisayarla görme modellerinin performansını iyileştirme potansiyelleri hakkında yararlı bilgiler sağlar.
CS 198-126: Ders 20 - Görüntüleri Stilize Etme
CS 198-126: Ders 20 - Görüntüleri Stilize Etme
Videoda, eşleştirilmiş veri gerektiren nöral stil aktarımı, GAN'lar ve Pix2Pix ve görüntüden görüntüye çeviri için eşleştirilmemiş verileri kullanan CycleGAN dahil olmak üzere görüntü stilizasyonu için çeşitli teknikler tartışılıyor. CycleGAN'ın sınırlamaları, çok alanlı görüntü geçiş görevleri için üreteçleri eğitmek üzere birden fazla alandan bilgi alabilen StarGAN tarafından ele alınabilir. Konuşmacı ayrıca, BicycleGAN modeli tarafından örneklenen, çeşitli çıktılar üretmek için etki alanı bilgilerini ve düşük boyutlu gizli kodları kullanan çok modlu denetimsiz görüntüden görüntüye çeviriyi tartışıyor. Son olarak, görüntü çeviri görevleri için Vision Transformers'ı GAN'larla kullanmanın potansiyel faydalarından bahsediliyor ve ders, eğlenceli görüntü örnekleri ve soru-tartışma fırsatı ile sona eriyor.
CS 198-126: Ders 21 - Üretken Ses
CS 198-126: Ders 21 - Üretken Ses
Üretken ses hakkındaki bu derste sunum yapan kişi, niceleme, örtüşme, sinyal işleme, projeksiyonlar, derin öğrenme ve Dönüştürücüler gibi çeşitli konuları kapsar. Öğretim görevlisi, sürekli sinyallerin nasıl örnekleneceğini ve nicelleştirileceğini ve bit derinliklerinin kesinliği ile hesaplama gücü arasındaki değiş tokuşu tartışır. Shannon-Nequist örnekleme teoremi ve sinyallerin yeniden yapılandırılması üzerindeki etkileri ve projeksiyonların önemi ve bunların sinyal yeniden yapılandırması için kullanımı da açıklanmaktadır. Sesin yeniden yapılandırılması için derin öğrenme araştırılır ve sunum yapan kişi üretken sesi ve bunun kaybolan veya zarar görmüş kayıtlardan müziği nasıl yeniden oluşturabileceğini anlatır. Transformers'ın ses üretimi için kullanımı tartışılmakta ve müziği bir dizi belirteç olarak temsil etme süreci açıklanmaktadır. Konuşmacı ayrıca geniş ve çeşitli bir veri kümesine sahip olmanın önemini vurguluyor ve müzik tahminleri için transformatör modelinin işleyişini tartışıyor. Ders, modelin gelecekteki notaları doğru bir şekilde tahmin etme yeteneğini gösteren, oluşturulmuş bir müzik demosu ile sona erer.