Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
CS480/680 Ders 6: NLP için model sıkıştırma (Ashutosh Adhikari)
CS480/680 Ders 6: NLP için model sıkıştırma (Ashutosh Adhikari)
Bu videoda sunum yapan kişi, NLP için model sıkıştırma kavramını ve derin sinir ağlarının sayısı ve derinliği arttıkça işlem süresi ve bellek gereksinimlerinin zorluklarını tartışıyor. Model sıkıştırma teknikleri kategorize edilir ve en eski yöntem olan parametre düzeltme ve paylaşma tanıtılır. Konuşmacı, NLP'de model sıkıştırma için bir öğrenci-öğretmen sistemi kavramını ve doğruluk korunurken daha büyük bir modeli daha küçük bir öğrenci modeline sıkıştırmak için amaç fonksiyonunun nasıl kullanıldığını daha ayrıntılı olarak ele alır. Son olarak, büyük ölçekli NLP modelleri geliştirmeye yönelik son çalışmalar bağlamında modelleri sıkıştırmanın potansiyel önemi vurgulanmıştır.
CS480/680 Ders 7: Gauss Karışımı
CS480/680 Ders 7: Gauss Karışımı
Gauss karışımı hakkındaki bu derste, konuşmacı, her sınıf için bir ön dağılım oluşturarak modelin sınıflandırma için nasıl kullanılabileceğini açıklar; veri noktası. Ders ayrıca, belirli bir sınıfa ait bir veri noktasının olasılığını hesaplama sürecini ve bunun sınıf tahminini belirlemek için nasıl kullanıldığını da kapsar. Ders notları, softmax işlevi ile arc max dağılımı arasındaki ilişkiyi ve Gauss'un şeklinin ve sınırlarının kovaryans matrisi tarafından nasıl belirlendiğini araştırır. Son olarak ders, maksimum olabilirlik öğrenme sürecini ve bunun bir Gauss modeli karışımı için ortalama ve kovaryans matrisini tahmin etmek için nasıl kullanılabileceğini detaylandırır.
CS480/680 Ders 8: Lojistik regresyon ve genelleştirilmiş doğrusal modeller
CS480/680 Ders 8: Lojistik regresyon ve genelleştirilmiş doğrusal modeller
"CS480/680: Lojistik Regresyon ve Genelleştirilmiş Doğrusal Modeller" konulu dersin bu ilk bölümü, üstel dağılım ailesi fikrini ve bunun, sınıflandırma problemlerinde kullanılan güçlü bir teknik olan lojistik regresyonla ilişkisini tanıtıyor. Ders, lojistik regresyonun belirli bir veri kümesi için arkayı modelleyen en iyi lojistik fonksiyona uymayı amaçladığını ve birkaç boyut ve ağırlığa sahip problemler için, Newton yönteminin bir dışbükey olan amaç fonksiyonunun minimumunu bulmak için kullanılabileceğini açıklar. işlev. Eğitmen ayrıca, tekniğin basitliği ve etkinliğinin onu kullanıcı özelliklerine ve davranışlarına dayalı kişiselleştirilmiş öneriler yapmak için ideal hale getirdiği öneri sistemleri ve reklam yerleştirmede lojistik regresyonun önemini vurgular.
Ders ayrıca lojistik regresyon ve genelleştirilmiş doğrusal modeller konusunu da kapsar. Eğitmen, Newton'un lojistik regresyon yönteminin kısıtlamalarını tartışır, örneğin gelişigüzel büyük ağırlıkların neden olduğu aşırı uyum sorunu ve Hessian matrisindeki tekillik sorunları. Aşırı uydurmayı önlemek için düzenlileştirme önerilir. Eğitmen, doğrusal olmayan ayırıcılarla verimli bir şekilde çalışmak için kullanılabilecek genelleştirilmiş doğrusal modelleri (GLM'ler) tanıtır. GLM'ler, girdilerin, haritalama doğrusal olmadığı sürece doğrusal regresyon ve sınıflandırmanın doğrusal olmayan bir şekilde yapılabileceği yeni bir alana eşlenmesini içerir. Ders ayrıca doğrusal olmayan regresyon ve sınıflandırma yapmak için kullanılabilecek temel fonksiyonları ve türlerini de kapsar.
CS480/680 Ders 9: Algılayıcılar ve tek katmanlı sinir ağları
CS480/680 Ders 9: Algılayıcılar ve tek katmanlı sinir ağları
Bu ders, sınıflandırma için doğrusal bir ayırıcı üreten temel tip olan algılayıcıya odaklanan sinir ağlarını tanıtır. Ders, çıktıları üretmek için bir aktivasyon fonksiyonundan geçen girdilerin doğrusal bir kombinasyonunu hesaplamak için ağırlıkların nasıl kullanıldığını ve AND, OR ve NOT kapıları gibi mantık kapılarına yaklaşmak için farklı ağırlıkların nasıl kullanılabileceğini araştırır. Öğretim görevlisi, ileri beslemeli sinir ağını ve algılayıcı öğrenme algoritmasının ikili sınıflandırma için nasıl kullanıldığını ve gradyan inişinin ağırlıkları nasıl optimize edebileceğini tartışır. Verileri ayırmak için bir çizgi kullanmanın sınırlamaları tartışıldı ve lojistik sigmoid aktivasyon fonksiyonu kullanılarak ağırlıkların nasıl eğitilebileceğine odaklanılarak lojistik sigmoid aktivasyon fonksiyonu olası bir çözüm olarak sunuldu.
Perceptronlar ve tek katmanlı sinir ağları hakkındaki bu ders, karesel hatayı en aza indirmek için lojistik sigmoid aktivasyon fonksiyonlarının kullanımını ve sıralı gradyan inişinde çok önemli bir parametre olarak öğrenme oranının tanıtılmasını kapsar. Öğretim görevlisi ayrıca, çok katmanlı sinir ağlarının, çöp tutma işlevlerini kullanarak herhangi bir işleve keyfi olarak yaklaşmak için nasıl oluşturulabileceğini ve rastgele işlevleri öğrenmek için bir ağı eğitmek için geri yayılımın nasıl kullanılabileceğini gösterir. Eğitmen, sinir ağlarının konuşma tanıma, bilgisayar görüşü, makine çevirisi ve kelime gömme gibi çeşitli problemlerin çözümünde yaygın olarak kullanıldığını belirterek, sinir ağlarının çok yönlülüğünü ve verimliliğini vurgular.
CS480/680 Ders 10: Çok katmanlı sinir ağları ve geri yayılım
CS480/680 Ders 10: Çok katmanlı sinir ağları ve geri yayılım
Çok katmanlı sinir ağları ve geri yayılma hakkındaki bu ders, doğrusal modellerin sınırlamalarını ve çok katmanlı sinir ağları gibi doğrusal olmayan modellere olan ihtiyacı açıklar. Öğretim görevlisi, sinir ağlarında kullanılabilecek farklı aktivasyon fonksiyonlarını ve bunların doğrusal olmayan temel fonksiyonlara nasıl izin verdiğini tartışır. Ders, bir sinir ağındaki her ağırlığa göre hatanın gradyanını hesaplamak için geri yayılım algoritmasının nasıl kullanıldığını açıklamaya devam ediyor. Otomatik farklılaştırma araçları, bir sinir ağındaki deltaları ve gradyanları verimli bir şekilde hesaplamanın bir yolu olarak da tartışılmaktadır. Genel olarak ders, sinir ağlarının geniş bir işlev yelpazesine yaklaşmadaki esnekliğini ve gücünü vurgular.
Bu videodaki eğitmen, yavaş yakınsama, yerel optimizasyon, dışbükey olmayan optimizasyon ve fazla uydurma gibi sinir ağlarını optimize etme konularını tartışıyor. Yavaş yakınsamanın üstesinden gelmek için düzenlileştirme ve bırakma gibi teknikler kullanılabilir. Ek olarak, konuşmacı, verimliliği artırmak için adım boyutunu optimize etme ihtiyacını vurgulayarak, optimizasyon için gradyan inişinin davranışını açıklıyor. DES hibe algoritması, her bir boyutun öğrenme oranını ayrı ayrı ayarlayan bir çözüm olarak önerilmiştir. Konuşmacı ayrıca, önceki gradyanların ağırlıklı hareketli ortalaması olan RMSProp'u da sunar. Son olarak, konuşmacı, gradyanın ağırlıklı hareketli ortalamasını almayı içeren ve SGD Nesterov gibi diğer tekniklerden daha iyi performans gösterdiğini gösteren Adam'ı tartışıyor.
CS480/680 Ders 11: Çekirdek Yöntemleri
CS480/680 Ders 11: Çekirdek Yöntemleri
Bu derste, çekirdek yöntemleri kavramı, doğrusal olmayan bir işlev kullanarak verileri bir alandan yeni bir alana eşleyerek genelleştirilmiş doğrusal modelleri ölçeklendirmenin bir yolu olarak tanıtılmaktadır. Dual trick veya kernel trick, yeni uzayda nokta çiftlerinin iç çarpımını hesaplayan bir kernel fonksiyonunun kullanılmasına yol açan, ek maliyet ödemeden yüksek boyutlu uzaylarda çalışmayı sağlayan bir teknik olarak açıklanmaktadır. Veri noktaları arasındaki benzerliği ölçmek için kullanılabilen ve sınıflandırma görevlerinde yararlı olan polinom ve Gauss çekirdekleri de dahil olmak üzere, çekirdek oluşturmak için çeşitli yöntemler tartışılmaktadır. Çekirdek oluşturma kuralları, karmaşıklıklarını kontrol edebilen yeni çekirdekler oluşturmak için de tanıtılmıştır. Ders, gram matrisinin pozitif yarı-belirli olması ve özdeğerleri sıfırdan büyük veya sıfıra eşit olması gerektiğinden, Phi devrik Phi ile karşılık gelen fonksiyonları seçmenin önemini vurgular.
Çekirdek yöntemleriyle ilgili bu derste, konuşmacı çekirdekleri devrik çarpı bir matrise ayrıştırılabilen pozitif yarı-belirli fonksiyonlar olarak tanımlar. Polinom ve Gauss gibi çeşitli çekirdek türleri ve bunların uygulamaları, dizeler, kümeler ve grafikler gibi farklı veri türlerini karşılaştırmak için tartışılır. Konuşmacı ayrıca, alt dizi çekirdeklerinin, alt dizilerin uzunluğunu artırarak ve dinamik programlamayı kullanarak sözcükler arasındaki benzerliği nasıl hızlı bir şekilde hesaplayabildiğini açıklar. Ek olarak, destek vektör makinelerinin Reuters haber makaleleri kullanılarak belge sınıflandırmasında etkili olduğu gösterilmiştir.
CS480/680 Ders 13: Destek vektör makineleri
CS480/680 Ders 13: Destek vektör makineleri
Bu ders, sınıflandırma için kullanılan bir tür çekirdek yöntemi olarak destek vektör makinelerine (SVM'ler) bir giriş niteliğindedir. DVM'ler, düşük veri içeren problemler için hala popülerdir ve verilerin bir alt kümesiyle çalışıp geri kalanını göz ardı edebildikleri için seyrek kabul edilirler. Konuşmacı, karar sınırına en yakın veri noktaları olan destek vektörleri kavramını ve marjı en üst düzeye çıkarırken sınıfları ayırmak için doğrusal bir ayırıcı bulan DVM'lerin görsel örneğini açıklar. DVM'ler ve algılayıcılar arasındaki farklar, benzersiz bir maksimum marj doğrusal ayırıcı kullanan ve fazla uydurmaya daha az eğilimli olan DVM'ler ile tartışılmıştır. DVM'ler için optimizasyon problemi Lagrangian kullanılarak yeniden yazılabilir ve bu da kısıtlamalar olmadan eşdeğer bir problemle sonuçlanır. Lagrangian'dan elde edilen çözüm, ikili bir problem optimizasyonuna yol açan, çekirdek fonksiyonunu içeren bir ifade elde etmek için geri ikame edilebilir. Veri noktası çiftleri arasındaki benzerliği hesaplayan bir çekirdek işleviyle ikili uzayda çalışmanın faydaları da açıklanmaktadır. DVM'ler, en benzer olanları belirlemek için bir sorgulama noktası ile tüm destek vektörleri arasındaki benzerlik derecesini hesaplar ve tartışma aynı zamanda destek vektörlerinin sayısı ve noktaların sınıflandırılmasını nasıl etkilediği etrafında döner.
Bu video, belgelerin kelime sayımı vektörleri olarak temsil edildiği metin sınıflandırmasında destek vektör makineleri (SVM'ler) kavramını tartışmaktadır. DVM'ler, sınıflandırıcıyı farklı veri kümeleri için bile olası herhangi bir örnek için uygun hale getirerek en kötü durum kaybını en aza indirmede etkilidir. Araştırmacılar, doğruluğu kaybetmeden veya ölçeklenebilirlikten ödün vermeden verileri daha da yüksek boyutlu bir alana eşlemek için çift temsilli ve çekirdek eşlemeli SVM'leri kullandılar. Ders ayrıca, bir veri kümesinden ilgili belgelerin alınmasında ve kesinlik ile geri çağırmanın dengelenmesinde SVM'lerin kullanımını kapsar. Video, DVM'lerin veriler için doğrusal veya doğrusal olmayan ayırıcılar sağlama yeteneği ve çok sınıflı sınıflandırma ve doğrusal olarak ayrılamayan verilerle ilgili zorluklar hakkında bir tartışma ile sona eriyor.
CS480/680 Ders 14: Destek vektör makineleri (devam)
CS480/680 Ders 14: Destek vektör makineleri (devam)
Dersin bu bölümü, destek vektör makinelerini (SVM'ler) kullanırken gevşek değişkenler sunarak ve yumuşak bir kenar boşluğu göz önünde bulundurarak doğrusal olarak ayrılamayan verileri ve çakışan sınıfları ele almaya odaklanmıştır. Konuşmacı, gevşek değişkenlerin kenar boşluğu içindeki noktaların bir sınıflandırma hatası vermeden sınıflandırılmasına nasıl izin verdiğini açıklar. Hata minimizasyonu ve model karmaşıklığı arasındaki değiş tokuşu ayarlayan ağırlık C tarafından kontrol edilen gevşek değişkenlerin kullanımını düzenlemek için optimizasyon problemine bir ceza terimi eklenir. Konuşmacı ayrıca, birden çok sınıfa sahip SVM'ler için fiili yaklaşım olan, hepsine karşı bir, ikili karşılaştırma ve sürekli sıralama dahil olmak üzere çok sınıflı sınıflandırma problemleri için DVM'lerin kullanımına yönelik farklı yaklaşımları tartışır. Ek olarak, her bir sınıf çifti için ağırlık vektörlerinin farkıyla tanımlanan doğrusal ayırıcı etrafında bir tampon içeren çok sınıflı marj kavramı tanıtılır.
CS480/680 Ders 15: Derin sinir ağları
CS480/680 Ders 15: Derin sinir ağları
Bu video, derin sinir ağları kavramları, kaybolan gradyan problemi ve görüntü tanıma görevlerinde derin sinir ağlarının evrimi dahil olmak üzere derin öğrenmenin temellerini kapsar. Öğretim görevlisi, derin sinir ağlarının işlevleri daha özlü bir şekilde temsil etmek için nasıl kullanılabileceğini ve ağ derinleştikçe giderek daha yüksek seviyeli hale gelen özellikleri nasıl hesapladıklarını açıklar. Düzeltilmiş doğrusal birimlerin (ReLU) kullanımı ve toplu normalleştirme dahil olmak üzere, kaybolan gradyan sorununa yönelik çözümler ele alınmaktadır. Ders aynı zamanda maksimum çıkış birimlerini ve çoklu lineer parçalara izin veren ReLU'ların bir genellemesi olarak avantajlarını da kapsar.
Derin sinir ağları üzerine olan ders, etkili derin öğrenme için çözüm gerektiren iki sorunu tartışıyor: çok katmanlı ağ ifadesi nedeniyle fazla uydurma sorunu ve karmaşık ağları eğitmek için yüksek hesaplama gücü gereksinimi. Öğretim görevlisi, hesaplama sırasında paralel hesaplamanın yanı sıra eğitim sırasında düzenlileştirme ve bırakma gibi çözümler önerir. Ders ayrıca, girdiyi ve gizli birimlerin büyüklüklerini ölçeklendirerek test sırasında bırakmanın nasıl kullanılabileceğini ayrıntılarıyla açıklar. Son olarak, konuşma tanıma, görüntü tanıma ve makine çevirisi alanlarında derin sinir ağlarının bazı çığır açan uygulamalarını tanıtarak ders sonlandırılır.
CS480/680 Ders 16: Evrişimli sinir ağları
CS480/680 Ders 16: Evrişimli sinir ağları
Bu video, evrişimli sinir ağlarını (CNN'ler) tanıtır ve temel özelliklere sahip belirli bir sinir ağı türü olarak görüntü işlemedeki önemini açıklar. Öğretim görevlisi, kenar algılama gibi görüntü işleme için evrişimin nasıl kullanılabileceğini ve CNN'lerin benzer şekilde özellikleri nasıl algılayabildiğini tartışır. Evrişimli katman kavramı ve parametreleri, CNN'lerin paylaşılan ağırlıklarla geri yayılım ve gradyan inişini kullanarak eğitim süreciyle birlikte açıklanır. Öğretim görevlisi ayrıca, daha küçük filtreler kullanmak ve her evrişimden sonra doğrusal olmayan aktivasyon gibi etkili CNN mimarileri oluşturmak için tasarım ilkeleri sağlar.
Evrişimli Sinir Ağları (CNN'ler) hakkındaki bu derste, konuşmacı, derin sinir ağlarının karşılaştığı yok olan gradyan sorununa bir çözüm olarak artık bağlantılar kavramını tartışıyor. Bu atlama bağlantıları, ağ yollarının kısaltılmasına ve gereksiz katmanların göz ardı edilmesine izin verirken, sıfıra yakın çıktılar üretmekten kaçınmak için gerekirse bunları kullanmaya devam edebilir. Kaybolan gradyan sorununu azaltmak için toplu normalleştirme tekniklerinin kullanımı da tanıtılmıştır. Ayrıca konuşmacı, CNN'lerin video dizilerinde olduğu gibi ikiden fazla boyutlu ardışık verilere ve tensörlere uygulanabileceğini ve 3D CNN'lerin de belirli uygulamalar için bir olasılık olduğunu belirtiyor. TensorFlow çerçevesinin, çok boyutlu dizilerle hesaplama için tasarlandığı vurgulanmıştır.