Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ders 6 - Genelleme Teorisi
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 06 - Genelleme Teorisi
Ders, genelleme teorisini ve büyüme fonksiyonunu, tüm büyüme fonksiyonunu karakterize etmek ve kırılmayı karakterize ederek her N için genelleme yapmak amacıyla, bir dizi N nokta üzerine kurulu bir hipotez tarafından üretilebilen ikiliklerin sayısı olarak tartışır. nokta. Konuşmacı, farklı hipotez kümeleri için büyüme fonksiyonunu hesaplama ve kombinatoryal özdeşliği kullanarak büyüme fonksiyonu için üst sınırı kanıtlama sürecini gösterir. Tartışma ayrıca, Hoeffding eşitsizliğinde büyüme fonksiyonunun kullanımına da değiniyor, hipotezler arasındaki örtüşmeleri karakterize etmek için bağlı VC ve kırılma noktası tarafından belirlenen polinomun sırası ile N'de polinom olan Vapnik-Chervonenkis eşitsizliği.
Profesör, önceki noktaları netleştirerek ve öğrenme için gerekli kaynakları hesaplamak için kullanılan kırılma noktası kavramını açıklayarak genelleme teorisini tartışır. Öğrenmenin odak noktası, E_in'e değil, E_out'a yaklaşımdır ve öğrencinin tanıdık niceliklerle çalışmasına izin verir. Profesör ayrıca M'yi büyüme fonksiyonuyla değiştirmenin ardındaki mantığı ve bunun N ve k'nin kombinatoryal miktarı B ile nasıl ilişkili olduğunu açıklıyor. Profesör, regresyon fonksiyonlarını tartışırken yanlılık-varyans değiş tokuşunu ve öğrenilebilirliğin hedef fonksiyondan nasıl bağımsız olduğunu vurguluyor. Son olarak profesör, aynı ilkelerin tüm işlev türleri için geçerli olduğunu belirtiyor.
Ders 07 - VC Boyutu
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 07 - VC Boyutu
Ders, bir hipotez seti tarafından parçalanabilecek maksimum nokta sayısı olan VC boyutu kavramını tanıtmakta ve pratik uygulamalarını açıklamaktadır. VC boyutu, bir modelin serbestlik derecesini temsil eder ve bir modeldeki parametre sayısıyla olan ilişkisi tartışılır. Farklı hipotez kümeleri için VC boyutunun nasıl hesaplanacağını göstermek için örnekler verilmiştir. İhtiyaç duyulan örnek sayısı ile VC boyutu arasındaki ilişki araştırılmış ve ikisi arasında orantılı bir ilişki olduğuna dikkat çekilmiştir. VC boyutunu artırmanın bir öğrenme algoritmasının performansı üzerindeki etkileri de tartışılmaktadır. Genel olarak, ders, VC teorisine ve bunun makine öğrenimi için pratik sonuçlarına ilişkin içgörüler sağlar.
Ayrıca video, makine öğreniminde hipotez kümesi boyutu ile iyi genelleme arasındaki ödünleşimi gösteren olumlu bir ifade olan genelleme kavramını ve genelleştirme sınırını kapsar. Profesör, ilk kırılma noktasından önceki en büyük değer olan VC boyutunu ve gerekli örnek sayısını tahmin etmek için nasıl kullanılabileceğini açıklıyor. Doğru hata ölçüsünü seçmenin önemine dikkat çekiyor ve VC boyut tahmininin, modelleri karşılaştırmak ve gereken örnek sayısını yaklaşık olarak tahmin etmek için kullanılabilecek gevşek bir tahmin olduğunu açıklıyor. Ders, bu materyal ile deney tasarımı konusu arasındaki ortak noktaları ve öğrenme ilkelerinin katı öğrenme senaryolarının ötesindeki diğer durumlara nasıl yayıldığını vurgulayarak sona erer.
Ders 8 - Önyargı-Varyans Dengeleme
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 08 - Önyargı Varyansı Dengeleme
Profesör, hipotez setinin karmaşıklığının genelleme ve tahmin arasındaki ödünleşimi nasıl etkilediğini açıklayarak, makine öğrenimindeki önyargı-varyans değiş tokuşunu tartışıyor. Öğretim görevlisi, bir makine öğrenimi algoritmasının ürettiği hipotezlerin ortalaması ile gerçek hedef işlev arasındaki sapmayı ve belirli bir modelin hipotez dağılımının sırasıyla farklı veri kümelerine göre ne kadar değiştiğini ölçen önyargı ve varyans kavramını tanıtır. Takas, daha küçük bir önyargıya ancak daha büyük bir varyansa sahip daha büyük bir hipotez setiyle sonuçlanırken, daha küçük bir hipotez setinin daha büyük bir önyargıya ancak daha küçük bir varyansa sahip olması gerekir. Öğretim görevlisi, hipotez setinde etkili bir şekilde gezinmek için yeterli veri kaynağına sahip olmanın önemini vurgular ve önyargı-varyans analizi ile VC analizi arasındaki ölçek farkını vurgular.
Ayrıca, basit modeller gerektiren daha az sayıda örnek ve daha karmaşık modeller gerektiren daha büyük örnek kaynakları ile, basit ve karmaşık modeller arasındaki ödünleşimi yaklaşıklaştırma ve genelleştirme yetenekleri açısından tartışıyor. Yanlılık-varyans analizi, doğrusal regresyona özgüdür ve doğrulama, bir model seçmek için altın standart olmak üzere, hedef işlevin bilgisini varsayar. Topluluk öğrenimi, çoklu veri kümelerinin ortalamasını almak için önyüklemeyi kullanan ve varyansı azaltan Bagging aracılığıyla tartışılır. Topluluk öğrenmedeki varyans ve kovaryans arasındaki denge de açıklanır ve doğrusal regresyon, öğrenmenin ilk parçası olarak uydurma ile bir öğrenme tekniği olarak sınıflandırılırken, teori iyi örnek dışı performansı vurgular.
Ders 9 - Doğrusal Model II
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 09 - Doğrusal Model II
Bu ders, sapma-varyans ayrışımı, öğrenme eğrileri ve algılayıcılar, doğrusal regresyon ve lojistik regresyon gibi doğrusal modeller için teknikler dahil olmak üzere doğrusal modelin çeşitli yönlerini kapsar. Konuşmacı, karmaşıklık ve genelleme performansı arasındaki ödünleşimi vurgulayarak, aşırı uydurmaya karşı uyarıda bulunur ve geçerli garantiler için hipotez alanının VC boyutunu uygun şekilde şarj etmenin önemini vurgular. Doğrusal olmayan dönüşümlerin kullanımı ve genelleme davranışı üzerindeki etkileri de tartışılmaktadır. Ders ayrıca lojistik işlevi ve olasılıkları tahmin etmedeki uygulamalarını kapsar ve lojistik regresyon bağlamında olasılık ve çapraz entropi hata ölçüleri kavramlarını tanıtır. Son olarak, gradyan iniş gibi hata fonksiyonunu optimize etmek için yinelemeli yöntemler açıklanmaktadır.
Ayrıca ders, makine öğreniminde doğrusal modeller ve optimizasyon algoritmaları ile ilgili bir dizi konuyu kapsar. Profesör, lojistik regresyon algoritmasını tanıtarak ve hata ölçümlerini ve öğrenme algoritmasını tartışarak, gradyan iniş optimizasyonunda öğrenme hızı ve hız arasındaki uzlaşmayı açıklıyor. Gradyan iniş ve çok sınıflı sınıflandırmada sonlandırma zorlukları da ele alınmaktadır. Makine öğreniminde özelliklerin türetilmesinin ve seçilmesinin rolü, VC boyutu açısından ücretlendirilen uygulama alanlarında bir sanat olarak vurgulanmakta ve tartışılmaktadır. Genel olarak, bu ders, makine öğrenimi için doğrusal modellere ve optimizasyon algoritmalarına kapsamlı bir genel bakış sağlar.
Ders 10 - Sinir Ağları
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 10 - Sinir Ağları
California Institute of Technology'de profesör olan Yaser Abu-Mostafa, bu derste lojistik regresyon ve sinir ağlarını tartışıyor. Lojistik regresyon, sınırlı gerçek değerli bir fonksiyonun olasılık yorumunu hesaplayan doğrusal bir modeldir. Hata ölçüsünü doğrudan optimize edemez, bu nedenle, yeterince pürüzsüz ve iki kez türevlenebilir keyfi bir doğrusal olmayan işlevi en aza indirmek için gradyan iniş yöntemi tanıtılır. Kapalı formda bir çözüm olmamasına rağmen, hata ölçüsü dışbükey bir fonksiyondur ve gradyan inişini kullanarak optimize etmeyi nispeten kolaylaştırır.
Stokastik gradyan iniş, sinir ağlarında kullanılan gradyan inişin bir uzantısıdır. Sinir ağları, biyolojik bir bakış açısıyla motive edilen ve algılayıcılarla ilgili bir hipotezi uygulayan bir modeldir. Geri yayılım algoritması, sinir ağları ile birlikte giden ve modeli özellikle pratik hale getiren verimli bir algoritmadır. Model, insanları heyecanlandıran ve algoritmayı kullanarak uygulaması kolay olan biyolojik bir bağlantıya sahiptir. Günümüzde tercih edilen bir model olmasa da, sinir ağları pratik uygulamalarda başarılı olmuş ve halen bankacılık ve kredi onay gibi birçok sektörde standart olarak kullanılmaktadır.
Kısa özet:
Ders 11 - Aşırı Uyum
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 11 - Fazla uydurma
Bu ders, makine öğreniminde fazla uydurmanın kavramını ve önemini tanıtmaktadır. Aşırı uyum, bir model sinyal yerine gürültü üzerinde eğitildiğinde meydana gelir ve bu da örneklem dışı uyumun zayıf olmasına neden olur. Ders, gürültü seviyesi ve hedef karmaşıklığı gibi farklı parametrelerin fazla uydurma üzerindeki etkilerini göstermek için çeşitli deneyler içerir. Öğretim görevlisi, aşırı uyumu erken tespit etmenin ve bunu önlemek için düzenlileştirme ve doğrulama tekniklerinin kullanılmasının önemini vurgular. Deterministik ve stokastik gürültünün aşırı uydurma üzerindeki etkisi de tartışılır ve ders, düzenlileştirme ve doğrulama yoluyla aşırı uydurmadan kaçınmaya ilişkin sonraki iki dersin tanıtılmasıyla sona erer.
Overfitting kavramı ele alınmış ve bunun önlenmesinde düzenlileştirmenin önemi vurgulanmıştır. Profesör, fazla uydurma ve yetersiz uydurma arasındaki dengeyi vurgular ve VC boyutunun fazla uydurmadaki rolünü açıklar; burada aynı sayıda örnek verildiğinde VC boyutundaki tutarsızlık, numune dışı ve numune içi hatada tutarsızlıklara neden olur. Bir modeli doğrulamanın pratik konusu ve bunun fazla uydurma ve model seçimini nasıl etkileyebileceği de ele alınmaktadır. Ayrıca profesör, aşırı uydurmayı önlemede parçalı doğrusal fonksiyonların rolünü vurgular ve modeldeki serbestlik derecelerinin sayısını dikkate almanın ve onu düzenlileştirme yoluyla kısıtlamanın önemini vurgular.
Ders 12 - Düzenleme
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 12 - Düzenleme
Düzenli hale getirmeyle ilgili bu ders, fazla uydurmanın ve bunun makine öğrenimi modellerinin genelleştirilmesi üzerindeki olumsuz etkisinin açıklanmasıyla başlar. Düzenlileştirmeye yönelik iki yaklaşım tartışılmaktadır: matematiksel ve buluşsal. Ders daha sonra, genişleyen bileşenler olarak Legendre polinomları örneğini kullanarak düzenlileştirmenin lineer modellerde yanlılık ve varyans üzerindeki etkisini araştırır. Düzenlileştirmede C ve lambda arasındaki ilişki, artırılmış hataya giriş ve bunun genelleme için düzenlileştirmeyi doğrulamadaki rolüyle birlikte ele alınmaktadır. Ağırlık azaltma/büyüme teknikleri ve fazla uydurmayı önlemek için doğru düzenleyiciyi seçmenin önemi de tartışılmaktadır. Ders, buluşsal bir alıştırma olarak iyi bir omega seçmeye odaklanılarak sona erer ve lambda'nın düzenlileştirme için kurtarıcı bir lütuf olarak hizmet edeceğini umar.
İkinci kısım, ağın basitliği ile işlevselliğini dengelemenin bir yolu olarak ağırlık azalmasını tartışıyor. Öğretim görevlisi, farklı gürültü seviyeleri için en uygun düzenlileştirme parametrelerini belirlemek için doğrulama kullanımını vurgulayarak aşırı düzenlileştirme ve optimum olmayan performansa karşı uyarıda bulunur. Düzenlileştirme, teorik ve pratik bir temele sahip deneysel olarak tartışılmaktadır. Farklı problemler için uygun düzenleme yönteminin nasıl belirleneceği ile birlikte L1/L2, erken durdurma ve bırakma gibi yaygın düzenlileştirme türleri tanıtılmaktadır. Düzenlileştirmenin uygulanmasıyla ilişkili yaygın hiperparametreler de tartışılmaktadır.
Ders 13 - Doğrulama
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 13 - Doğrulama
13. derste, model seçimi için makine öğreniminde önemli bir teknik olarak doğrulamaya odaklanılmaktadır. Ders, neden doğrulama olarak adlandırıldığı ve model seçimi için neden önemli olduğu da dahil olmak üzere doğrulamanın ayrıntılarına giriyor. Çapraz doğrulama, eğitim ve doğrulama için mevcut tüm örneklerin kullanımına izin veren bir doğrulama türü olarak da tartışılmaktadır. Öğretim görevlisi, örneklem dışı bir noktayı alan ve hipotez ile hedef değer arasındaki farkı hesaplayan rastgele değişkeni kullanarak örneklem dışı hatanın nasıl tahmin edileceğini açıklar. Ders, doğrulama setine dayalı olarak seçildiğinden artık güvenilir olmadığından, belirli bir modeli seçmek için tahmin kullanıldığında ortaya çıkan yanlılığı da tartışır. Çapraz doğrulama kavramı, farklı hipotezler için örneklem dışı hatanın değerlendirilmesi için bir yöntem olarak tanıtıldı.
Ayrıca, "birini dışarıda bırak" ve 10 kat çapraz doğrulamaya odaklanarak, fazla uydurmayı önlemek için model seçimi ve doğrulama için çapraz doğrulama kullanımını kapsar. Profesör, örneklem dışı tutarsızlık ve veri gözetleme için açıklamanın önemini gösteriyor ve örnekleme yanlılığını önlemek için rastgeleleştirme yöntemlerinin dahil edilmesini öneriyor. Çapraz doğrulamanın karmaşıklığı artırabilmesine rağmen, onu düzenlileştirme ile birleştirmenin en iyi modeli seçebileceğini ve doğrulamanın varsayım gerektirmediğinden benzersiz olduğunu açıklıyor. Profesör ayrıca, çapraz doğrulamanın farklı senaryolar ve modeller arasında karşılaştırma yaparken bile ilkeli seçimler yapmaya nasıl yardımcı olabileceğini ve toplam doğrulama noktalarının hata çubuğunu ve yanlılığı nasıl belirlediğini açıklıyor.
Ders 14 - Destek Vektör Makineleri
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 14 - Vektör Makinelerini Destekleyin
Ders, doğrulamanın önemini ve makine öğreniminde kullanımının yanı sıra çapraz doğrulamanın doğrulamaya göre avantajlarını kapsar. Dersin odak noktası, sınıflandırma için en etkili öğrenme modeli olarak destek vektör makineleri (SVM'ler) üzerinedir ve marjın maksimize edilmesini, formülasyonu ve kısıtlı optimizasyon yoluyla analitik çözümleri içeren bölümün ayrıntılı bir taslağını sunar. Ders, DVM'lerde bir nokta ile bir hiperdüzlem arasındaki mesafenin nasıl hesaplanacağı, DVM'ler için optimizasyon probleminin nasıl çözüleceği ve DVM optimizasyon probleminin ikili formülasyonunda nasıl formüle edileceği dahil olmak üzere bir dizi teknik detayı kapsar. Öğretim görevlisi ayrıca optimizasyon problemini çözmek için ikinci dereceden programlama kullanmanın pratik yönlerini ve destek vektörlerini belirlemenin önemini tartışır. Ders, DVM'lerde doğrusal olmayan dönüşümlerin kullanımına ilişkin kısa bir tartışma ile sona erer.
Bu dersin destek vektör makineleri (DVM) ile ilgili ikinci bölümünde öğretim görevlisi, örnek sayısına bölünen destek vektörlerinin sayısının, örneklem dışı bir noktayı sınıflandırmada hata olasılığına nasıl bir üst sınır verdiğini açıklar. doğrusal olmayan dönüşümle destek vektörlerinin kullanılması mümkün. Profesör ayrıca w devrik x artı b'nin 1 olarak normalleştirilmesini ve bunun optimizasyon için gerekliliğini ve ayrıca hatalara izin veren ve onları cezalandıran DVM'nin yumuşak marj versiyonunu tartışıyor. Ayrıca destek vektör sayısı ile VC boyutu arasındaki ilişki açıklanmış ve yöntemin gürültülü veri durumlarında kullanılan soft versiyonu ile yöntemin gürültüye karşı direncinden bahsedilmiştir.
Ders 15 - Çekirdek Yöntemleri
Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 15 - Çekirdek Yöntemleri
Çekirdek yöntemleriyle ilgili bu ders, marjı en üst düzeye çıkarma kavramı nedeniyle geleneksel doğrusal regresyon modellerinden daha fazla performans odaklı olan doğrusal bir model olarak destek vektör makinelerini (SVM'ler) tanıtıyor. Veriler doğrusal olarak ayrılamazsa, karmaşıklık için yüksek bir bedel ödemeden yine de karmaşık hipotezleri mümkün kılan oynak yüzeyler oluşturmak için doğrusal olmayan dönüşümler kullanılabilir. Video, yüksek boyutlu Z uzayına giden çekirdek yöntemlerini açıklayarak, tek tek vektörleri hesaplamadan iç çarpımın nasıl hesaplanacağını açıklıyor. Video ayrıca, sınıflandırma sorunları için geçerli bir çekirdek elde etmeye yönelik farklı yaklaşımları özetlemekte ve SVM'nin ayrılamaz verilere nasıl uygulanacağını açıklamaktadır. Son olarak video, boşluk kavramını ve SVM'deki marj ihlalini ölçmeyi açıklayarak marj ihlalini cezalandırmak için bir xi değişkeni tanıtıyor ve alfayı çözmek için Lagrangian formülasyonunu gözden geçiriyor.
İkinci kısım, destek vektör makinelerini (SVM'ler) ve çekirdek yöntemlerini kullanmanın pratik yönlerini kapsar. Yumuşak marj destek vektör makineleri kavramını ve bunların geniş bir marjı korurken bazı yanlış sınıflandırmalara nasıl izin verdiğini açıklıyor. Ne kadar ihlal olabileceğini belirleyen C parametresinin öneminden bahsediyor ve değerini belirlemek için çapraz doğrulama kullanılmasını öneriyor. Ayrıca, dönüştürülmüş verilerdeki sabit koordinat hakkındaki endişeleri de giderir ve kullanıcılara bunun yanlılık terimiyle aynı rolü oynadığını garanti eder. Ek olarak, yeni çekirdekler üretmek için çekirdekleri birleştirme olasılığını tartışıyor ve ikinci dereceden programlama çok fazla veri noktasına sahip SVM'leri çözmede başarısız olduğunda kullanılabilecek buluşsal yöntemler öneriyor.