Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
2022/23 Kış Döneminde Tübingen Üniversitesi'nde Makine Öğrenimi Sayısalları. Ders 1 - Giriş -- Philipp Hennig
ML 1 Sayısalları -- Giriş -- Philipp Hennig
Bu videoda Philipp Hennig, makine öğreniminde sayısal algoritmaları anlamanın önemini tartışıyor ve dönem için ders içeriğini tanıtıyor. Kapsanan ilk sayısal algoritma, Gauss Proses Regresyonunda bir uygulama ile Lineer Cebir'dir. Hennig ayrıca makine öğreniminde simülasyon, diferansiyel denklemler, entegrasyon ve optimizasyonun rolünü tartışıyor. Algoritmik omurgalar, gözlemlenebilirler ve olasılıksal sayısal algoritmalar gibi sayısal algoritmalarda yeni gelişmeler sunar. Video boyunca Hennig, karmaşık sorunları çözmek için makine öğreniminde kullanılan klasik algoritmaları güncellemenin önemini vurguluyor ve bu bilgisayar bilimi dersinde kod yazmanın rolünü vurguluyor.
Philipp Hennig, makine öğrenimi algoritmalarının kutunun içinde nasıl çalıştığını ve öğrenim makinelerini geliştirmek için nasıl uyarlanabileceğini veya değiştirilebileceğini keşfetmeyi amaçlayan Makine Öğrenimi Sayısalları konulu kursunu tanıtıyor. Sayısal algoritmalar ve makine öğrenimi algoritmalarındaki son derece teknik bilgi, araştırmacılar ve endüstri profesyonelleri tarafından oldukça rağbet görmektedir. Kurs, ikili sistemde derecelendirilen ödevlerle teori ve kodlama çalışmasından oluşacaktır. Hennig, makine öğreniminde sayısal algoritmaların önemini vurguluyor ve öğrencileri dokuz farklı eğitmenle bu benzersiz öğretim deneyine katılmaya davet ediyor.
Ders 2 -- Sayısal Doğrusal Cebir -- Marvin Pförtner
ML'nin Sayısalları 2 -- Sayısal Doğrusal Cebir -- Marvin Pförtner
Sayısal doğrusal cebir, makine öğrenimi, Gauss süreçleri ve diğer parametrik olmayan regresyon yöntemleri için temeldir. Ders, daha verimli çarpma için bir matrisin yapısını anlamanın önemi, hiperparametre seçim problemlerini çözerek ve çekirdek matrislerini hesaplayarak makine öğrenimi algoritmalarının optimizasyonu ve kullanarak doğrusal bir sistemin çözümü dahil olmak üzere sayısal doğrusal cebirin çeşitli yönlerini kapsar. LU ayrıştırması, diğerleri arasında. Matematiksel işlemler için kullanılan algoritmanın performans, kararlılık ve bellek tüketimi üzerinde önemli bir etkisi olduğundan, ders ayrıca algoritmaları düzgün bir şekilde uygulamanın önemini vurgular.
Videonun ikinci bölümünde Marvin Pförtner, makine öğrenimi algoritmalarında sayısal lineer cebirin önemini tartışıyor. LU ayrışımı, Cholesky ayrışımı, matris ters çevirme lemması ve Gauss süreç regresyonu gibi çeşitli konuları kapsar. Pförtner, algoritmaları daha verimli hale getirmek için yapı kullanmanın önemini vurgular ve Gauss süreç regresyonunda büyük denklem sistemlerini çözmede sayısal kararlılığın önemini vurgular. Ayrıca aktif öğrenme ve büyük veri kümelerini işlemek için düşük dereceli yaklaşımlar gibi teknikleri ve çekirdek matrislerinin potansiyel bellek sınırlamalarını tartışıyor. Genel olarak video, sayısal lineer cebirin makine öğreniminin birçok yönünde oynadığı önemli rolü gösteriyor.
Ders 3 -- Gauss Süreçlerini Ölçeklendirme -- Jonathan Wenger
ML 3 Sayısalları -- Gauss Süreçlerini Ölçeklendirme -- Jonathan Wenger
Jonathan Wenger, "Numerics of ML 3" videosunda büyük veri kümeleri için Gauss süreçlerini ölçeklendirme tekniklerini tartışıyor. Temel hedefi genelleme, basitlik/yorumlanabilirlik, belirsizlik tahminleri ve hız elde etmek olan lineer sistemleri çözmek ve matris tersini öğrenmek için yinelemeli yöntemleri araştırıyor. Wenger, yinelemeli Cholesky ayrışımı, kısmi Cholesky ve eşlenik gradyan yöntemleri gibi çekirdek matrisine düşük dereceli yaklaşımlar getirir. Ayrıca, büyük veri kümeleriyle uğraşırken yakınsamayı hızlandırmak ve kararlılığı geliştirmek için önkoşullamayı tartışıyor. Son olarak, bir matrisin izini yeniden yazmak için ortogonal bir Z matrisi kullanmayı önerir; bu, potansiyel olarak Gauss süreçlerini ölçeklendirmek için ikinci dereceden zamana yol açabilir.
Dersin ikinci bölümünde Jonathan Wenger, bu videodaki büyük veri kümeleri için Gauss Süreçlerini (GP) ölçeklendirmeyi tartışıyor. GP regresyonu için Monte Carlo tahminlerinin yakınsama oranını iyileştirmek için, çekirdek matrisini ve bunun tersini tahmin etmek için doğrusal sistem çözümü için mevcut önkoşullayıcıları kullanmak da dahil olmak üzere çeşitli stratejiler sunar. Ayrıca değişken yaklaşım yoluyla doğrusal zaman GP fikrini ve indükleme noktası yöntemini kullanarak belirsizliğin ölçülmesini ele alıyor. Bu stratejileri kullanarak, GPU ile bir milyona kadar veri noktasına sahip veri kümelerine ölçek büyütme mümkündür, bu da hiperparametrelerin hızlı bir şekilde optimize edilmesini kolaylaştırır.
Ders 4 -- Hesaplamaya Duyarlı Gauss Süreçleri -- Jonathan Wenger
ML 4'ün Nümerikleri -- Hesaplamaya Duyarlı Gauss Süreçleri -- Jonathan Wenger
Numerics of ML hakkındaki bu videoda Jonathan Wenger, hesaplamaya duyarlı Gauss süreçlerini ve bunların tahminlerdeki yaklaşıklık hatasını ve belirsizliği ölçme becerilerini tartışıyor. Doğru eylemleri seçmenin önemini ve eşlenik gradyanların belirsizliği nasıl önemli ölçüde azaltabileceğini ve öğrenmeyi hızlandırabileceğini araştırıyor. Wenger ayrıca, tetikleme noktalarına dayalı doğrusal zaman GP yaklaşımlarını kullanmaktan bahsediyor, ancak bu tür yaklaşımlardan kaynaklanan sorunları vurguluyor. Son olarak, temsili ağırlıklar hakkındaki inançların güncellenmesi ve temsili ağırlıklardaki hatayı çözmek için olasılıksal öğrenme algoritmalarının kullanılması tartışılmıştır. Genel olarak video, hesaplamaya duyarlı Gauss süreçlerinin, hesaplama belirsizliklerini hesaba katarak tahminlerin doğruluğunu artırmadaki etkinliğini gösterir.
Jonathan Wenger ayrıca bu videoda hesaplamaya duyarlı Gauss sürecini ve karmaşıklığını tartışıyor. Çekirdek matrisinin yalnızca üst çeyreğinin hesaplanması ve saklanmasının gerekli olduğunu ve algoritmanın hesaplama maliyetinin bu çeyreğin boyutuyla orantılı olduğunu açıklıyor. Gauss süreci, hesaplamalar yalnızca belirli veri noktalarını hedeflediği ve veri ile hesaplama arasındaki çizgiyi bulanıklaştırdığı sürece, rastgele boyuttaki veri kümelerinde kullanılabilir. Wenger, GP'nin bu durumu hesaba katmak için öngörülen verilere koşullandırılarak modellenebileceğini savunuyor. Yaklaşık bir modelle kesin belirsizliğin ölçülmesine izin veren yeni bir teorem sunuyor. Son olarak, GP modelini bir fizik yasasının öğrenilen işlevi kısmen yönettiği durumlara genişletme konusundaki gelecek haftaki dersinin önizlemesini yapıyor.
Ders 5 -- Durum Uzayı Modelleri -- Jonathan Schmidt
ML'nin Nümerikleri 5 -- Durum Uzayı Modelleri -- Jonathan Schmidt
Bu bölümde Jonathan Schmidt, durum uzayı modellerini ve bunların makine öğrenimine uygulanmasını tanıtıyor. Durum uzayı modellerinin, yalnızca kısmen gözlemlenebilen ve yüksek düzeyde doğrusal olmayan etkileşimler içeren karmaşık dinamik sistemleri modellemek için kullanıldığını açıklıyor. Ders, durum uzayı modellerinin grafik gösterimini ve Markov özelliğinin önemli özelliklerini ve koşullu bağımsız ölçümleri kapsar. Schmidt, zamanın farklı noktalarında elde edilen ölçümleri kullanarak bir sistemin durumunu tahmin etmek için kullanılan tahmin, filtreleme ve yumuşatma dağılımları gibi çeşitli dağılımları hesaplamak için farklı algoritmalar sunar. Ders ayrıca Julia'da Kalman filtre algoritmalarının uygulanmasını ve doğrusal Gauss durum uzayı modellerinde yumuşatma tahminlerinin hesaplanmasını da kapsar. Son olarak Schmidt, durum uzayı modellerinde doğrusal olmayan dinamiklerin ve ölçümlerin tahminine izin veren genişletilmiş Kalman filtresini tartışıyor.
Jonathan Schmidt ayrıca, özellikle doğrusal olmayan dinamiklere ve genişletilmiş Kalman filtresine odaklanarak durum uzayı modellerini ve bunların kod kullanarak uygulanmasını tartışıyor. Ayrıca yumuşatma algoritmalarını ve alternatif Bayesian filtreleme yöntemlerini göstererek artılarını ve eksilerini vurguluyor. Ders, Nathaniel'in dinamik sistemleri simüle etmek için olasılıksal sayısalları tanıtacağı bir sonraki ders için daha fazla öğrenme ve beklenti için bir öneri ile sona eriyor.
Ders 6 -- Sıradan Diferansiyel Denklemleri Çözme -- Nathanael Bosch
ML Sayısalları 6 -- Sıradan Diferansiyel Denklemleri Çözme -- Nathanael Bosch
Nathanael Bosch, girdisi verilen bir fonksiyonun türevini ve zaman içinde gelişen model sistemlerini tanımlayan makine öğrenimindeki ODE kavramını ele alıyor. ODE'leri çözmenin zorluklarını tartışıyor ve ileri Euler ve geri Euler gibi sayısal yöntemleri ve bunların kararlılık özelliklerini tanıtıyor. Bosch, farklı sayısal yöntemleri ve bunların kesin orta nokta ve klasik dördüncü dereceden yöntemler gibi doğruluk ve karmaşıklık açısından ödünleşimlerini araştırıyor. ODE'leri çözmek için kitaplıkların kullanılmasıyla ilgili sorunları önlemek için yerel hata, düzen ve kararlılığın anlaşılmasının önemini vurguluyor.
Videonun bu ikinci kısmı, makine öğrenimi teknikleri kullanılarak bir sıradan diferansiyel denklemin (ODE) vektör alanını ve başlangıç değerini tahmin etme problemini tartışıyor. Konuşmacı, çıkarım problemini çözmek için ODE'nin durumları için üretken modeli ve gözlem modelini yazmanın önemini açıklar. Olabilirlik işlevi, bir parametre tahmini sağlayan negatif günlük olasılığını en aza indirerek maksimize edilir. Konuşmacı, bu yaklaşımı bir SIR-D modeli kullanarak gösteriyor ve temas oranı tahminini iyileştirmek için sinir ağlarını kullanmayı tartışıyor. ODE'lerin makine öğrenimi araştırmalarındaki önemi ve gerçek dünya problemlerini çözmedeki rolleri de vurgulanmıştır.
Ders 7 -- Olasılık Sayısal ODE Çözücüler -- Nathanael Bosch
ML Sayısalları 7 -- Olasılıksal Sayısal ODE Çözücüler -- Nathanael Bosch
Bu videoda Nathanael Bosch, durumlar üzerinde dağılımlar veya ODE çözümleri sağlamak için durum tahmini ile sayısal ODE çözücülerini birleştiren olasılıksal sayısal ODE çözücüleri kavramını sunuyor. Bosch, Q kat entegre Wiener sürecinin gerçek çözümü modellemek için nasıl kullanılabileceğini ve bu sürecin sistemdeki belirsizliklerin miktarının belirlenmesine ve yayılmasına nasıl olanak tanıdığını açıklıyor. Daha sonra ODE'leri çözmek için genişletilmiş Kalman filtrelerinin nasıl kullanılacağını ve adım boyutlarının hata tahminlerini nasıl etkilediğini gösterir. Video, belirsizlik kalibrasyonu ve doğrusal olmayan durum uzayı modellerinde parametreleri tahmin etmek için genişletilmiş Kalman filtresinin kullanılması üzerine bir tartışmayla sona eriyor.
Dersin ikinci bölümünde Nathanael Bosch, anlamlı belirsizlik tahminleri elde etme ve başlangıç değerleri gibi ek model özelliklerini dahil etme esnekliği dahil olmak üzere ODE'leri çözmek için olasılıksal yöntemler kullanmanın faydalarından bahsediyor. Bu yaklaşımı harmonik osilatör ve diferansiyel cebirsel denklemler gibi örneklerle gösterir. Bosch ayrıca, geleneksel skaler yöntemler kullanılarak verileri doğru bir şekilde temsil etmekte başarısız olan bir salgın model örneğini kullanarak, ek bilgilerin dahil edilmesinin ve olasılık tekniklerinin kullanılmasının nasıl daha anlamlı sonuçlara yol açabileceğini gösteriyor. Durum tahmini yoluyla ODE'leri çözmek için genişletilmiş Kalman filtreleri ve yumuşatıcılar kullanıyor, tahmini bir olasılık sorunu olarak ele alıyor ve karar vermede Bayesci olmanın önemini vurguluyor.
Ders 8 -- Kısmi Diferansiyel Denklemler -- Marvin Pförtner
ML Sayısalları 8 -- Kısmi Diferansiyel Denklemler -- Marvin Pförtner
Marvin Pförtner, kısmi diferansiyel denklemleri (PDE'ler) ve bunların çeşitli gerçek dünya sistemlerinin modellenmesindeki önemini tartışıyor. PDE'lerin bilinmeyen bir işleve ve lineer bir diferansiyel operatöre sahip bir sistem mekanizmasını nasıl temsil ettiğini, ancak genellikle bilinmeyen parametreler için çözüm gerektirdiğini açıklıyor. Gauss süreci çıkarımı, PDE modellerini analiz etmek ve mekanik bilgileri istatistiksel modellere enjekte etmek için kullanılabilir. Pförtner, modeli 2 boyutlu bir ısı dağılımı ile sınırlandırarak ve model için yapılan varsayımları sunarak, merkezi bir işlem birimindeki ısı dağılımını bir bilgisayarda inceler. Ders ayrıca PDE'leri çözmek için Gauss süreçlerini kullanmayı ve belirsizliği modellemek için gerçekçi sınır koşulları eklemeyi de kapsar. Genel olarak, bir bilgi operatörü kavramıyla birleştirilmiş GP yaklaşımı, sistemin davranışı hakkında önceki bilgileri birleştirmemize, mekanik bilgiyi doğrusal bir PDE biçiminde enjekte etmemize ve sınır koşullarını ve sağ tarafları ele almamıza izin verir.
Bu videonun ikinci bölümünde Marvin Pförtner, bir nokta tahmini yerine fonksiyonlar üzerinden bir olasılık ölçüsü tahmin ederek kısmi diferansiyel denklemleri (PDE'ler) çözmek için Gauss süreçlerini kullanmayı tartışıyor. Belirsizliği nicelemenin faydalarını açıklıyor ve PDE'nin sağ taraf fonksiyonunun tahminindeki belirsizliği kabul ettiği için bu yaklaşımın daha dürüst olduğunu belirtiyor. Pförtner ayrıca pratikte kullanışlı olan ve GP'nin türevlenebilirliğini kontrol edebilen Matern çekirdeğini açıklıyor ve Matern çekirdeği için P parametresini hesaplamak için bir formül sağlıyor. Ayrıca boyutlar üzerinden tek boyutlu Matern çekirdeklerinin ürünlerini alarak PDE'ler için d boyutlu bir çekirdeğin nasıl oluşturulacağını ve model yapımında matematiksel olarak dikkatli olmanın önemini açıklıyor.
Ders 9 -- Monte Carlo -- Philipp Hennig
ML 9 -- Monte Carlo -- Philipp Hennig Sayısalları
Monte Carlo konulu bu videoda Philipp Hennig, Bayes Teoremini kullanarak Bayes çıkarımı söz konusu olduğunda entegrasyonun makine öğreniminde nasıl temel bir sorun olduğunu açıklıyor. Entegrasyon yapmanın özel bir yolu olarak Monte Carlo algoritmasını tanıtıyor ve yöntemin kısa bir tarihçesini sunuyor. Ayrıca, örnek sayısındaki artışla yansız tahmin ve varyans azaltma gibi Monte Carlo algoritmalarının özelliklerini tartışıyor. Ek olarak Hennig, Metropolis-Hastings algoritmasını, Markov Chain Monte Carlo'yu ve Hamiltonian Monte Carlo'yu derinlemesine inceleyerek her bir algoritmanın özelliklerine ve bunların bir olasılık dağılımından örnekleme yaparken nasıl çalıştıklarına dair genel bir bakış sunar. Son olarak Hennig, optimum ve verimli sonuçlar elde etmek için algoritmaları körü körüne uygulamak yerine neden kullanıldığını anlamanın önemine dikkat çekiyor.
Videonun ikinci bölümünde Philipp Hennig, yüksek boyutlu dağılımlar için Monte Carlo yöntemlerini, özellikle ayrıntılı dengeyi bozan U dönüşü fikriyle sorunun üstesinden gelen U dönüşü Olmayan Örnekleyici (NUTS) algoritmasını tartışıyor. Hennig, bu algoritmaların uygulanması karmaşık ve zor olsa da, onları anlamanın etkili bir şekilde kullanmak için çok önemli olduğunu vurguluyor. Ayrıca, Monte Carlo yöntemlerini kullanarak beklenen değerleri hesaplamak için düşünmeden yapılan yaklaşımı sorguluyor ve rasgelelik olmadan yaklaşmanın başka yolları olabileceğini öne sürüyor. Hennig, rastgelelik kavramını ve sınırlamalarını, Monte Carlo yöntemleri için yakınsama oranlarının eksikliğini tartışıyor ve deterministik rastgeleliğe güvenmek yerine makine öğrenimi için başka yöntemlerin dikkate alınması gerektiğini öneriyor.
Ders 10 -- Bayes Dörtleme -- Philipp Hennig
ML 10'un Nümerikleri -- Bayes Dörtgeni -- Philipp Hennig
Bu videoda Philipp Hennig, Bayesian Quadrature'ı makine öğrenimindeki hesaplamalı entegrasyon sorunu için etkili bir yöntem olarak tartışıyor. Gerçek değerli bir fonksiyonun nasıl benzersiz bir şekilde tanımlanabileceğini ancak soruları doğrudan cevaplamanın zor olduğunu açıklıyor. Bayes Dördünleme, bir integral bulma problemini, bilinmeyen nesne ve hesaplanabilecek büyüklüklerin üzerine bir öncelik koyarak bir çıkarım problemi olarak ele alan ve ardından Bayes çıkarımı yapan bir çıkarım yöntemidir. Hennig ayrıca bu yaklaşımı Monte Carlo reddi ve önem örneklemesi ile karşılaştırarak Bayes Dördüllemenin klasik dördünme kurallarını nasıl geride bırakabileceğini gösteriyor. Ders, Bayesian Quadrature için Kalman filtre algoritmasını ve bunun klasik entegrasyon algoritmalarıyla bağlantısını, sayısal yöntemlerde belirsizlik tahminlerinin kullanılması üzerine bir tartışmayı kapsar. Son olarak Hennig, sayısal hesaplamanın sosyal yapısının algoritma tasarımını nasıl etkilediğini araştırıyor, belirli problemler için hesaplama yöntemleri tasarlama yöntemini ve olasılıklı makine öğreniminin hatayı gerçek zamanlı olarak nasıl tahmin edebileceğini tartışıyor.
Videonun ikinci bölümünde Philipp Hennig, bir şeyi Bayes tarzında hesaplamak için integraller ve algoritma değerleri gibi önemsediğimiz niceliklerin üzerine önceki dağılımları koymayı içeren Bayes karelemesini tartışıyor. Yöntem, klasik yöntemlerle tanımlanabilecek tahminler etrafında hem sonsal bir tahmin hem de bir belirsizlik tahmini atar. Hennig, algoritmanın gözlemlenen işleve nasıl uyum sağladığını açıklıyor ve bir sonraki değerlendirmenin nerede yapılacağını belirlemek için aktif bir öğrenme prosedürü kullanıyor. Bu algoritma daha yüksek boyutlarda çalışabilir ve bazı önemsiz olmayan akıllı yakınsama oranlarına sahiptir. Ayrıca klasik algoritmaların ve kareleme kurallarının sınırlamalarını tartışıyor ve uyarlamalı akıl yürütme yoluyla bir geçici çözüm öneriyor.