Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ders 11 -- Derin Öğrenme için Optimizasyon -- Frank Schneider
Makine Öğrenimi Sayısalları 11 -- Derin Öğrenme için Optimizasyon -- Frank Schneider
Frank Schneider, sinir ağlarını eğitmenin karmaşıklığını ve doğru optimizasyon yöntemlerini ve algoritmalarını seçmenin önemini vurgulayarak derin öğrenme için optimizasyonun zorluklarını tartışıyor. Kullanılabilir yöntemlerin ezici sayısına ve farklı algoritmaları karşılaştırmanın ve karşılaştırmanın zorluğuna dikkat çekiyor. Schneider, büyük dil modellerinin başarılı eğitiminin gerçek dünya örneklerini ve modelin başarılı bir şekilde eğitilmesini sağlamak için varsayılan olmayan öğrenme oranı çizelgelerine ve uçuş ortasında değişikliklere duyulan ihtiyacı sağlar. Schneider, kullanıcılara bu yöntemlerin nasıl kullanılacağı ve hiperparametrelerin eğitim sürecini nasıl etkilediği hakkında daha fazla bilgi sağlamanın yanı sıra uygulayıcıların kendi özel kullanım durumları için en iyi yöntemi seçmelerine yardımcı olacak kıyaslama alıştırmaları oluşturmanın önemini vurguluyor. Ayrıca Alpha gibi daha yeni yöntemleri ve bunun bir sinir ağı için eğitim sürecini yönlendirmek için nasıl kullanılabileceğini tartışıyor.
Videonun derin öğrenme için sayısal optimizasyonla ilgili ikinci bölümünde Frank Schneider, eğitim sürecindeki veri hataları ve model blokları gibi sorunları tespit etmek ve düzeltmek için ek araçlar sağlayan "Derin Hata Ayıklayıcı" aracı Kokpit'i tanıtıyor. Optimum hiperparametreler için verileri normalleştirmenin önemini, öğrenme oranları ile test doğruluğu arasındaki ilişkiyi ve sinir ağlarını stokastiklikle eğitmenin zorluklarını açıklıyor. Schneider, öğrencileri gradyanı bir dağılım olarak değerlendirerek ve uzun vadede daha iyi otonom yöntemler geliştirerek sinir ağlarının eğitimini geliştirmeye yönelik çalışmaya teşvik ediyor.
Ders 12 -- Derin Öğrenme için İkinci Dereceden Optimizasyon -- Lukas Tatzel
Makine Öğrenimi Sayısalları 12 -- Derin Öğrenme için İkinci Dereceden Optimizasyon -- Lukas Tatzel
Bu videoda Lukas Tatzel, derin öğrenme için ikinci dereceden optimizasyon yöntemlerini ve bunların potansiyel faydalarını açıklıyor. 2B'deki Rosenberg işlevi örneğini kullanarak üç optimizasyon yönteminin (SGD, Adam ve LBFGS) yörüngelerini ve yakınsama oranlarını karşılaştırıyor. Tatzel, SGD'nin atlamalı davranışının, LBFGS'nin iyi bilgilendirilmiş adımlarına kıyasla daha yavaş yakınsama yaptığını belirtiyor. Optimizasyon için daha hızlı bir yöntem olarak Newton adımını tanıtıyor ve koşul sayısına bağımlılık gibi sınırlamalarını tartışıyor. Tatzel ayrıca, Genelleştirilmiş Gauss-Newton matrisi (GGN) kavramını, kötü koşullu problemlerle başa çıkmak için Hessian'a bir yaklaşım olarak açıklıyor. Ek olarak, güven bölgesi problemini, dışbükey olmayan amaç fonksiyonlarıyla nasıl başa çıkılacağını ve ikinci dereceden fonksiyonları en aza indirmek için CG'yi kullanan Hessian'sız yaklaşımı tartışıyor.
Videonun bu ikinci bölümü, BFGS ve LBFGS, Hessian'sız optimizasyon ve KFC dahil olmak üzere derin öğrenme için ikinci dereceden optimizasyon tekniklerini araştırıyor. Konuşmacı, Hessian içermeyen yaklaşımın Jacobian Vector ürününü kullanarak modeli lineerleştirdiğini, KFC'nin ise resmi bilgi ölçütlerine dayalı yaklaşık bir eğrilik olduğunu açıklıyor. Ancak, bu yöntemlerle stokastiklik ve sapmalar meydana gelebilir ve bu sorunları çözmek için sönümleme önerilir. Konuşmacı, güncellemeler yapmak için dağılımlar gibi daha zengin miktarları kullanabilen özel algoritmaların kullanılmasını önerir ve stokastikliğin temel sorununun çözülmeden kaldığını not eder. Genel olarak, ikinci dereceden optimizasyon yöntemleri, derin öğrenmenin zorluklarına kısmi bir çözüm sunar.
Ders 13 -- Derin Öğrenmede Belirsizlik -- Agustinus Kristiadi
ML'nin Sayısalları 13 -- Derin Öğrenmede Belirsizlik -- Agustinus Kristiadi
Video, derin öğrenmedeki belirsizliği, özellikle sinir ağlarının ağırlıklarında ve sinir ağlarının, dağıtım dışı örnekler için yüksek güvenilirlik tahminleri verdiği asimptotik aşırı güven sorunu nedeniyle belirsizliği dahil etmenin önemini tartışıyor. kesinlik Video, son katmanın ağırlıklarını yaklaşık olarak tahmin etmek için bir Gauss dağılımı ve sinir ağının eğriliğini tahmin etmek için Hessian matrisini kullanarak derin sinir ağlarına belirsizlik elde etmek için ikinci dereceden niceliklerin, özellikle eğrilik tahminlerinin nasıl kullanılacağına dair bilgiler sağlar. Video ayrıca sinir ağlarının modellerini ve parametrelerini seçmek için Bayes biçimciliğini ve LaPlace yaklaşımlarını tartışıyor.
Dersin ikinci bölümünde Agustinus Kristiadi, bu videoda derin öğrenme modellerinde belirsizliği tanıtmanın çeşitli yollarını tartışıyor. Bir teknik, bir sinir ağını Gauss modeline dönüştürmek için doğrusallaştırılmış Laplace yaklaşımlarının kullanılmasını içerir. Başka bir yaklaşım, orijinal eğitim setinin kapsamadığı bölgelere belirsizliğin eklendiği dağıtım dışı eğitimdir. Kristiadi, modele aşırı güveni önlemek için belirsizlik eklemenin önemini vurguluyor ve ideal sonuncuyu bulma maliyetinden kaçınmak için olasılık ölçümlerinin kullanılmasını öneriyor. Bu teknikler, olasılığa dayalı makine öğrenimi üzerine gelecek bir kursta daha ayrıntılı olarak incelenecektir.
Ders 14 -- Sonuç -- Philipp Hennig
ML 14 Sayısalları -- Sonuç -- Philipp Hennig
Philipp Hennig, makine öğreniminde entegrasyon, optimizasyon, diferansiyel denklemler ve lineer cebir gibi sayısal analizle ilgili matematik problemlerini çözmenin önemini vurgulayarak "Makine Öğreniminin Sayısalları" kursunun bir özetini verir. Bir veri seti üzerinde lineer cebir gerçekleştirmenin karmaşıklığını ve bunun işlem birimi ve disk ile nasıl ilişkili olduğunu tartışıyor. Hennig ayrıca önemsiz olmayan boyutlardaki veri kümelerini işleme, doğrusal sistemleri çözmek için algoritmalar, kısmi diferansiyel denklemleri çözme ve integralleri tahmin etme gibi konuları da kapsar. Derin sinir ağlarını eğitmenin zorluğunu ve stokastiklik probleminin üstesinden gelmek için çözümlere duyulan ihtiyacı kabul ederek sözlerini bitiriyor.
Philipp Hennig, ders dizisinin sonunda makine öğrenimi modellerini eğitmenin ötesine geçmenin ve modelin ne kadar bilip ne bilmediğini bilmenin önemini vurguluyor. Derin sinir ağları için belirsizlik tahminleri oluşturmak için kayıp fonksiyonunun eğriliğini tahmin etmekten ve olasılıksal olmanın öneminden, ancak hesaplama karmaşıklığı nedeniyle her durumda Bayes teoremini uygulama zorunluluğundan bahsediyor. Hennig ayrıca makine öğreniminde sayısal hesaplamanın önemini ve yeni veri merkezli hesaplama yöntemleri geliştirme ihtiyacını vurguluyor. Son olarak, kursla ilgili geri bildirimde bulunmaya davet eder ve yaklaşan sınav hakkında tartışır.
7 Dakikada Vektör Makinesini (SVM) Destekleyin - Eğlenceli Makine Öğrenimi
7 Dakikada Vektör Makinesini (SVM) Destekleyin - Eğlenceli Makine Öğrenimi
Videoda, veri kümesinin uç noktalarına dayalı olarak bir karar sınırı veya hiper düzlem çizen iki sınıflı veri kümeleri için kullanılan bir sınıflandırma algoritması olan Destek Vektör Makineleri (SVM) açıklanmaktadır. Ayrıca, DVM'nin doğrusal olarak ayrılamayan veri kümeleri için bir çekirdek hilesi kullanarak daha yüksek boyutlu özellik uzaylarına dönüştürülerek nasıl kullanılabileceğini tartışır. Video, yüksek boyutlu uzaylarda etkinlik, bellek verimliliği ve özel işlevler için farklı çekirdekleri kullanma yeteneği gibi SVM'nin avantajlarını tanımlar. Ancak video, özellik sayısı örnek sayısından fazla olduğunda düşük performans ve pahalı çapraz doğrulama gerektiren doğrudan olasılık tahminlerinin olmaması gibi algoritmanın dezavantajlarını da tanımlar.
"Derin Öğrenme Devrimi" - Geoffrey Hinton - RSE Başkanlık Konferansı 2019
"Derin Öğrenme Devrimi" - Geoffrey Hinton - RSE Başkanlık Konferansı 2019
"Derin Öğrenmenin Babası" olarak bilinen Geoffrey Hinton, derin öğrenmenin ve sinir ağlarının tarihini ve evrimini, insan beyni gibi öğrenebilen makineler oluşturmak için derin öğrenmeyi kullanmanın zorluklarını ve heyecan verici olasılıklarını tartışıyor. geri yayılımı daha etkili hale getiren püf noktaları ve teknikler. Ayrıca sinir ağlarının konuşma tanıma ve bilgisayar görüşündeki başarısını, bilgisayar görüşü ve denetimsiz ön eğitim için sinir ağlarının gelişimini ve bunların dil modelleme ve makine çevirisindeki etkinliğini anlatıyor. Analoji yoluyla akıl yürütmenin değerini vurgulayarak bitiriyor ve "kapsüller" teorisini ve bilgiyi bütünden parçaları tahmin eden bir modele bağlamayı tartışıyor.
Derin öğrenmede öncü olan Geoffrey Hinton, gerçek muhakeme için gerekli olan uzun vadeli bilgi ve geçici depolamaya izin vermek için çağrışımsal anıların, hızlı ağırlıklı belleklerin ve çoklu zaman ölçeklerinin sinir ağlarına entegrasyonunu savunan bir konferans veriyor. Buna ek olarak, önceki inançlar ve veriler arasındaki dengeleme eylemini, denetimsiz öğrenmenin potansiyelini, bakış açısı bilgisi ve öteleme eşdeğerliği ile nesneleri tanımada evrişimli ağların etkinliğini ve dönüştürücü gibi bağlantıcı ağlarla sembolik akıl yürütmeyi birleştirme ihtiyacını tartışır. ağlar. Ayrıca, makine öğrenimindeki bilinçsiz önyargılar konusuna da değiniyor ve önyargıları belirleyip düzelterek bunların insan önyargısından daha kolay düzeltilebileceğine inanıyor. Son olarak, yapay zeka alanında genç araştırmacılar için daha fazla fon ve desteğe ihtiyaç olduğunu vurguluyor.
ChatGPT gerçekte nasıl çalışır?
ChatGPT gerçekte nasıl çalışır?
ChatGPT, sohbet konuşmalarındaki zararlı içeriği doğru bir şekilde tanımlayabilen bir makine öğrenimi modelidir. Mimarisi insan girdisine dayanmaktadır ve eksiklikleri ana hatlarıyla belirtilmiştir. Önerilen okumalar da sağlanır.
Sıfırdan Makine Öğrenimi Tam kurs
Sıfırdan Makine Öğrenimi Tam kurs
Makine öğrenimi modellerini kendiniz uygulamak, bu modellerde ustalaşmanın en iyi yollarından biridir. Zor bir görev gibi görünse de, çoğu algoritma için genellikle hayal edebileceğinizden daha kolaydır. Önümüzdeki 10 gün boyunca, her gün bir makine öğrenimi algoritması uygulamak üzere belirli hesaplamalar için Python ve ara sıra Numpy kullanacağız.
Kodu GitHub depomuzda bulabilirsiniz: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch
Python ile sıfırdan KNN nasıl uygulanır?
Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/01%20KNN
Python ile sıfırdan KNN nasıl uygulanır?
"Python ile sıfırdan KNN uygulaması nasıl yapılır" başlıklı videoda konuşmacı, Python kullanarak sıfırdan bir KNN sınıflandırıcısının nasıl oluşturulacağını anlatıyor. Yeni veri noktası ile veri kümesindeki diğer noktalar arasındaki mesafenin hesaplanması, en yakın k noktanın seçilmesi ve sınıflandırma için etiketin veya regresyon için ortalamanın belirlenmesi gibi algoritmanın uygulanmasında yer alan adımları kapsar. Konuşmacı, algoritmayı Python'da bir sınıf kullanarak uygular ve iris veri kümesi üzerinde %96'lık bir doğruluk oranıyla başarılı bir şekilde uygulandığını gösterir. Ayrıca izleyicileri Github depolarındaki kodu incelemeye ve yorumlar bölümünde sorular sormaya davet ediyorlar.
Python ile Lineer Regresyon sıfırdan nasıl uygulanır?
Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/02%20Linear%20Regression
Python ile Lineer Regresyon sıfırdan nasıl uygulanır?
Bu video, Python kullanarak sıfırdan doğrusal regresyon uygulama sürecini kapsar. Konuşmacı, ortalama kare hatası kullanılarak en uygun doğrunun nasıl bulunacağını ve gradyan iniş ile ağırlıkların ve önyargıların nasıl hesaplanacağını açıklar. Konuşmacı ayrıca öğrenme oranının yakınsamayı nasıl etkilediğini tartışıyor ve scikit-learn'ün veri seti özelliğini kullanarak modelin nasıl test edileceğini gösteriyor. Ayrıca koddaki bir yazım hatasını düzeltirler ve tahmin satırının uyumunu iyileştirmek için öğrenme oranını ayarlarlar. Kod GitHub'da paylaşılır ve izleyiciler soru sormaya davet edilir.
sonuç ve denklemin hatası hesaplanır, bu da gradyanları hesaplamak için tüm veri noktalarıyla matris çarpımını kullanmayı kolaylaştırır. Test sırasında, eğitimli bir model denklemi kullanarak sonuçları tahmin eder.