Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ders 5. Pozitif Belirli ve Yarı Belirli Matrisler
5. Pozitif Tanımlı ve Yarı Tanımlı Matrisler
Bu videoda konuşmacı, hepsi pozitif tanımlı matrisler için testler sağlayan özdeğerler, determinantlar ve pivotlar dahil olmak üzere doğrusal cebirdeki önceki derslerden önemli noktaları özetler. Konuşmacı daha sonra pozitif tanımlı ve belirsiz matrisler arasındaki ilişkiyi, bunların özdeğerler ve determinantlarla bağlantısını ve bir matris için X vektöründeki enerjinin nasıl hesaplanacağını açıklar. Konuşmacı ayrıca derin öğrenme, sinir ağları, makine öğrenimi ve bir enerjiyi en aza indirme kavramlarını da tartışıyor. Dışbükey fonksiyon kavramına değiniyor ve bunun derin öğrenmede nasıl kullanılabileceğini açıklıyorlar. Son olarak, konuşmacı pozitif tanımlı ve yarı tanımlı matrisler için alıştırmalar sunar ve yakında çıkacak olan tekil değer ayrıştırma konusundan kısaca bahseder.
Ders 6. Tekil Değer Ayrıştırması (SVD)
6. Tekil Değer Ayrışımı (SVD)
Bu video, bir matrisi ortadaki köşegen olan ve tekil değerleri içeren üç matrise çarpanlara ayırmak için kullanılan Tekil Değer Ayrıştırma (SVD) kavramını açıklamaktadır. SVD, A, Sigma ve V arasındaki ilişkinin anlaşılmasına yardımcı olur ve sonuç olarak denklemlerin çözülmesine yardımcı olur. Video, SVD'deki ortogonal vektörlerin, özvektörlerin ve özdeğerlerin önemini tartışıyor ve A ve V matrislerinin dikliğini vurguluyor. Video ayrıca SVD işleminin grafik gösterimini ve bir matrisin kutup ayrışmasını açıklar. Son olarak video, SVD kullanarak büyük bir veri matrisinin en önemli bölümünü çıkarma sürecini tartışıyor.
Anlatım 7. Eckart-Young: A'ya En Yakın Sıra k Matrisi
7. Eckart-Young: A'ya En Yakın Dereceli K Matrisi
Bu YouTube videosunda öğretim görevlisi, bir veri matrisini anlamak ve ondan anlamlı bilgiler çıkarmak için kullanılan temel bileşen analizi (PCA) kavramını açıklıyor. Bir matrisin en önemli bilgileri içeren en büyük k tekil değerlerinin önemi vurgulanır ve bir tekil değer ayrışımının ilk k parçasının k sıralı bir matrise en iyi yaklaşımı sağladığını belirten Eckart-Young teoremi vurgulanır. , tanıtıldı. Konuşmacı ayrıca l2, l1 ve sonsuz normları da dahil olmak üzere vektörler ve matrisler için farklı norm türlerini tartışır. Netflix yarışmasında ve MRI taramalarında Frobenius normunun önemi, A'ya en yakın k matrisi kavramıyla birlikte vurgulanır. Konuşmacı ayrıca orijinal matrisin özelliklerini korumada ortogonal matrislerin kullanımını tartışır ve kavramı tanıtır. Tekil Değer Ayrışımı (SVD) ve bunun PCA ile ilişkisi. Son olarak, dikdörtgen matris A ve onun devriğini içeren doğrusal bir denklem sistemini çözmenin önemi ve belirli bir veri kümesi için en iyi yaş-boy oranını bulmada SVD yönteminin kullanımı tartışılmıştır.
Ders 8: Vektörlerin ve Matrislerin Normları
Ders 8: Vektörlerin ve Matrislerin Normları
Bu ders, L1 ve maksimum normları dahil olmak üzere vektörlerin ve matrislerin normları kavramını ve bunların sıkıştırma algılama ve sinyal işleme gibi alanlardaki uygulamalarını tartışır. Ders ayrıca normlarda üçgen eşitsizliğinin önemini, s-normların şeklini ve vektörler ile matrislerin L2 normu arasındaki bağlantıyı da kapsar. Ayrıca ders, sinir ağlarını optimize etmek için bir varsayım olarak kalan Frobenius normunu ve nükleer normu araştırıyor ve öğrencilerle birlikte öğretme ve öğrenmenin önemini vurguluyor.
Ders 9. En Küçük Kareler Problemlerini Çözmenin Dört Yolu
9. En Küçük Kareler Problemlerini Çözmenin Dört Yolu
Bu videoda, eğitmen en küçük kareler kavramını ve ona yaklaşmanın çeşitli yollarını tartışıyor. Doğrusal cebirde temel bir problem olduğu ve tüm kursu bir arada tutan yapıştırıcı görevi gördüğü için en küçük karelerin önemini vurguluyor. Video, matrislerin sözde tersini, tersinir ve tersinmez matrislerin SVD'sini ve en küçük kareler problemlerini çözmek için Gauss'un planı ve ortogonal sütunlar dahil olmak üzere farklı yöntemleri kapsar. Video ayrıca L2 norm karesini kullanarak ax + b ile gerçek ölçümler arasındaki mesafeyi en aza indirme fikrini ve bunun doğrusal regresyon ve istatistikle nasıl ilişkili olduğunu tartışıyor. Ayrıca video, kursta öğrenilen materyalleri kullanan, makine öğrenimi ve derin öğrenme gibi alanlara odaklanan bir proje hakkında fikir veriyor.
Ders 10: Ax = b ile Zorlukların İncelenmesi
Ders 10: Ax = b ile Zorlukların İncelenmesi
Sayısal lineer cebir hakkındaki bu derste, Ax=b formundaki lineer denklemleri çözmenin zorlukları tartışılıyor. Bu zorluklar, A matrisi neredeyse tekil olduğunda, tersini makul olmayan bir şekilde büyük yaptığında ve uygun bir zamanda çözülmesi imkansız olan dev bir matrisle problem çok büyük olduğunda ortaya çıkar. Öğretim görevlisi, sorunu çözmek için, kolay normal durumdan son derece zor, az belirlenmiş denklemlere kadar çeşitli olasılıkları ana hatlarıyla belirtir. Rastgele doğrusal cebir, yinelemeli yöntemler ve SVD'nin kullanımı, özellikle derin öğrenme ile test verileri üzerinde çalışan çözümler bulmanın önemi ile birlikte tartışılır. Ek olarak öğretim görevlisi, herhangi bir matris sorununu teşhis etmek için SVD'nin hala en iyi araç olduğunu vurguluyor.
Ders 11: Ax = b'ye Göre ‖x'i Minimize Etmek
Ders 11: Ax = b'ye Göre ‖x'i Minimize Etmek
Bu derste, konuşmacı sayısal lineer cebir ile ilgili bir dizi konuyu kapsar. Ax=b'yi çözerken ortaya çıkabilecek sorunları tartışmakla başlarlar, ardından bir uzay için ortogonal bir taban bulmak için Gram-Schmidt sürecine ve Ax = b'ye tabi ‖x'i en aza indirmek için değiştirilmiş Gram-Schmidt yöntemine geçerler. . Konuşmacı ayrıca sütun değişimi veya daha profesyonel bir Gram-Schmidt algoritmasında sütun döndürme kavramını tanıtıyor ve bir A matrisinin sütunlarını ortonormalize etmek için standart Gram-Schmidt işlemindeki bir gelişmeyi tartışıyor. Ayrıca Krylov uzayı fikrine de değiniyorlar. Ax=b problemini çözmek ve Ax=b'ye tabi ‖x‖'i en aza indirmek için iyi bir temele sahip olmanın önemi. Son olarak, Ax=b'ye göre x öznesini en aza indirme problemini bitirdiklerini ve çok büyük matrislerle uğraşma konusuna geçtiklerini belirtiyorlar.
Ders 12. Özdeğerlerin ve Tekil Değerlerin Hesaplanması
12. Özdeğerlerin ve Tekil Değerlerin Hesaplanması
Bu videoda, özdeğerleri ve tekil değerleri hesaplamak için QR yöntemi tanıtılmaktadır. Süreç, istenen matrisle başlamayı ve onu QR'ye çarpanlara ayırmayı, ortogonal olmayan tabanı ortogonal tabana bağlayan bir üst üçgensel R matrisi oluşturmayı içerir. İşlem, köşegen girişler küçülene kadar yinelenir, bu noktada özdeğerlere yaklaşmak için kullanılabilirler. Konuşmacı ayrıca süreci hızlandırmak için özvektörleri hesaplamak için bir kaydırma yöntemini tartışıyor. Simetrik matrisler için MATLAB kullanmanın faydaları da vurgulanmıştır. Video ayrıca büyük matrisler için özdeğer problemlerini çözmek için Krylov vektörleri kavramına da değiniyor.
Ders 13: Rastgele Matris Çarpımı
Ders 13: Rastgele Matris Çarpımı
Bu video ders, matris A'nın sütunlarını ve matris B'nin karşılık gelen satırlarını, toplamı bir olan olasılıklarla örneklemeyi içeren rastgele matris çarpımı kavramını tartışır. Rastgele örneklerin ortalama değeri, doğru cevabı elde etmek için hesaplanabilir, ancak yine de varyans olacaktır. Ders, ortalama ve varyans kavramlarını ve varyansı en aza indiren en iyi olasılıkların nasıl seçileceğini tartışarak devam eder. Süreç, Lambda adı verilen bilinmeyen bir değişkenin tanıtılmasını ve en iyi PJ'yi bulmak için buna göre türevlerin alınmasını içerir. Daha sonra odak, bir matristeki hangi sütunların daha büyük veya daha küçük olduğuna bakarken olasılıkların nasıl ağırlıklandırılacağı sorusuna kayar. Öğretim görevlisi iki olasılık önerir: olasılıkları norm kareye göre ağırlıklandırın veya matrisin sütunlarını karıştırın ve eşit olasılıkları kullanın. Genel olarak video, rastgele matris çarpımı ve en küçük varyansı elde etmek için olasılıkları optimize etme süreci hakkında ayrıntılı bir açıklama sağlar.
Anlatım 14. A ve Tersinde Düşük Sıra Değişimleri
14. A ve Tersinde Düşük Sıra Değişiklikleri
Video, düşük dereceli matrisler kavramını ve bunların fonksiyon matrislerindeki önemini, özellikle daha basit 1'e 1 matris cinsinden N'ye n matrisin tersini bulan matris ters çevirme formülünü tartışıyor. Formül, düşük dereceli pertürbasyonlara sahip matrislerin tersini bulmada kullanışlıdır ve ters bulma sürecini basitleştirebilir. Konuşmacı, ikinci matrisin formülünü sunarak formülün nasıl çalıştığını gösterir ve cevaba ulaşmak için aynı mantığın nasıl uygulandığını gösterir. Video ayrıca bu formülün pratik uygulamalarını, özellikle en küçük kareler problemlerinde ve Kalman filtresini tartışıyor.