Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
CS480/680 Ders 17: Gizli Markov Modelleri
CS480/680 Ders 17: Gizli Markov Modelleri
Ders, doğruluğu artırabilen dizi verilerindeki korelasyonlardan yararlanmak için kullanılan bir tür olasılıksal grafik model olan Gizli Markov Modellerini (HMM) tanıtıyor. Model varsayımları durağan bir süreci ve gizli bir durumun yalnızca önceki duruma bağlı olduğu bir Markov sürecini içerir. HMM'deki üç dağılım, ilk durum dağılımı, geçiş dağılımı ve veri tipine bağlı olarak kullanılan son tip ile emisyon dağılımıdır. Algoritma, izleme, tahmin, filtreleme, yumuşatma ve büyük olasılıkla açıklama görevleri için kullanılabilir. HMM, kararlılık korelasyonu için yürüteç cihazları kullanan yaşlı insanlar için bir dizi girdiye ve gizli durumlara dayalı olarak en olası çıktı dizisini tahmin etmek gibi konuşma tanıma ve makine öğrenimi için kullanılmıştır. Bir huzurevindeki yaşlı yetişkinlerin faaliyetleri hakkında veri toplamaya dayalı olarak yaşlı yetişkinler tarafından gerçekleştirilen aktiviteleri otomatik olarak tanımak için bir yürüteç üzerindeki değiştirilmiş sensörleri ve kameraları içeren bir deney gerçekleştirildi. Etkinlik tanıma bağlamında denetimli ve denetimsiz öğrenmede gösterim de tartışıldı.
Ders, toplanan verilerin sürekli olduğu pratik uygulamalarda yaygın olarak kullanılan Gizli Markov Modellerinde (HMM'ler) Gauss emisyon dağılımlarının kullanımına odaklanmaktadır. Öğretim görevlisi, bu yöntemin, verilerin ampirik ortalama ve varyansına karşılık gelen ortalama ve varyans parametrelerini hesaplamayı ve bunları başlangıç ve geçiş dağılımlarının çözümünü hesaplamak için kullanmayı içerdiğini açıklar. Geçiş dağılımı, bağıl frekans sayımlarına karşılık gelir ve çözümleri elde etmek için maksimum olasılık kullanılır. Bu yaklaşım, başlangıç ve emisyon dağılımının da kullanıldığı Gauss karışımları çözümüne benzer.
CS480/680 Ders 18: Tekrarlayan ve tekrarlayan sinir ağları
CS480/680 Ders 18: Tekrarlayan ve tekrarlayan sinir ağları
Bu derste konuşmacı, sabit bir uzunluğa sahip olmayan sıralı veriler için uygun modeller olarak tekrarlayan ve tekrarlayan sinir ağlarını tanıtıyor. Tekrarlayan sinir ağları, çıktıların girdi olarak geri beslendiği belirli düğümler nedeniyle herhangi bir uzunluktaki dizileri işleyebilir ve H'nin her zaman adımında hesaplanma şekli, ağırlık paylaşımını içeren aynı f fonksiyonunun kullanılmasıdır. Ancak, erken girdilerden gelen bilgileri hatırlayamama ve tahmin kayması gibi sınırlamalardan muzdarip olabilirler. Öğretim görevlisi ayrıca, giriş ve çıkış dizilerinin doğal olarak eşleşmediği uygulamalar için iki RNN'den (bir kodlayıcı ve bir kod çözücü) yararlanan çift yönlü tekrarlayan sinir ağı (BRNN) mimarisini ve kodlayıcı-kod çözücü modelini açıklar. Buna ek olarak öğretim görevlisi, kaybolan gradyan problemini azaltabilen, uzun menzilli bağımlılıkları kolaylaştırabilen ve seçici olarak bilgi akışına izin veren veya engelleyen Uzun Kısa Süreli Bellek (LSTM) birimlerinin faydalarını açıklar.
Yinelenen ve yinelenen sinir ağları hakkındaki bu ders, gradyan sorunlarını önlemek için Uzun Kısa Süreli Bellek (LSTM) ve Geçitli Tekrarlayan Birim (GRU) birimlerinin kullanımı ve makine çevirisinde dikkat mekanizmalarının önemi dahil olmak üzere bir dizi konuyu kapsar. Cümle anlamını ve kelime hizalamasını korumak için. Öğretim görevlisi ayrıca, tekrarlayan sinir ağlarının diziler, grafikler ve ağaçlar için tekrarlayan sinir ağlarına nasıl genelleştirilebileceğini ve cümlelerin nasıl ayrıştırılacağını ve ayrıştırma ağaçlarını kullanarak cümle yerleştirmelerinin nasıl üretileceğini tartışır.
yapılıyor. Gizli durum, önceki gizli durumu ve girdiyi alan bir fonksiyon kullanılarak hesaplanır ve gizli durumu girdi olarak alan başka bir fonksiyon kullanılarak çıkış elde edilir. Nihayetinde amaç, olasılıkları hesaplamak veya etkinlikleri tanımak için bu hesaplamayı kullanmaktır.
CS480/680 Ders 19: Dikkat ve Trafo Ağları
CS480/680 Ders 19: Dikkat ve Trafo Ağları
Bu derste sinir ağlarında dikkat kavramı tanıtılmakta ve trafo ağlarının geliştirilmesindeki rolü tartışılmaktadır. Dikkat, başlangıçta bilgisayar görüşünde incelendi ve insanların doğal olarak belirli alanlara odaklanmasına benzer şekilde önemli bölgelerin tanımlanmasına izin verdi. Makine çevirisine dikkat çekmek, yalnızca dikkat mekanizmalarını kullanan ve geleneksel sinir ağları kadar iyi sonuçlar üreten dönüştürücü ağların yaratılmasına yol açtı. Trafo ağları, tekrarlayan sinir ağlarına göre, uzun menzilli bağımlılıklarla ilgili sorunları çözme, kaybolan ve patlayan gradyanlar ve paralel hesaplama avantajlarına sahiptir. Ders, her bir çıkış konumunun girişle ilgilenmesini sağlayan trafo ağlarındaki çok kafalı dikkati araştırıyor. Transformatör ağlarında maskelerin, normalizasyon katmanlarının ve Donora katmanının kullanımı tartışılmakta ve dikkatin bir yapı taşı olarak kullanılması kavramı araştırılmaktadır.
Dikkat ve dönüştürücü ağlar hakkındaki bu derste, konuşmacı farklı katmanlardaki gradyanları ayırmak için normalleştirmenin önemini ve ayrıca cümlelerde kelime sırasını korumak için konumsal gömmenin önemini açıklıyor. Konuşmacı, trafo ağlarının karmaşıklık tahminlerini tekrarlayan ve evrişimli sinir ağlarıyla karşılaştırarak, trafo ağının uzun menzilli bağımlılıkları yakalama ve kelimeleri eş zamanlı olarak işleme yeteneğini vurguluyor. Transformatör ağlarının ölçeklenebilirliği artırma ve rekabeti azaltmadaki avantajları da tartışılırken, doğruluk ve hız açısından etkileyici performans sergileyen GPT, BERT ve XLNet gibi trafo ağlarının tanıtılması, tekrarlayan sinir ağlarının geleceği hakkında soru işaretleri uyandırıyor.
CS480/680 Ders 20: Otomatik kodlayıcılar
CS480/680 Ders 20: Otomatik kodlayıcılar
Otomatik kodlayıcılar, kodlayıcı-kod çözücülerle yakından ilişkili bir ağ ailesini ifade eder; fark, otomatik kodlayıcıların bir girdi alıp aynı çıktıyı üretmesidir. Sıkıştırma, gürültü giderme, seyrek bir temsil elde etme ve veri oluşturma için önemlidirler. Doğrusal otomatik kodlayıcılar, hiçbir bilginin kaybolmamasını sağlarken yüksek boyutlu vektörleri daha küçük gösterimlere eşleyerek sıkıştırma sağlar ve girdiden sıkıştırılmış gösterime ve geriye doğru doğrusal bir dönüşümü hesaplamak için ağırlık matrislerini kullanır. Buna ek olarak, derin otomatik kodlayıcılar karmaşık eşlemelere izin verirken, olasılıklı otomatik kodlayıcılar veri üretimi için kullanılabilecek ara gösterim ve girdi üzerinden koşullu dağılımlar üretir. Otomatik kodlayıcılar tarafından doğrusal olmayan işlevlerin kullanılması, girdinin kayıpsız bir şekilde sıkıştırılmasına yol açan, verilerin asıl boyutsallığını yakalayan daha düşük boyutlu bir uzay üzerine bir projeksiyon olan doğrusal olmayan manifolddan yararlanır.
CS480/680 Ders 21: Üretken ağlar (varyasyonel otomatik kodlayıcılar ve GAN'lar)
CS480/680 Ders 21: Üretken ağlar (varyasyonel otomatik kodlayıcılar ve GAN'lar)
Bu ders, varyasyonel otomatik kodlayıcılar (VAE'ler) ve üretken çekişmeli ağlar (GAN'lar) gibi ağlar aracılığıyla verilerin çıktı olarak üretilmesine izin veren üretici ağlara odaklanır. VAE'ler, verileri orijinal alandan yeni bir alana eşlemek için bir kodlayıcı ve ardından orijinal alanı kurtarmak için bir kod çözücü kullanır. Öğretim görevlisi, VAE'lerin arkasındaki konsepti ve eğitimde ihtiyaç duyulan dağılımların integralini hesaplamadaki zorlukları açıklar. GAN'lar iki ağdan oluşur - bir üretici ve bir ayrımcı - burada üretici ağ yeni veri noktaları oluşturur ve ayrımcı ağ, üretilen ve gerçek olanlar arasında ayrım yapmaya çalışır. Ağların güçlü yönleri arasında bir denge sağlamak ve küresel yakınsama sağlamak da dahil olmak üzere GAN uygulamasındaki zorluklar tartışılmaktadır. Ders, oluşturulan görüntülerin örnekleri ve bir sonraki ders için bir önizleme ile sona erer.
CS480/680 Ders 22: Toplu öğrenme (torbalama ve hızlandırma)
CS480/680 Ders 22: Toplu öğrenme (torbalama ve hızlandırma)
Ders, öğrenme sonuçlarını iyileştirmek için çoklu algoritmaların bir araya geldiği toplu öğrenmeyi tartışır. İncelenen iki ana teknik torbalama ve artırmadır ve konuşmacı daha zengin bir hipotez elde etmek için hipotezleri birleştirmenin önemini vurgular. Ders, ağırlıklı çoğunluk oylama sürecini ve hata olasılığını ve ayrıca yükseltmenin sınıflandırma doğruluğunu iyileştirmek için nasıl çalıştığını açıklar. Konuşmacı ayrıca, toplu öğrenmenin pek çok sorun türüne uygulanabilirliğine dikkat çekerek hızlandırma ve topluluk halinde öğrenmenin avantajlarını da ele alıyor. Son olarak video, veri bilimi yarışmalarında topluluk öğreniminin kullanımını göstermek için Netflix meydan okuma örneğini takip ediyor.
Topluluk halinde öğrenme üzerine olan bu derste, konuşmacı, doğrulukta bir artış elde etmek için farklı modellerden hipotezleri birleştirmenin değerini vurguluyor; bu yaklaşım, halihazırda oldukça iyi çözümlerle başlarken özellikle yararlı olabilecek bir yaklaşımdır. Ağırlıklı bir tahmin kombinasyonu almanın önemini tartışıyor ve iki hipotezin ortalamasının bazen tek başına bireysel hipotezlerden daha kötü olabileceğine dikkat edilmesi gerektiğine dikkat çekiyor. Konuşmacı ayrıca görevin sınıflandırma mı yoksa regresyon mu olduğuna bağlı olarak ağırlıkların normalleştirilmesinin gerekli olabileceğini açıklar.
CS480/680 Ders 23: Akışları normalleştirme (Priyank Jaini)
CS480/680 Ders 23: Akışları normalleştirme (Priyank Jaini)
Bu derste Priyank Jaini, yoğunluk tahmini için bir yöntem olarak akışları normalleştirmeyi tartışıyor ve bunların GAN'lar ve VAE'ler gibi diğer üretken modellerden nasıl farklı olduğunu tanıtıyor. Jaini, olasılık kütlesinin korunumu kavramını ve bunun akışları normalleştirmede değişkenlerin değişim formülünü türetmek için nasıl kullanıldığını açıklıyor. Ayrıca, dönüşüm ailelerini ve permütasyon matrisleri kavramını kullanarak akışları normalleştirmede üçgen yapıyı oluşturma sürecini açıklıyor. Jaini ayrıca, daha yüksek dereceli polinomlar kullanan ve herhangi bir hedef yoğunluğunu yakalayabilen ve onları evrensel kılan kareler toplamı (SOS) akışları kavramını da sunar. Son olarak Jaini, görüntü üretimi için akış tabanlı yöntemlerde gizli alanı ve bunun faydalarını tartışıyor ve izleyicilerden akış tabanlı modellerin potansiyel dezavantajları üzerinde düşünmelerini istiyor.
Priyank Jaini'nin akışları normalleştirme üzerine yaptığı bu derste, çok sayıda parametreyle yüksek boyutlu dönüşümleri yakalamanın zorluklarını tartışıyor. Normalleştirme akışları, bu tür sorunların üstesinden gelmek için darboğazlar kullanan GAN'ların aksine, tam bir temsil elde etmek için her iki boyutun da aynı olmasını gerektirir. Jaini, akışları normalleştirme deneylerinde yüksek boyutlu veri kümeleriyle ilişkili parametreleri öğrenmenin zor olabileceğinin altını çiziyor. Ayrıca akışları normalleştirmenin çok modlu dağılımları nasıl yakalayabileceğine ilişkin soruları ele alıyor ve doğrusal afin dönüşümleri uygulamak için bir kod sunuyor.
CS480/680 Ders 24: Gradyan artırma, torbalama, karar ormanları
CS480/680 Ders 24: Gradyan artırma, torbalama, karar ormanları
Bu ders, makine öğreniminde gradyan artırma, paketleme ve karar ormanlarını kapsar. Gradyan artırma, kayıp fonksiyonunun negatif gradyanına dayalı olarak önceki tahmin ediciye yeni tahmin ediciler eklemeyi içerir ve bu da regresyon görevlerinde artan doğruluğa yol açar. Ders ayrıca, düzenli hale getirme ve eğitim süreçlerini erken durdurma yoluyla fazla uydurmanın nasıl önleneceğini ve performansın nasıl optimize edileceğini araştırıyor. Buna ek olarak, ders, son bir tahmin elde etmek için alt örneklemeyi ve farklı temel öğrenicileri birleştirmeyi içeren torbalamayı kapsar. Karar ağaçlarının temel öğreniciler olarak kullanımı ve rastgele ormanların oluşturulması da tartışılmakta ve Microsoft Kinect'in hareket tanıma için rastgele ormanları kullandığı gerçek hayattan bir örnek verilmektedir. Topluluk yöntemlerinin paralel hesaplama için faydaları tartışılmakta ve makine öğrenimi sistemlerindeki ağırlık güncellemelerini anlamanın önemi vurgulanmaktadır. Bu ders, sinir ağları veya gizli Markov modelleri içindeki öngörücüleri birleştirmede ortalama ağırlıklarla ilgili olası sorunları ele alır ve bunun yerine tahminlerin çoğunluk oyu veya ortalama alma yöntemiyle birleştirilmesini önerir. Profesör ayrıca Waterloo Üniversitesi'nde mevcut çeşitli ilgili kurslar, optimizasyon ve lineer cebir alanında birkaç yüksek lisans düzeyinde kurs ve yapay zeka, makine öğrenimi, veri sistemleri, istatistik ve optimizasyon konularına odaklanan bir lisans veri bilimi programı önermektedir. Ders, genel bilgisayar bilimi derecelerine kıyasla veri bilimi konularında uzmanlaşma ve istatistikle örtüşme konusunda algoritmik yaklaşımların önemini vurgular.
Yapay Zekadan Korkmalı mıyız? Emad Mostaque, Alexandr Wang ve Andrew Ng ile | 39
Yapay Zekadan Korkmalı mıyız? Emad Mostaque, Alexandr Wang ve Andrew Ng ile | 39
Bu YouTube videosunun konukları, yapay zekanın (AI) potansiyel tehlikeleri, çeşitli sektörlerdeki aksamalar ve güncel kalmaları için çalışanların yeniden beceri kazanmasının önemi dahil olmak üzere çeşitli yönlerini tartışıyor. Panelistler ayrıca AI araçlarının kullanılabilirliğini, AI'nın sağlık hizmetlerinde uygulanmasını, bilgi dağıtım sistemlerinde standardizasyonu, AI'da zenginlik yaratma potansiyelini ve sağlık ve eğitimde dil modellerinin kullanımını tartışıyorlar. Ek olarak, yönetişimde yapay zeka modellerinin sorumlu bir şekilde uygulanması, şeffaflık ve etik hususlara duyulan ihtiyacı vurguladılar. Son olarak, panelistler sağlık ve eğitim için yapay zekada mahremiyet gibi konularda izleyicilerin bazı sorularını kısaca yanıtlıyor.
“Yapay Zekanın Babası” Geoffrey Hinton, Yapay Zekanın “Varoluşsal Tehdidi” Konusunda Uyardı | Amanpour ve Şirketi
“Yapay Zekanın Babası” Geoffrey Hinton, Yapay Zekanın “Varoluşsal Tehdidi” Konusunda Uyardı | Amanpour ve Şirketi
"Yapay zekanın vaftiz babası" olarak tanınan Geoffrey Hinton, hızla gelişen dijital zekaların sonuçlarını ve insan öğrenme yeteneklerini aşma potansiyellerini araştırıyor. Bu yapay zeka sistemlerinin oluşturduğu varoluşsal tehdide ilişkin endişelerini dile getirerek, çeşitli yönlerden insan beyninden daha iyi performans gösterebilecekleri konusunda uyarıda bulunuyor. Beyinden önemli ölçüde daha az depolama kapasitesine sahip olmalarına rağmen, dijital zekalar, insanlarınkini binlerce kez aşan bol miktarda sağduyu bilgisine sahiptir. Ayrıca, beyne kıyasla üstün algoritmalar kullanarak daha hızlı öğrenme ve iletişim becerileri sergilerler.
Hinton, yapay zekaların şakaların neden komik olduğunu açıklayabildiği ve insanlara kıyasla belirli kavramların daha derinden anlaşıldığını öne sürdüğü Google'ın Palm sistemini kullanarak yaptığı ilgi çekici bir keşfi paylaşıyor. Bu, bağlantı kurma ve bilgi edinme konusundaki olağanüstü yeteneklerini vurgular. İnsan sezgilerinin ve önyargılarının, hayvanlara cinsiyet nitelikleri atfetmemizi sağlayan sinirsel aktivitemize gömülü olduğunu vurguluyor. Ancak bu düşünce süreçleri, yapay zekanın gelecekte oluşturacağı potansiyel tehditlere de ışık tutuyor.
AI'nın duyarlılığıyla ilgili endişeleri ele alan Hinton, tanımının etrafındaki belirsizliği ve gelişimini çevreleyen belirsizliği kabul ediyor. İş yerinden edilme, gerçeği ayırt etmenin zorluğu ve sosyo-ekonomik eşitsizliği şiddetlendirme potansiyeli dahil olmak üzere yapay zekanın sunduğu çeşitli zorlukları gündeme getiriyor. Bu riskleri azaltmak için Hinton, yapay zeka tarafından üretilen sahte videoların ve görüntülerin üretimini suç sayan, sahte parayı yönetenlere benzer katı düzenlemeler getirmeyi öneriyor.
Uluslararası işbirliğinin önemini vurgulayan Hinton, Çinlilerin, Amerikalıların ve Avrupalıların hepsinin kontrol edilemeyen yapay zekanın ortaya çıkmasını önlemede kazanılmış bir çıkarı paylaştığının altını çiziyor. Google'ın AI geliştirme konusundaki sorumlu yaklaşımını kabul ediyor, ancak araştırmacıların bu akıllı sistemler üzerinde kontrol sahibi olmalarını sağlamak için kapsamlı deneylere duyulan ihtiyacı vurguluyor.
Hinton, tıp, afet tahmini ve iklim değişikliği anlayışı gibi alanlarda dijital zekanın değerli katkılarını kabul ederken, yapay zeka geliştirmeyi tamamen durdurma fikrine katılmıyor. Bunun yerine, yapay zekanın potansiyel olumsuz etkilerini anlamak ve azaltmak için kaynakların tahsis edilmesini savunuyor. Hinton, süper zeki yapay zekanın gelişimini çevreleyen belirsizlikleri kabul ediyor ve toplumun iyileştirilmesi için optimize edilmiş bir geleceği şekillendirmek için kolektif insan çabasının gerekliliğini vurguluyor.