Makine Öğrenimi ve Sinir Ağları - sayfa 19

 

Anlatım 15. Öğrenme: Ramak Kala Olaylar, Felicity Koşulları



15. Öğrenme: Ramak Kala Olaylar, Felicity Koşulları

Bu videoda, Profesör Patrick Winston ramak kalalardan öğrenme kavramını ve mutluluk koşullarını tartışıyor. Bir kemer inşa etmek ve bunun bir kemer olarak kabul edilmesi için gerekli olan belirli kısıtlamaları belirlemek de dahil olmak üzere farklı örnekler kullanır. Ayrıca bir bilgisayar programının buluşsal öğrenmeyi kullanarak bir trenin temel özelliklerini nasıl tanımlayabileceğini açıklıyor. Konuşmacı, kendini açıklamanın ve hikaye anlatımının önemini, özellikle de sunumlara ikisini de dahil etmenin bir fikrin öne çıkmasını ve ünlü olmasını nasıl sağlayabileceğini vurgular. Nihayetinde, paketleme fikirlerinin yalnızca AI ile ilgili olmadığına, aynı zamanda iyi bilim yapmak, kendini daha akıllı hale getirmek ve daha ünlü olmakla ilgili olduğuna inanıyor.

  • 00:00:00 Bu bölümde Profesör Patrick Winston, tek seferde tek bir örnekten öğrenmenin yeni bir yolunu açıklıyor. Bir kemerin sınıf örneği, bir model kullanarak her örnekten kesin bir şey öğrenmenin nasıl mümkün olduğunu ve onun "ramak kala" dediği şeyi göstermek için kullanılır. Bu süreç, yüzeydeki kusurlar hakkındaki bilgileri bastırmak ve yapıyı belirginleştirmek için yükseklik ve malzeme gibi önemli olmayan tüm detaylardan soyutlanmayı içerir. Bu yaklaşım nihayetinde daha verimli öğrenmeye yol açar ve insanın öğrenmesi ve daha akıllı hale gelmesi için etkileri vardır.

  • 00:05:00 Bu bölümde ramak kalalardan öğrenme kavramı ve saadet durumları ele alınmaktadır. Konuşmacı, noktayı açıklamak için bir kemer inşa etme örneğini kullanır. Farklı kemer örnekleri ve ramak kalalardan geçerken, bir şeyin gerçekten bir kemer olarak kabul edilmesi için gerekli olan belirli kısıtlamaları belirlemeye başlarlar. Konuşmacı, destekleyici ilişkilerin varlığından dokunma ilişkilerinin yasaklanmasına kadar, kemer inşa etmenin temel unsurlarını ana hatlarıyla belirtir. Ayrıca kemerin tepesinin rengi bir zorunluluk olarak tanımlanır. Neyin gerekli neyin gerekli olmadığını belirleme sürecinde konuşmacı, kısıtlamaların sayısız denemeden ziyade birkaç adımda nasıl öğrenilebileceğini vurgular.

  • 00:10:00 Bu bölümde konuşmacı, içinde bulunulan dünyanın doğasını göz önünde bulundurarak yeni bir modelin nasıl yapılacağını anlatıyor. Görüldüğü gibi, gelişen model buna göre ayarlanır. Konuşmacı, çocuk bloklarından örnekler sunar ve muhafazakar bir genelleme yapmak için parçalar hiyerarşisinin nasıl temsil edilebileceğini açıklar. Konuşmacı daha sonra bu tür öğrenmeyi sinir ağlarıyla karşılaştırır ve insanların gerçekleştirmesi için örnek bir görev sunar; bu, üstteki trenleri alttaki trenlerden ayıran ve ayıran bir tanım vermeyi içerir.

  • 00:15:00 Bu bölümde konuşmacı, bir bilgisayar programının sezgisel öğrenme süreciyle üstü kapalı bir trenin temel özelliklerini nasıl tanımlayabileceğini açıklıyor. Programa olumlu ve olumsuz örnekler verilir ve olumsuz olanları hariç tutarak mümkün olduğu kadar çok olumlu örneği kapsayan bir açıklama oluşturmaya başlamak için bir "tohum" örneği seçilir. Tohuma uygulanan buluşsal yöntemler veya kurallar, ışın arama gibi teknikler kullanılarak kontrol altında tutulması gereken büyük bir olası çözüm ağacı oluşturmak için farklı şekillerde birleştirilebilir. Konuşmacı ayrıca, bir modelin temel özelliklerini tanımlamaya yardımcı olan "require link" buluşsal yöntemi de dahil olmak üzere, arkadaşı tarafından geliştirilen buluşsal yöntemler için bir sözlük sunar.

  • 00:20:00 Bu bölümde Profesör Patrick Winston, "bağlantıyı yasakla", "kümeyi genişlet", "bağlantıyı bırak" ve "ağaca tırman" gibi farklı sezgisel yöntemlerin öğrenmede uzmanlaşmak veya genellemek için nasıl kullanılabileceğini açıklıyor. . Ayrıca ramak kalalar fikrine ve örneklere ve bunların genelleme ve uzmanlaşma ile nasıl bağlantılı olduğuna da değiniyor. Bu buluşsal yöntemlerin kullanılması, daha az veya daha fazla şeyi eşleştirmeye yardımcı olabilir ve soruna bağlı olarak, insanlar veya daha büyük hafızaya sahip bilgisayarlar için daha uygun olabilir. Hangi yöntemin daha iyi olduğunu belirlemenin yolu, kişinin çözmeye çalıştığı belirli soruna bağlı olacaktır.

  • 00:25:00 ramak kala ve saadet durumlarının öğrenme sürecindeki önemi. Bu bölümde, Profesör Patrick Winston, öğrencinin başlangıçtaki bilgi durumunu yeni bir bilgi durumuna dönüştürmek için öğretmen ve öğrencinin aralarında geçerli olan sözleşmeleri nasıl kurmaları gerektiğini açıklıyor. Öğrencinin bilgi durumunu temsil eden bir ağ modelinin kullanılmasıyla öğretmen, öğrencinin yaptığı hata türlerini belirleyebilir ve buna göre geri bildirimde bulunabilir. Bunu yaparak, öğretmen öğrencinin bilgisinin dalga cephesini etkili bir şekilde dışarı çıkarabilir ve öğrencinin yeni bilgileri öğrenme ve uygulama becerisini geliştirebilir.

  • 00:30:00 Bu bölümde konuşmacı, öğrencinin hesaplama kapasitesini anlamanın onlara öğretirken ne kadar önemli olduğunu tartışır. Bu, bir üçüncü sınıf öğrencisinin bir bilgisayarla karşılaştırıldığında bilgi depolama konusundaki sınırlı becerisini hesaba katmayı içerir. Ayrıca, bir öğrencinin etkili bir şekilde öğrenmesi için öğretmenin tarzına güven ve anlayış gibi sözleşmelerin nasıl gerekli olduğu hakkında da konuşurlar. Konuşmacı ayrıca kendi kendine konuşmanın veya betimlemeler oluşturmanın öğrenme için ne kadar önemli olduğunu açıklar. Michelene Chi tarafından yürütülen bir deney, temel fizik hakkında bilgi edinmek söz konusu olduğunda kendi kendine konuşmanın avantajlarını gösterdi.

  • 00:35:00 Bu bölümde, kendini açıklamanın problem çözme yeteneğini nasıl etkileyebileceği üzerinde duruluyor. Daha az zeki olanlardan iki kat daha fazla puan alan en zeki bireyler, daha düşük puan alan gruptaki katılımcılardan üç kat daha fazla kendi kendilerine konuştular. Kendini açıklama, fizikle ilgili olanlar ve fizik yerine izlemeyle ilgili olanlar olmak üzere iki kategoriye ayrılabilir. Birisi kendi kendine ne kadar çok konuşursa, problem çözmede o kadar iyi puan alıyor gibi görünüyor. Daha iyi puanları teşvik etmek için kendi kendine konuşmanın işe yaradığına dair net bir gösterge olmasa da, anekdot niteliğindeki kanıtlar, kendi kendine daha fazla konuşmanın yardımcı olabileceğini gösteriyor. Son olarak, tartışma, fikrinizin iyi bilinmesini istiyorsanız özellikle yararlı olan paketleme fikirlerine ve işinizle ilişkili bir sembol veya görsel tutamaç ihtiyacından başlayarak sürece yardımcı olan beş niteliğe geçer.

  • 00:40:00 Bu bölümde Profesör Patrick Winston, bir fikrin bilinir hale gelmesinde bir sürprizin ve göze çarpan bir noktanın önemini tartışıyor. İyi bir fikrin ünlü olabilmesi için öne çıkan bir şeye sahip olması gerektiğini ve izleyicilerin ilgisini çekebilecek sunumlara bir hikaye dahil etmenin çok önemli olduğunu açıklıyor. Ayrıca, "belirgin" kavramına, önemi belirtmekle birlikte, açıkça "çıkmak" anlamına geldiğini belirterek açıklık getirir. Eğitimin esas olarak hikaye anlatmakla ilgili olduğunu öne sürüyor ve bireyleri, sunumlarını daha etkili kılmak için bu nitelikleri sunumlarına dahil etmeyi düşünmeye teşvik ediyor. Nihayetinde, fikirler en iyi başarı şansına sahip olacak şekilde iyi paketlendiği sürece ünlü olmanın ahlaksız olmadığına inanıyor.

  • 00:45:00 Bu bölümde, konuşmacı Julia Child'ın yanında oturmak ve ona ünlü olup olmadığını sormakla ilgili bir hikaye anlatıyor. Çocuk, kişinin buna alıştığını söyledi, bu da konuşmacının, göz ardı edilmenin tersi deneyimi hakkında düşünmesine neden oldu. Ambalaj fikirlerinin önemini ve bunun sadece yapay zeka ile ilgili olmadığını, aynı zamanda iyi bilim yapmak, kendini daha akıllı ve daha ünlü yapmakla ilgili olduğunu vurguluyor.
15. Learning: Near Misses, Felicity Conditions
15. Learning: Near Misses, Felicity Conditions
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonTo determine whether three blocks...
 

Anlatım 16. Öğrenme: Vektör Makinelerini Destekleyin



16. Öğrenme: Vektör Makinelerini Destekleyin

Videoda Patrick Winston, destek vektör makinelerinin (SVM) nasıl çalıştığını ve bir karar kuralını optimize etmek için nasıl kullanılabileceğini tartışıyor. DVM algoritmasının, bir giriş vektörünü (x) iki benzer vektörü ayırmanın daha kolay olduğu yeni bir uzaya taşımak için bir dönüşüm (Phi) kullandığını açıklıyor. Çekirdek işlevi k, x sub i ve x sub j'nin iç çarpımını sağlar. Gereken tek şey, bir çekirdek işlevi olan k işlevidir. 1990'ların başında SVM üzerinde çalışan bir Sovyet göçmeni olan Vapnik, çekirdek fikrini yeniden canlandırmakla ve onu SVM yaklaşımının önemli bir parçası haline getirmekle tanınır.

  • 00:00:00 Destek vektör makineleri, karar sınırlarını belirlemek için bir alanı bölmenin karmaşık bir yoludur. Vladimir Vapnik tarafından geliştirildiler ve daha doğru karar vermeye izin verdikleri için çok önemliler.

  • 00:05:00 Video, destek vektör makinelerinin nasıl çalıştığını tartışıyor ve bir numunenin ne zaman pozitif veya negatif olduğu konusunda bir karar kuralı sağlıyor.

  • 00:10:00 Bu videoda Patrick Winston, bir soruna en uygun çözümü bulmaya yardımcı olan bir makine öğrenme algoritması olan destek vektör makinesi (SVM) kavramını tanıtıyor. Bir SVM'deki ilk denklem, bir değişken vektörünü alan ve bir sayı veren bir fonksiyon olan bir maliyet fonksiyonudur. Maliyet fonksiyonu, maliyet fonksiyonundaki her bir değişkenin önemine karşılık gelen bir vektör olan bir ağırlık vektörü ile çarpılır. Bir DVM'deki ikinci denklem, maliyet fonksiyonunu ve bir ağırlık vektörünü alan ve en iyi çözümü bulmaya çalışan bir fonksiyon olan optimizasyon problemidir. Optimizasyon problemi, maliyet fonksiyonunun minimize edilmesiyle çözülür. Bir SVM'deki son denklem, SVM'nin çıktısı olan çıktı vektörüdür.

  • 00:15:00 Video, sorunları çözmek için destek vektör makinelerinin (SVM) kullanımını tartışıyor ve bu tekniği kullanarak bir caddenin genişliğinin nasıl hesaplanacağını gösteriyor.

  • 00:20:00 Bu videoda Patrick Winston, Lagrange çarpanlarının kısıtlamalarla bir işlevi optimize etmek için nasıl çalıştığını tartışıyor. Video ayrıca kısıtlamaları olan bir fonksiyonun ekstremumunu bulmak için Lagrange çarpanlarının nasıl kullanıldığını da kapsar.

  • 00:25:00 Bu videoda, örneklerin doğrusal toplamının, örneklerin bileşenlerinin doğrusal toplamına eşit olduğu keşfedildi. Ek olarak, Lagrangian'ın farklı değişkenlere göre türevleri türevlenir ve alfa i çarpı y alt i'nin toplamının 0'a eşit olduğu gösterilir, bu da w vektörünün bazı alfaların toplamına eşit olduğu anlamına gelir. i, bazı skalerler, çarpı bu eksi 1 veya artı 1 değişken çarpı x alt i bölü i.

  • 00:30:00 Bu videoda, ikinci dereceden bir optimizasyon probleminin destek vektör makinelerini kullanarak nasıl çözüleceğini açıklıyor. Karar vektörünün örneklerin lineer toplamı olduğu ve cebirin kolay olduğu açıklanır. Öğrenci, problemdeki her terim için alfa i çarpı y alt i çarpı x alt i'nin toplamı alınarak cebirin basitleştirildiğini açıklar.

  • 00:35:00 Bu videoda bir matematikçi, bir karar kuralının optimizasyonunun nasıl yalnızca örnek çiftlerinin iç çarpımına bağlı olduğunu açıklıyor. Bu, matematiksel analizin uygulanabilir olduğunu ve optimizasyon algoritmasının iki optimal çözümü ayıran düz bir çizgi bulacağını gösterir.

  • 00:40:00 Destek vektör makinelerinde, bir giriş vektörünü (x) iki benzer vektörü ayırmanın daha kolay olduğu yeni bir uzaya taşımak için bir dönüşüm (Phi) kullanılır. Çekirdek işlevi k, x sub i ve x sub j'nin iç çarpımını sağlar. Gereken tek şey, bir çekirdek işlevi olan k işlevidir.

  • 00:45:00 Video, destek vektör makinelerinin (SVM) nasıl çalıştığını ve SVM'nin performansını iyileştirmek için bir çekirdeğin nasıl kullanılabileceğini tartışıyor. 1990'ların başında SVM üzerinde çalışan bir Sovyet göçmeni olan Vapnik, çekirdek fikrini yeniden canlandırmakla ve onu SVM yaklaşımının önemli bir parçası haline getirmekle tanınır.
16. Learning: Support Vector Machines
16. Learning: Support Vector Machines
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we explore suppo...
 

Anlatım 17. Öğrenme: Arttırma



17. Öğrenme: Güçlendirme

Video, güçlü bir sınıflandırıcı oluşturmak için birkaç zayıf sınıflandırıcıyı birleştiren güçlendirme fikrini tartışıyor. Buradaki fikir, zayıf sınıflandırıcıların oy kullanması ve güçlü sınıflandırıcının en çok oyu almasıdır. Video, bireysel sınıflandırıcıların performansını iyileştirmek için bir artırma algoritmasının nasıl kullanılacağını açıklar.

  • 00:00:00 Video, güçlü bir sınıflandırıcı oluşturmak için birkaç zayıf sınıflandırıcıyı birleştiren güçlendirme fikrini tartışıyor. Buradaki fikir, zayıf sınıflandırıcıların oy kullanması ve güçlü sınıflandırıcının en çok oyu almasıdır.

  • 00:05:00 YouTube videosu, bireysel sınıflandırıcıların performansını iyileştirmek için bir artırma algoritmasının nasıl kullanılacağını açıklıyor. Algoritma, her sınıflandırıcıyı farklı bir veri kümesi üzerinde eğitmeyi ve ardından sonuçları birleştirmeyi içerir. Video ayrıca, bu algoritmayı kullanırken fazla uydurmanın nasıl önlenebileceğini de açıklıyor.

  • 00:10:00 Videoda konuşmacı, bir makine öğrenimi algoritmasının doğruluğunu "artırarak" nasıl iyileştirebileceğinden bahsediyor. Güçlendirme, algoritmanın yanlış yaptıklarının sonuç üzerinde abartılı bir etkiye sahip olduğu, bozuk bir örnek grubuna bakmayı içerir. Bu, algoritmanın hatalarından ders çıkarmasını ve doğruluğunu geliştirmesini sağlar.

  • 00:15:00 YouTube videosunda konuşmacı, hızlandırmanın bir dizi test oluşturmak için nasıl kullanılabileceğini açıklıyor. Ayrıca hata oranının nasıl hesaplandığını ve bazı hataların etkisini abartmak için ağırlıkların nasıl kullanılabileceğini açıklıyor.

  • 00:20:00 Konuşmacı, her biri kendi ağırlığına sahip birden fazla sınıflandırıcıyı birleştirerek bir sınıflandırıcının nasıl oluşturulacağını açıklıyor. Bunun sınıflandırıcılar için son teknoloji olduğunu ve sınıflandırıcıları bir araya getirmekten daha etkili olduğunu açıklıyor.

  • 00:25:00 Video, boosting öğrenme algoritmasında yer alan çeşitli adımları tartışıyor. Bu adımlar, hata oranını en aza indiren bir sınıflandırıcının seçilmesini, alfa değerinin hesaplanmasını ve sınıflandırıcının gözden geçirilmiş ağırlıklar üretmek için kullanılmasını içerir. Algoritmanın genel amacı, tüm örnek veriler üzerinde mükemmel bir dizi sonuç üreten bir sınıflandırıcı üretmektir.

  • 00:30:00 Video, bir makineye hata oranlarını en aza indirerek performansını artırmanın nasıl öğretilebileceğini tartışıyor. Bunu, hata oranının katlanarak nasıl azaltılabileceğini gösteren bir dizi örnekle göstermektedir.

  • 00:35:00 Bu videoda, konuşmacı yeni ağırlıkları hesaplamak için alfa değerinin nasıl kullanılacağını açıklıyor. Programın nasıl çalıştığından ve bu tür şeyleri yapmanın daha iyi yollarını bulmak için matematiğin nasıl yapıldığını bilmenin nasıl gerekli olduğundan bahsediyor. Ayrıca, cevap doğruysa hata oranının karekökünün 1'e bölümü eksi hata oranının ağırlığın çarpanı olduğunu ve 1'in karekökü eksi hata oranının hata oranına bölünmesinin de ağırlık için çarpan olduğunu açıklıyor. cevap yanlışsa ağırlık.

  • 00:40:00 Doğru sınıflandırılan numunelerin ağırlıklarının toplamı 1/2, yanlış sınıflandırılan numunelerin ağırlıklarının toplamı 1/2'dir.

  • 00:45:00 Boost, makine öğrenimi modellerinin performansını artırmak için kullanılan bir yöntemdir. Daha güçlü bir model oluşturmak için birden çok zayıf modeli birleştirerek çalışır. Güçlendirme, fazla uydurmayı azaltmada etkilidir ve genellikle el yazısı tanıma ve konuşma anlama gibi alanlarda kullanılır.

  • 00:50:00 Bu video, makine öğrenimi algoritmalarının performansını iyileştirme yöntemi olan "boosting" kavramını tartışıyor. Güçlendirme, bir dizi zayıf sınıflandırıcıyı eğitmeyi ve ardından tahminlerini birleştirmeyi içerir. Bu, tipik olarak, tek bir güçlü sınıflandırıcı kullanmaya göre önemli bir performans artışı sağlar.
17. Learning: Boosting
17. Learning: Boosting
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonCan multiple weak classifiers be ...
 

Anlatım 18. Temsiller: Sınıflar, Yörüngeler, Geçişler



18. Temsiller: Sınıflar, Yörüngeler, Geçişler

Bu videoda Profesör Patrick Winston, insan zekası kavramını, sembolik temsiller oluşturma yeteneğini ve bunun dille ilişkisini ve iç dili ve düşünceleri temsil etmek için semantik ağların kullanımını tartışıyor. Winston, farklı nesneleri ve davranışlarını anlamaya yardımcı olmak için temel kalıpları anlamanın ve bir değişim sözlüğü geliştirmenin önemini vurguluyor. Ek olarak, bir kaynaktan bir hedefe hareketi içeren eylemleri tanımlamak için yörünge çerçevelerinin kullanımını ve bir cümleyi daha iyi anlamak için çoklu temsillerin önemini tartışır. Son olarak, Winston, özellikle anadili İngilizce olmayanlar için, belirsiz bir dilden, kafa karıştırıcı zamirlerden ve sözcükleri değiştirmekten kaçınarak teknik yazının nasıl geliştirileceğine dair ipuçları sunuyor.

  • 00:00:00 Bu bölümde, Patrick Winston insan zekasının doğası ile makine zekasının karşılaştırmasını yaparak başlıyor. Makinelerin, destek vektör makineleri ve hızlandırma gibi yöntemlerle akıllı görevleri yerine getirebilse de, ne yaptıklarına dair bir anlayıştan yoksun olduklarını ve insan zekası hakkında fikir vermediklerini açıklıyor. Winston daha sonra insan zekasının evrimsel perspektifini tartışıyor ve soy ağacımızda artan beyin boyutunu vurguluyor. Ancak, modern insanlardan daha büyük beyinlere sahip olan Neandertallerin çok fazla etkisi olmadığı için beyin büyüklüğünün insan zekasını açıklamaya yetmediğini belirtiyor. Bunun yerine, Güney Afrika'daki bir grup Homo Sapiens, başka hiç kimsenin sahip olmadığı bir şeyi geliştirdi ve aletlerin ve sanat eserlerinin kanıtladığı gibi, hızla devraldı.

  • 00:05:00 Bu bölümde konuşmacı, sembolik temsiller oluşturma yeteneğinin insanların hikayeleri anlatmasını ve anlamasını sağladığı fikrini tartışıyor. Dilin gelişimiyle ilgili olan bu yetenek, türümüzün özel olmasını sağladı, çünkü iki kavramı alıp bir araya getirip üçüncüsünü sınırsızca oluşturabiliyorduk. Ayrıca, iletişim kurduğumuz dille aynı olmayabilen, düşündüğümüz dil olan "iç dil" kavramını da tartışıyor. Konuşmacı, iç dili ve düşünceleri temsil etmek için anlamı ileten düğüm ve bağlantı ağları olan semantik ağların kullanılmasını önerir. Destek ilişkilerini not eden ve Macbeth'teki olayları izleyen bir diğeri gibi semantik ağ örnekleri sağlar.

  • 00:10:00 Bu bölümde konuşmacı semantik ağ kavramını, öğelerini ve yapay zekadaki uygulamalarını tartışıyor. Semantik ağlar, düğümleri ve bağlantıları kullanarak, düğümleri birbirine bağlayan bağlantılarla bilgiyi temsil etmenin bir yoludur. Bağlantılar arasındaki bağlantıların, diğer bağlantıların konusu veya nesnesi olabilecek nesneler olarak ele alınmasına izin verirler. Diğer bir kavram ise, bağlantıları nesne olarak ele alma süreci olan "şeyleştirme"dir. Konuşmacı, birleştirici ağlar kavramının üstüne bir yerelleştirme katmanı koymanın önemini vurguluyor. Piyanolar, aletler ve haritalar gibi şeylere uygulanan sınıflandırmanın kullanımı semantik ağların iç dilindeki en yararlı unsurlardan biridir. Fiziksel dünyayla herhangi bir temasa dayanmayan anlayışımızı makineye yansıttığımız asalak semantik riski de vardır.

  • 00:15:00 Bu bölümde Profesör Patrick Winston, nesneleri anlamamızdaki düzeyler kavramını tartışıyor. Farklı şeyler hakkında farklı düzeylerde bilgi sahibi olduğumuzu ve kategorizasyonlarının özgüllüğüne bağlı olarak bazı nesneleri görselleştirmenin diğerlerinden daha kolay olduğunu vurguluyor. Örneğin, bir aletin resmini oluşturmak zordur, ancak bilyeli çekiç daha spesifiktir ve bu nedenle görselleştirmesi daha kolaydır. Winston ayrıca, nesneler hakkındaki bilgileri asmak için bir hiyerarşideki öğeleri kullandığımızı ve bir hiyerarşideki temel seviyenin, "piyano" sözcüğü gibi bilgimizin çoğunu astığımız yer olduğunu belirtiyor. Ek olarak Winston, arabanın hızı, duvara olan uzaklığı ve aracın durumu gibi çeşitli şeyleri düşünmeyi içeren duvara çarpan bir araba örneğini kullanarak bir hiyerarşideki farklı seviyelerdeki nesneler hakkında nasıl konuştuğumuzu tartışıyor. araba.

  • 00:20:00 Bu bölümde, konuşmacı bir araba kazası gibi bir olayın öncesinde, sırasında ve sonrasında olduğu gibi farklı zaman dilimlerindeki nesneleri anlamak için bir değişim sözlüğünün nasıl kullanılabileceğini tartışıyor. Söz varlığı azalma, artma, değişme, ortaya çıkma, kaybolma gibi hepsi de görme ile yakından ilişkili unsurları içerir. Bir kameranın nasıl çalıştığı gibi farklı kavramları anlamaya yardımcı olmak için analojiler de kullanılır. Konuşmacı ayrıca yörünge boyunca hareket eden nesneleri içeren temsilin üçüncü unsuru olarak yörüngeyi tanıtır. Genel olarak konuşmacı, temel kalıpları anlamanın ve farklı nesneleri ve davranışlarını anlamamıza yardımcı olabilecek bir dil geliştirmenin önemini vurgular.

  • 00:25:00 Bu bölümde, konuşmacı bir kaynaktan bir hedefe hareketi içeren eylemleri açıklamak için yörünge çerçevelerinin kullanımını tartışıyor. Bu çerçeveler, diğerleri arasında nesne, aracı ve araç dahil olmak üzere çeşitli öğelerden oluşur. Konuşmacı, İngilizce gibi dillerde bu unsurları süslemek için sıklıkla edatların kullanıldığını belirtiyor. Buna ek olarak, konuşmacı bir yörüngesi olmayan ancak yine de araçlar ve yararlanıcılar gibi unsurları içeren rol çerçevelerini tartışır. Konuşmacı, bu çerçevelerin genellikle Wall Street Journal Corpus'ta bulunduğunu ve belirli bir metindeki geçişlerin ve yörüngelerin yoğunluğunu analiz etmek için kullanılabileceğini açıklıyor. Son olarak, konuşmacı hikaye dizileri kavramını tanıtıyor ve sorun yaşamamak için cinsiyet ayrımı gözetmeyen bir isim örneği sunuyor.

  • 00:30:00 Bu bölümde video, çoklu temsillerin önemini ve bunların bir cümlenin daha iyi anlaşılmasını nasıl sağlayabileceğini tartışıyor. Verilen örnek, Pat'in Chris'i teselli etmesidir; bu, bir rol çerçevesine ve ruh hali muhtemelen düzelmiş bir nesneyi (Chris) içeren bir geçiş çerçevesine bölünebilir. Video ayrıca, eylemi olumsuz bir şeye (korkutmak gibi) dönüştürmenin kareleri nasıl etkileyeceğini araştırıyor. Ek olarak video, "Pat Chris'i öptü" gibi bir cümleden oluşturulabilen bir tür zihinsel görüntü olarak yörünge çerçevesi fikrini tanıtıyor.

  • 00:35:00 Bu bölümde Profesör Jordan Peterson, insanların bir hikayenin temsilini oluşturmak için olay dizilerini nasıl kullandıklarını tartışıyor. Bu temsilin öpüşme veya bıçaklama gibi basit bir eylemden karmaşık hikayelere nasıl değişebileceğini ve bir olayın meydana geldiği bağlama bağlı olarak nasıl değiştiğini açıklıyor. Ayrıca hikaye anlatımında sekansın öneminden ve hafızamızın sekanslar fikrine nasıl kök saldığından bahsediyor. Son olarak, olay çerçeveleri, felaket çerçeveleri ve parti çerçeveleri gibi ait oldukları süper sınıfa dayalı olarak, öykü kitaplıklarının insanların karşılaştıkları öyküler hakkında daha fazla şey anlamalarına nasıl yardımcı olabileceğini tartışıyor.

  • 00:40:00 Bu bölümde konuşmacı, olayların partiler ve felaketler gibi çerçeve türleri içinde nasıl gruplandırılabileceğini tartışıyor. Her çerçeve, ölümler veya gelin ve damadın isimleri gibi bilgi türleri ile doldurulacak özel yuvalara sahiptir. Bununla birlikte, zamir öncüllerindeki sözdizimsel zorluklar nedeniyle hikayeleri anlamak zor olabilir. Konuşmacı, anlamayı engelleyebileceği için hikaye anlatımına gereksiz sözdizimsel zorluklar eklememenin önemini vurgular. Gazete muhabirleri, okuyucuların bilgileri kolayca anlamasını sağlamak için açık ve öz bir şekilde hikayeler yazardı.

  • 00:45:00 Bu bölümde Patrick Winston, özellikle İngilizce'de net bir şekilde yazmak isteyen Rus ve Alman yazarlar için teknik yazının nasıl geliştirileceğine dair ipuçları sunuyor. Okuyucular için belirsizliği ve kafa karışıklığını azaltmak için zamirlerden kaçınmayı, bunun yerine açık isimler kullanmayı öneriyor. Ayrıca, okuyucuların ne anlama geldiklerini belirlemek için geri dönmelerini gerektiren "eski" ve "sonuncu" gibi kelimelerden kaçınmanın ve "kürek" ve "kürek" gibi kelimeleri değiştirmekten kaçınmanın önemini vurguluyor. Winston'a göre, teknik yazarlar bu basit kuralları izleyerek yazılarını okuyucular için daha anlaşılır ve kolay anlaşılır hale getirebilirler.
18. Representations: Classes, Trajectories, Transitions
18. Representations: Classes, Trajectories, Transitions
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider the ...
 

Anlatım 19. Mimariler: GPS, SOAR, Submission, Society of Mind



19. Mimariler: GPS, SOAR, Submission, Society of Mind

Bu video, genel problem çözücü ve bilişsel psikoloji deneylerini büyük ölçüde içeren ve problem çözmeye odaklanan SOAR mimarisi dahil olmak üzere akıllı sistemler oluşturmak için çeşitli mimarileri tartışıyor. Konuşmacı ayrıca Marvin Minsky'nin duygular da dahil olmak üzere birçok katman üzerinde düşünmeyi ele alan "Duygu Makinesi"ni ve bilgisayarları insanlar gibi sağduyu ile donatmayı savunan sağduyu hipotezini tartışıyor. İnsan beyninin yapısından ilham alan kapsayıcı mimari de başarılı bir örnek olan Roomba ile tartışılmaktadır. Bir şeyleri hayal etme ve algılama becerisi, olayları tanımlama ve kültürü anlama becerisiyle bağlantılıdır ve dil, betimlemeler ve birleştiriciler oluşturmada çok önemli bir rol oynar. Beynin dil işleme alanlarını çalıştırmak için bakmak, dinlemek, çizmek ve konuşmak gibi faaliyetlerde bulunmanın önemi vurgulanır ve konuşmacı, dil işlemcisini bozabilecek ve fevri kararlara yol açabilecek hızlı konuşanlara karşı uyarır.

  • 00:00:00 Bu bölümde, profesör akıllı bir sistem oluşturmak için çeşitli alternatif mimarileri tartışıyor. 2007'deki Estonya siber saldırısından ve daha sonra göstereceği bir bilgisayar dışında hiçbir bilgisayarın bunun arkasındaki hikayeyi anlayamadığından söz ederek başlıyor. Daha sonra, Newell ve Simon tarafından Carnegie Mellon'da geliştirilen genel problem çözücü hakkında konuşmaya devam ediyor; burada akıllı bir sistem, mevcut durum ile hedef durum arasındaki sembolik farkı ölçerek ve ara durumdan bir duruma geçmek için operatörleri seçerek çalışır. daha iyi durum, amaca ulaşılana kadar süreci tekrarlamak. Bölüm, yapay zeka işinde bir şirket kurarken iflas etmekten nasıl kaçınılacağına odaklanacak olan bir sonraki derste ele alınacak olan fikrin açıklamasıyla sona eriyor.

  • 00:05:00 Bu bölümde, mevcut durum ile istenen son durum arasındaki farkı tanımlamayı ve farkı en aza indirmek için uygun operatörü seçmeyi içeren araç-sonuç analizi kavramını öğreniyoruz. MIT'den eve gitme problemini çözmek için araç-sonuç analizinin kullanılmasına ilişkin örnek, farklılıkların belirlenmesi ve istenen son duruma ulaşılana kadar operatörlerin seçilmesine yönelik yinelemeli süreci göstererek sunulmuştur. Genel problem çözücü kavramı o zamanlar heyecan verici bir fikir olsa da, farklılıkları operatörlere bağlayan tabloyu oluşturmanın zorluğu nedeniyle beklendiği gibi olmadı. Bu, "Durum Operatörü ve Sonucu" anlamına gelen daha yeni SOAR mimarisinin geliştirilmesine yol açtı, ancak mimarinin savunucuları bunun bir kısaltma değil, yalnızca bir etiket olduğunu iddia ediyor.

  • 00:10:00 Bu bölümde, SOAR mimarisi ve onun farklı bileşenleri üzerinde durulmaktadır. SOAR, uzun süreli ve kısa süreli hafıza, bir görüş sistemi, bir eylem sistemi ve bir tercih sisteminden oluşur. Mimari, bilişsel psikoloji deneylerini yoğun bir şekilde birleştirir ve birincil odak noktası problem çözmedir. Ek olarak SOAR, kural tabanlı sistemlerde bağları koparmak için ayrıntılı bir alt sisteme sahiptir ve insanların sembol manipülatörleri olduğu fikrine odaklanmıştır. Sistem sorunları sistematik olarak çözmek için tasarlanmıştır ve kural tabanlı sistemlerde bağları koparmak için ayrıntılı bir tercih sistemine sahiptir.

  • 00:15:00 Bu bölümde, konuşmacı, SOAR ve Newell'in mimarisi de dahil olmak üzere problem çözmeye büyük ölçüde önyargılı olan çeşitli mimarileri tartışıyor. Ancak konuşmacıya göre en önemli mimari, problem çözmenin nasıl katmanlar halinde gelebileceğini vurgulayan Marvin Minsky'nin "The Emotion Machine" adlı eseridir. Konuşmacı, bir kadının karşıdan karşıya geçtiği kısa bir hikaye aracılığıyla Marvin'in mimarisinin bir örneğini sunuyor. Marvin'in mimarisi, bir ses duyduğunda içgüdüsel bir tepkiden başlayarak sosyal bir bağlamda yansıtıcı düşünmeye kadar kadının deneyimlediği çeşitli düşünce düzeylerini vurgular.

  • 00:20:00 Bu bölümde SOAR mimarisi problem çözmeye odaklanırken, Minsky'nin "Duygu Makinesi" duygular dahil birçok katman üzerinde düşünmeyi ele alıyor. Ancak, sağduyunun gelişimi, bilgisayarlarda hiçbir zaman çok fazla sağduyu bulunmadığından, bu tür bir düşünceye ulaşmanın önünde bir engel teşkil ediyor. Dolayısıyla sağduyu hipotezi, bilgisayarların bu kadar akıllı düşünce süreçlerine sahip olabilmeleri için insanlar gibi sağduyu ile donatılmaları gerektiğini savunur. Bu, açık fikir projesini ve katmanlı düşünmeyi başarmanın bir yolu olarak dünya çapındaki ağdan sağduyu toplamayı doğurdu. Buna karşılık, Rod Brooks ve onun kapsama mimarisi, robotların pek bir şey yapamayacağına inanıyor çünkü insanlar robotları kapsüllenmiş bir görüş sistemi, akıl yürütme sistemi ve eylem sistemi ile yanlış bir şekilde inşa etmeyi düşünüyorlar. Bunun yerine Brooks, nesnelerden kaçınmak, gezinmek, keşfetmek ve aramak gibi dünyayla başa çıkmaya odaklanan soyutlama katmanlarına sahip olmayı önerir.

  • 00:25:00 Bu bölümde, konuşmacı, Rodney Brooks tarafından önerilen, insan beyninin nasıl inşa edildiğinden ilham alan mimariyi tartışıyor, eski kısımlar derinlerde ve neokorteks bunun üzerinde katmanlı. Brooks, derste temsile odaklandığımız şekilde temsile ihtiyaç duymadan bir makinenin bir böcek kadar akıllı davranabileceğini varsaydı. Onun fikri, bir model yerine dünyayı kullanmaktı, bu yüzden kişinin yaptığı her şey, kişinin kafasında odanın bir haritasına sahip olmak yerine tepkiseldir. En saf hallerindeki mekanizmalar sadece sonlu durum makineleridir. Brooks, oldukça başarılı olan Roomba robotunda kullanılan bu fikre kapsama mimarisi adını verdi. Roomba, navigasyon için merkezi denetleyicilerden ve bir dünya modeline duyulan ihtiyaçtan kaçınmaya yardımcı olan kızılötesi yakınlık sensörleri kullanır.

  • 00:30:00 Videonun bu bölümünde konuşmacı, bir kutu bulup onu alabilen bir robotta örneklenen kapsama mimarisini tartışıyor. Robot, kutunun yerini tespit etmek için bir lazer ışık şeritleyici kullanıyor ve kolunda kutuyu belirli bir şekilde yakalamak için sensörler bulunuyor. Robot ayrıca başlangıç noktasına geri dönmek için manyetik bir pusula kullanıyor. Konuşmacı ayrıca SOAR ve GPS gibi diğer mimarilerden bahseder ve dili merkeze alan ve algısal sistemlere rehberlik eden genesis mimarisini tanıtır.

  • 00:35:00 Bu bölümde konuşmacı, bir şeyleri hayal etme ve algılama yeteneğinin olayları tanımlama, hikayeler anlatma ve anlama ve nihayetinde kültürü anlama becerisiyle nasıl bağlantılı olduğunu tartışıyor. İnsanların, masa testeresi kullanırken eldiven takmanın tehlikeleri gibi, kendilerine açıkça öğretilmeyen şeyleri nasıl bildiklerine dair örnekler veriyor. Türümüzün 50.000 yıl önce çiçek açması için olası bir açıklama olarak "güçlü öykü hipotezini" öneriyor ve bunun bize öyküler anlatma ve onları anlama yeteneği sağladığına inanıyor.

  • 00:40:00 Bu bölümde, bilişsel ve gelişim psikolojisinde şimdiye kadar yapılmış en önemli deneyler dizisi olarak kabul edilen bir deney hakkında bilgi ediniyoruz. Deney, yiyecekleri dikdörtgen bir odanın iki zıt köşesine sepetlere koymayı ve nereye gittiklerini görmek için bir fareyi, küçük bir çocuğu ve bir yetişkini döndürmeyi içerir. Bir duvarın maviye boyanması dışında hepsi yiyeceklerle iki köşeye gitme eğilimindedir. Sıçan ve çocuk eşit olasılıkla iki çapraz köşeye giderler, yetişkin ise sadece yiyecekle köşeye gider. Çocuk dünyayı tarif etmek için sol ve sağ kelimeleri kullanmaya başladığında yetişkin olur.

  • 00:45:00 Bu bölümde konuşmacı, dilin betimlemeler ve birleştiriciler oluşturmada nasıl önemli bir rol oynadığını gösteren bir gönüllü ile bir deney yürütür. Deney, bir kitaptan bir pasajı okurken, gönüllü aynı anda onu tekrarlayarak dil işlemcisini bozar ve bu da belirli şekiller ve renkleri birleştirememelerine neden olur. Konuşmacı, bakma, dinleme, çizim yapma ve konuşma gibi faaliyetlerde bulunmanın, beynin dil işlemeden sorumlu olan aynı bölgelerini çalıştırabileceğini ve sizi daha zeki yapabileceğini tavsiye ediyor. Ek olarak, konuşmacı hızlı konuşanlara ve bunların dil işlemcinizi nasıl sıkıştırabileceğine karşı uyarır ve sizi düşünmeden karar vermeye yönlendirir.
19. Architectures: GPS, SOAR, Subsumption, Society of Mind
19. Architectures: GPS, SOAR, Subsumption, Society of Mind
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider cogn...
 

Ders 21. Olasılıksal Çıkarım I



21. Olasılıksal Çıkarım I

Olasılığa dayalı çıkarımla ilgili bu videoda Profesör Patrick Winston, olasılığın yapay zekada çıkarımlar yapmak ve çeşitli senaryolara dayalı olasılıkları hesaplamak için nasıl kullanılabileceğini açıklıyor. Ortak bir olasılık tablosunun kullanımını, aksiyomları ve zincir kuralını kullanarak olasılıkların nasıl hesaplanacağını göstermek için bir heykelin görünümü, rakuna veya hırsıza havlayan bir köpek ve MÖ 1861'de MIT'nin kuruluşu gibi örnekler kullanır. ve bağımsızlık ve koşullu bağımsızlık kavramları. Konuşmacı, değişken bağımsızlığını doğru bir şekilde ifade etme ihtiyacını vurgular ve olasılık hesaplamalarını basitleştirirken değişkenler arasındaki nedenselliği temsil etmenin bir yolu olarak inanç ağlarının kullanılmasını önerir.

  • 00:00:00 Videonun bu bölümünde Profesör Patrick Winston, özellikle rastgele olayların gözlemlenmesiyle ilgili olarak, yapay zekada olasılığın kullanımını tartışıyor. Bir heykelin kampüsteki görünümünü gözlemleme örneğini kullanır ve heykelin görünümüne yol açabilecek olası olay kombinasyonlarını takip etmek için bir tablo oluşturur. Tablodaki satır sayısının değişken sayısının 2 olduğunu ve bu olayların her birinin meydana gelme olasılığını belirlemek için uzun gözlem sürelerinin kullanılabileceğini belirtiyor. Nihayetinde, herhangi bir olayın olasılığı, meydana gelme sıklığının toplam gözlem sayısına bölünmesiyle elde edilir.

  • 00:05:00 Bu bölümde sunum yapan kişi, çeşitli olasılıkları hesaplamak için bir ortak olasılık tablosunun nasıl kullanılacağını gösterir. Kullanılan örnek, bir sanat gösterisinin varlığı ve bir bilgisayar korsanlığı gibi belirli koşulların karşılanması koşuluyla, bir heykelin ortaya çıkma olasılığının bilinmesini içerir. Sunum yapan kişi ayrıca, havlayan bir köpeğe dayalı olarak bir rakunun ortaya çıkma olasılığı ve bir rakunun varlığı göz önüne alındığında köpeğin havlama olasılığı için benzer hesaplamalar yapar. Gösterim, ortak bir olasılık tablosunun farklı senaryolara dayalı olarak çıkarımlar yapmak ve olasılıkları hesaplamak için nasıl kullanılabileceğini göstermektedir.

  • 00:10:00 Bu bölümde, konuşmacı olası çıkarımları hesaplamak için ortak olasılık tablosunun kullanımını tartışıyor. Bu aracın kullanışlılığına rağmen, daha karmaşık durumlar için gereken yüksek satır sayısı yönetimi zorlaştırabilir ve bu da olasılıksal çıkarıma ek olarak diğer yöntemlerin dikkate alınmasını gerekli kılar. Konuşmacı ayrıca MIT'nin MÖ 1861'de kurulduğu varsayımsal bir senaryo sunuyor ve hangi nesnelerin yüzdüğünü belirlemek için kullanılmış olabilecek deneysel yöntemleri tartışıyor.

  • 00:15:00 Bu bölümde, konuşmacı olasılığın temellerini ve onu destekleyen aksiyomları tartışıyor. Olasılıkların 0'dan büyük ve 1'den küçük olması gerektiğini ve ikili bir dünyada doğru olasılığının 1 ve yanlışın 0 olduğunu açıklarlar. Konuşmacı ayrıca A'nın olasılığını artı olasılığı belirten üçüncü aksiyomu da sunar. B'nin eksi A ve B'nin olasılığı, A veya B'nin olasılığına eşittir. Bu temel olasılık anlayışının, olasılıksal çıkarımda kullanılan daha karmaşık hesaplamalar için temel işlevi gördüğünü belirtiyorlar.

  • 00:20:00 Bu bölümde, konuşmacı aksiyomları kullanarak olasılıkla başa çıkma konusundaki resmi yaklaşımı ve bunun uzay tartışmalarını içeren sezgilerle nasıl yansıtılabileceğini açıklıyor. a olasılığı, dikdörtgenin toplam alanına göre dairenin boyutuyla ilişkilidir ve birden üçe kadar olan aksiyomlar bu resim açısından anlamlıdır. Konuşmacı daha sonra koşullu olasılığı ve bunun, a ve b'nin olasılığının B'ye bölünmesine eşit olan belirli bir b'nin olasılığı olarak nasıl tanımlandığını açıklar. orijinal evrenin bir parçası.

  • 00:25:00 Bu bölümde konuşmacı, olasılık uzayını üç parçaya ayırma fikrini tanıtıyor ve a, b ve c olasılıklarının nasıl belirlenebileceğini açıklıyor. Formülü genişleterek, her şeyin böyle olma olasılığı, üç koşullu olasılığın bir ürününe bölünür. Konuşmacı daha sonra bu fikri, bir grup şeyin olasılığının koşullu olasılıkların bir ürünü olarak yazılabileceğini belirten zincir kuralına genelleştirir. Konuşmacı diyagramının sadece yarısında olmasına rağmen, iyi bir ilerleme kaydettiğini gösteriyor. Tartıştıkları bir sonraki kavram, koşullu olasılık fikridir.

  • 00:30:00 Bu bölümde profesör bağımsızlık ve koşullu bağımsızlığın tanımını açıklıyor. Bağımsızlık, a'nın olasılığının b'de olup bitenlere bağlı olmadığı zamandır. Örneğin, a ve b bağımsızsa, o zaman belirli bir b, a'ya eşittir. Koşullu bağımsızlık, dünya z'de olmakla sınırlıysa, o zaman a'nın olasılığının b'nin değerine bağlı olmadığı anlamına gelir. Profesör, olasılıkları belirtmek için diyagram alanlarını kullanarak sezgici diyagramları kullanarak bu kavramları gösterir.

  • 00:35:00 Bu bölümde, öğretim görevlisi olasılıksal çıkarımda koşullu bağımsızlığı ve değişkenlerin ortak olasılıklarının çıkarımını nasıl sağladığını tartışır. Bir rakuna veya hırsıza havlayan bir köpek örneğini kullanarak kavramı ve iki değişken daha eklemenin nasıl büyük bir ortak olasılık tablosu ihtiyacına yol açtığını açıklıyor. Daha sonra değişkenler arasındaki nedenselliği temsil etmenin bir yolu olarak inanç ağları fikrini ortaya atıyor ve her düğümün soyundan olmayan değişkenlerinden bağımsız olduğunu doğru bir şekilde ifade etme ihtiyacını vurguluyor.

  • 00:40:00 Bu bölümde konuşmacı, onların soyundan olmayanların ebeveynlerine verilen bağımsızlık kavramını ve bu dili olasılıksal çıkarımda anlamanın önemini tartışıyor. Konuşmacı daha sonra rakun gibi diğer faktörlerin varlığına dayalı olarak hırsızın ortaya çıkması veya köpeğin havlaması gibi çeşitli olayların olasılıklarını belirlemek için bir model oluşturur. Konuşmacı, modeli belirtmek için yalnızca 10 sayının gerekli olduğunu, bunun da hemen bir ortak olasılık tablosu oluşturmaya kıyasla önemli ölçüde tasarruf sağladığını belirtiyor.

  • 00:45:00 Bu bölümde konuşmacı, tam ortak olasılık tablosunun hesaplanmasında zincir kuralının kullanımını tartışıyor. Koşullu bağımsızlık bilgisini kullanarak, bir sonrakine bağlı olmadıkları için belirli olasılıkları formülden nasıl çıkarabildiklerini açıklarlar. Formülü belirli bir şekilde düzenleyerek konuşmacı, sayıları oluşturmadan veya çok fazla ölçüm yapmadan tam ortak olasılık tablosunu hesaplayabilir. Konuşmacı, bu özel durumda, 32 sayının yalnızca 10'unu tasarlamaları gerektiğini belirtiyor ve daha fazla mülk olsaydı ne kadar tasarruf sağlanacağını soruyor.
21. Probabilistic Inference I
21. Probabilistic Inference I
  • 2014.01.10
  • www.youtube.com
* Please note: Lecture 20, which focuses on the AI business, is not available.MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://oc...
 

Ders 22. Olasılıksal Çıkarım II



22. Olasılıksal Çıkarım II

Bu videoda Profesör Patrick Winston, olasılıksal çıkarımlar yapmak için "Bayes Ağları" olarak da bilinen çıkarım ağlarının nasıl kullanılacağını açıklıyor. Tüm değişkenlerin ortak olasılığını hesaplamak için zincir kuralını kullanarak bir Bayes ağında değişkenlerin nasıl sıralanacağını tartışıyor. Konuşmacı, simülasyonlar çalıştırarak olasılıkların nasıl biriktirileceğini ve bir model kullanarak olasılıkların nasıl üretileceğini gösterir. Ayrıca Bayes kuralını ve onun sınıflandırma problemlerini çözmek, modelleri seçmek ve yapıları keşfetmek için nasıl kullanılabileceğini tartışıyor. Video, tıbbi teşhis, yalan tespiti ve ekipman sorun giderme gibi çeşitli alanlarda olasılıksal çıkarımın yararlılığını vurgulamaktadır.

  • 00:00:00 Bu bölümde Profesör Patrick Winston, "Bayes Ağları" olarak da bilinen ve olasılıksal bir çıkarım yapmak için kullanılan çıkarım ağlarının kullanımını tartışıyor. Uygun kutulara tıklayarak bir olasılığa karar vermek için kullanılabilecek ortak olasılık tablosunu gözden geçirerek başlar, ancak sorun şu ki, çok sayıda değişken söz konusu olduğunda sayıları oluşturmak veya toplamak zor ve zaman alıcı hale gelir. Olayların birlikte olma olasılığını elde etmek için hesaplamalar yapmak için çıkarım ağlarını kullanmaya devam ediyor. Burada zincir kuralı kullanılır ve bu bölüm bu kuralın açıklanmasıyla sonlandırılır.

  • 00:05:00 Bu bölümde, konuşmacı bir Bayes ağındaki değişkenleri sıralama sürecinden ve bunun tüm değişkenlerin ortak olasılığını hesaplamak için zincir kuralıyla nasıl kullanılabileceğinden bahsediyor. Değişkenleri, soyundan gelenlerin hiçbiri solunda doğrusal bir düzende görünmeyecek şekilde düzenleyerek ve zincir kuralını kullanarak, bu değişkenlerin herhangi bir özel kombinasyonunun olasılığını hesaplayabilir. Bu senaryodaki tüm koşullu olasılıkların soyundan gelmediğini ve bağımlılıklara dayalı değişkenleri çizmenin tablodaki herhangi bir girişi hesaplamaya yardımcı olabileceğini iddia ediyor.

  • 00:10:00 Bu bölümde, konuşmacı bir masa ile yapılabilecek her şeyi yapmak için küçük bir ağın nasıl kullanılacağını ve bunu başarmak için gereken olasılıkları açıklıyor. Köpeğin havlaması veya B olayının olasılığını hesaplamak için gereken sayıları takip etmek için tabloları nasıl genişlettiğini tartışıyor ve tablonun ilgili bölümlerinde onay işaretleri veya çeteleler vermek için deneysel sonuçları kullanıyor ve sonunda bir gösterime yol açıyor. süreç.

  • 00:15:00 Videonun bu bölümünde profesör, simülasyonlar çalıştırarak bir ağın olasılıklarının nasıl toplanacağını göstererek başlıyor. Tabloyu nasıl yorumlayacağınızı ve belirli bir kombinasyonun ne sıklıkta göründüğü konusunda veri öğelerinin size söylediklerini nasıl takip edeceğinizi açıklıyor. Daha doğru olasılıklar elde etmek için birden fazla simülasyon çalıştırıyor. Daha sonra, en iyi olasılık tablolarında ileri geri gidip yazı tura atarak tüm değişkenler için bir değerler kombinasyonu üreten sistemin nasıl simüle edileceğini gösterir.

  • 00:20:00 Bu bölümde, konuşmacı bir olasılık tablosunda uygun satırı seçerek bir senaryo için olasılık üretme sürecini tartışır. Konuşmacı daha sonra, bu olasılıkların, sağdaki olasılıkları hesaplamak için veri üretmek için kullanılabilen soldaki bir model kullanılarak nasıl üretilebileceğini açıklamaya devam eder. Ancak konuşmacı, belirli bir senaryo için birden fazla doğru model olabileceğini kabul eder ve bu da hangisinin doğru olduğunu belirlemeyi zorlaştırır. Bu konuyu ele almak için konuşmacı, koşullu olasılıkları Bayes teoremini kullanarak hesaplamalarına izin verecek şekilde yeniden yazmayı içeren saf Bayesci çıkarım kavramını tanıtıyor.

  • 00:25:00 Bu bölümde video Bayes kuralının bir sınıflandırma problemini çözmek için nasıl kullanılabileceğini açıklıyor. Örneğin, bir hastalığın teşhisinde, kanıtın verildiği hastalığın olasılığı, kanıtın hastalığa verildiği olasılığının kanıtın genel olasılığına bölünmesi ve ardından bu sayının verilen hastalığın önceki olasılığıyla çarpılmasıyla hesaplanabilir. Birden çok bağımsız kanıt parçası mevcutsa, belirli bir hastalık için ortak kanıt olasılığının genel kanıt olasılığına bölümü hesaplanabilir ve ardından ilgili tüm sınıfların olasılıkları karşılaştırılabilir.

  • 00:30:00 Bu bölümde öğretim görevlisi, biri 0,8 tura olasılığıyla önyargılı ve biri 0,5 tura olasılığıyla adil olan iki madeni para seçmeyle ilgili bir hikaye anlatıyor. Yazı tura attıktan sonra öğretim görevlisi, önceki olasılıklara ve atışlardan elde edilen kanıtlara dayanarak hangi yazı turanın seçildiğini bulmak için Bayes olasılığını kullanır. Ders, olasılıkçı çıkarımda farklı hipotezlerin olasılığını belirlemek için kanıtların nasıl kullanılabileceğini gösterir.

  • 00:35:00 Bu bölümde, profesör farklı madeni paraların olasılıklarının bir dizi atışla nasıl değiştiğini ve kanıtların üstünlüğünün tura gelme olasılığını nasıl değiştirebileceğini gösteriyor. Büyük Sayılar Yasası devreye girer ve seçilen madeni paranın oyunda olma olasılığı giderek 1'e yaklaşır. Profesör daha sonra bu kavramı, bir çocuğun siyasi partisine bakarak ve hakkında çıkarımlar yaparak bir ebeveyn partisi sınıflandırıcısı oluşturmak için kullanır. ebeveynin ait olduğu parti. Genel olarak, olasılıksal çıkarım kavramı, tahminlerde bulunmak ve sonuçlar çıkarmak için çeşitli senaryolarda uygulanabilir.

  • 00:40:00 Videonun bu bölümünde, konuşmacı iki modeli karşılaştırmak ve verilere dayalı olarak en iyisini seçmek için Bayesian hack'ini kullanmayı tartışıyor. Süreç, bir modelden çizimlerin simüle edilmesini ve veriler verilen her bir modelin olasılığının hesaplanmasını içerir. Konuşmacı daha sonra, bağlantılı değişkenler olmadan başladıkları ve tercih edileni bulana kadar modelleri değiştirmek ve karşılaştırmak için rastgele bir arama kullandıkları yapı keşfine geçer. Bu işlem, 32 bitlik bir makinede bilgi kaybını önlemek için ürün yerine olasılıkların logaritmalarının toplamının kullanılmasını gerektirir. Bununla birlikte, geniş alan ve yerel maksimumlar nedeniyle optimal yapı arayışı zor olabilir.

  • 00:45:00 Bu bölümde konuşmacı, tıbbi teşhis, yalan tespiti ve ekipman sorun giderme gibi çeşitli alanlarda olasılıksal çıkarım ve yapı keşfinin yararlılığını tartışıyor. Bilginin sınırlı olduğu durumlarda olasılıksal hesaplamaların ne kadar doğru bir yaklaşım olduğunu ve gözlemlenen semptomlara dayanarak bir sorunun en olası nedenini belirlemek için bu yöntemin nasıl kullanılabileceğini açıklıyor. Konuşmacı ayrıca, bu yöntemin kalıpları ve hikayeleri keşfetmek için nasıl kullanılabileceğine dair gelecekteki tartışmalara da ipucu veriyor.
22. Probabilistic Inference II
22. Probabilistic Inference II
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWe begin with a review of inferen...
 

Anlatım 23. Model Birleştirme, Modlar Arası Eşleştirme, Ders Özeti



23. Model Birleştirme, Modlar Arası Eşleştirme, Ders Özeti

Bu videoda, Profesör Patrick Winston model birleştirme, modlar arası eşleştirme hakkında konuşuyor ve ders materyali üzerine düşünüyor. Bayesci olasılığa fazla takılmadan düzenliliği keşfetmenin önemini ve çevremizdeki dünyayı anlamak için modlar arası eşleşmenin potansiyel faydalarını tartışıyor. Ayrıca gelecekteki kurslar için önerilerde bulunuyor ve yalnızca insanların yerini almayı hedeflemek yerine, birlikte çalışan insanlarla ve bilgisayarlarla yeni gelirler ve yetenekler elde etmeye odaklanmanın önemini vurguluyor. Ek olarak, önce sorunu belirlemenin ve sorunu ele almak için uygun metodolojiyi seçmenin önemini vurguluyor. Son olarak profesör, zekayı tekrarlanabilir, yapay bir modele indirgemenin sınırlamaları üzerine düşünür ve ekibinin olağanüstü çalışmasını vurgular.

  • 00:00:00 Bu bölümde, Patrick Winston model birleştirme ve modlar arası eşleştirme hakkında konuşuyor. İki hikayedeki olayları keşfetmek ve bunları iki hikaye grafiğinde birleştirmek gibi, başka türlü bulamayacağınız durumlarda yapının nasıl keşfedileceğini göstererek Bayesci hikaye birleştirme fikrini gösteriyor. Verimlilik için makine öğrenimi ve bulut bilişimi kullanan çeşitli düzeylerde kavramları keşfetme kapasitesinden de bahsediyor. Son olarak, zebra ispinozu şarkılarına katkıda bulunan her iki modaliteyi de sıralamak için birden fazla modalite ve aralarındaki yazışmaları kullanan Michael Coen'in programını sergiliyor.

  • 00:05:00 Bu bölümde, modlar arası bağlaşım kavramı, ünlü sesleri üreten jestleri seslerin kendileriyle ilişkilendirme örneği üzerinden açıklanmaktadır. Bir ünlünün Fourier dönüşümü formantlar üretir ve ağzın etrafındaki bir elips ikinci modaliteyi oluşturur. Modlar arası eşleme verileriyle, herhangi bir işaretlenmiş veri olmaksızın sesleri kümelemek ve dudak formlarını seslerle ilişkilendirmek mümkündür. Coen'in çalışmasının bir gösterimi, bir metriğin bileşenleri olarak projeksiyonlar ve vektörler kullanılarak kümelerin nasıl oluşturulabileceğini gösterir.

  • 00:10:00 Bu bölümde konuşmacı, modlar arası bağlantı kavramını ve bize sunulan dünyayı anlamamıza nasıl yardımcı olabileceğini tartışıyor. Bayes olasılığıyla takıntılı bir şekilde ilgilenmeden düzenliliği keşfetmenin mümkün olduğunu ve bu tür bir eşleştirme fikrinin muhtemelen etrafımızdaki dünya anlayışımıza bağlı olduğunu öne sürüyor. Konuşmacı ayrıca, yapay zeka için karmaşık uygulamalar yaratmada hem mühendislik hem de bilimsel bakış açılarının önemini vurgulayarak dersin materyalini özetler. Ayrıca, yalnızca insanların yerini almayı hedeflemek yerine, birlikte çalışan insanlarla ve bilgisayarlarla yeni gelir ve yetenekler elde etmeye odaklanma ihtiyacına da dikkat çekiyor.

  • 00:15:00 Bu bölümde konuşmacı, programlamanın modeller oluşturmak ve deneyler yapmak için sunduğu benzersiz avantajları tartışıyor. Spesifik olarak, programlama, metaforlar ve bu modellerin sonuçlarını test etmek için deneylere izin veren modeller oluşturma yeteneği sağlar. Konuşmacı ayrıca, mekanizma kıskançlığına kapılıp belirli yöntemlere odaklanmak yerine, önce sorunu tanımlamanın ve ardından uygun metodolojiyi veya kullanılacak makineyi seçmenin önemini vurgular. Son olarak, konuşmacı sınav formatını kısaca gözden geçirir ve öğrencilere bir saat ve hesap makinesi getirme ve sınav sırasında kostüm giyme esnekliği gibi birkaç hatırlatma sunar.

  • 00:20:00 Bu bölümde profesör, Marvin Minsky'nin konusu, Society of Mind veya Bob Berwick'in Dil Anlayışı ve Evrimi konuları veya Gerry Sussman'ın Büyük Ölçekli Sembolik Sistem konusu dahil olmak üzere önümüzdeki dönem ne yapılması gerektiğine dair bazı önerilerde bulunuyor. Ayrıca kendi bahar kursu olan Human Intelligence Enterprise'ı tanıtıyor. Profesör, dersini bir beşeri bilimler dersi olarak tanımlıyor ve dersleri yok, daha çok onunla bir sohbet. Paketleme ve çeşitli istihbarat sistemlerinde bulunan ortak unsurlar gibi kursta işlenen bazı konuları tartışıyor.

  • 00:25:00 Bu bölümde konuşmacı, paketlemenin önemini ve kariyer yolu ne olursa olsun birinin başarısında nasıl fark yaratabileceğini tartışıyor. Konuşmacı, "Nasıl Konuşulur" dersi adı verilen ve bir kişinin ne zaman espri yapılacağı veya nasıl anlatılacağı gibi ipuçları sunarak birinin sunum yapma, ders verme ve iş görüşmeleri yapma becerisini önemli ölçüde etkileyebilecek doğrusal olmayan bir ders olan bir olaydan bahseder. bir sunum açmak için Ayrıca konuşmacı, gruplarının olası bir hastalığın başlangıcını tespit edebilen alanlara geçmek üzere olan Genesis sisteminden bahsediyor.

  • 00:30:00 Bu bölümde, bir sistemin bir hikayeyi birden fazla perspektiften nasıl okuyup anlayabileceği canlı bir gösteriyle gösterilir, bu da potansiyel sorunların tespitine ve felaketleri önlemek için müdahaleye olanak tanır. Farklı eğitim geçmişlerine sahip iki kişi, hikayede açıkça olanı tanımlar ve diğer kavramları gri renkte çıkarır. Eşsiz geçmişleri nedeniyle, hikaye hakkında farklı bakış açılarına sahipler ve hatta birbirleriyle müzakere edebilir, başka alanları öğretebilir ve felaketleri gerçekleşmeden önce önleyebilirler. Sistem aynı zamanda potansiyel intikam operasyonlarını ve Pyrrhic zaferlerini tespit ederek potansiyel sorunları tahmin etme ve müdahale etme yeteneğini gösteriyor.

  • 00:35:00 Bu bölümde, hikayeleri birden çok düzeyde anlayarak bilgi almak için anahtar kelime sayıları yerine kavram vektörlerini kullanmayı öğreniyoruz. Propagator mimarisi, bireylerin işlerinde aşırıya kaçmalarını önlemek için kullanılır ve MIT grubuna öğrenci katılımı övülür. Daha ileri lisansüstü programlara gelince, kişi kimin altında çıraklık yapmak istediğini düşünmeli ve alandaki ufkunu genişletmek için yapay zeka gibi farklı bir odak noktası olan bir program bulmalıdır.

  • 00:40:00 Bu bölümde Profesör Winston, teorik fizik ve yapay zeka alanında yüksek lisansa başvuran öğrencilere tavsiyelerde bulunarak yapay zeka için saha ziyaretlerinin, yapay zeka içinse belirli bir alana odaklanmanın önemini vurguluyor. Ayrıca, bir bilgisayar görüşü araştırmacısının nesne tanıma konusundaki uzmanlığı nedeniyle karısını tanıyamadığı yapay zeka kariyer seçimine ilişkin kusur teorisinin aşırı bir durumu hakkında bir anekdot paylaşıyor. Son olarak, Profesör Winston, bilgisayar bilimindeki güçlü fikirlerin kullanışlılığı ve basitliği üzerine düşünüyor ve dili anlamanın mutlaka gerçek zeka gerektirmeyebileceği argümanını ele alıyor.

  • 00:45:00 Bu bölümde konuşmacı, zekayı yapay olarak kopyalanabilen bir şeye indirgemenin sınırlamalarından bahsediyor. Evcil rakununu, aynı derecede zeki bir makine inşa etme beklentisi olmayan, oldukça zeki bir hayvan örneği olarak kullanıyor. Yapay zekanın imkansız olduğu fikri genellikle, zaman içinde yürütülen çalışan bir programdan gelen bilgi ve sihri hesaba katmayan indirgemeci argümanlara dayanır. Konuşmacı ayrıca ekibinin olağanüstü çalışmasını takdir etmek için bir dakikanızı ayırır ve öğrencilere final sınavlarında başarılar diler.
23. Model Merging, Cross-Modal Coupling, Course Summary
23. Model Merging, Cross-Modal Coupling, Course Summary
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonThis lecture begins with a brief ...
 

Mega-R1. Kural Tabanlı Sistemler



Mega-R1. Kural Tabanlı Sistemler

Bu video, öğrencilerin derslerde ve ezberden okumalarda kapsanan materyallerle çalışmasına yardımcı olmak için öğretici tarzı bir ders olan Mega-Tekrar'a odaklanmaktadır. Video, geriye doğru zincirleme, ileri zincirleme, kurallar için eşitlik bozma sırası ve eşleştirme süreci dahil olmak üzere kural tabanlı sistemlerle ilgili çeşitli konuları kapsar. Geriye doğru zincirleme işlemi, bir kuralın sonucuna bakmayı ve en üst hedefe ulaşmak için gerektiği şekilde öncülleri eklemeyi içerir ve eşitliği bozma ve netleştirme, hedef ağacı için çok önemlidir. Video ayrıca, bir dizi iddia kullanarak ileri zincirleme ve iddialarla eşleştirme kurallarını tartışıyor. Konuşmacı, bir kuralı kullanmadan önce iddiaları kontrol etmenin ve hiçbir işe yaramayan etkisiz kurallardan kaçınmanın önemini vurgular. Eşleştirme işlemi, verilen iddialarla hangi kuralların eşleştiğini belirlemek için geriye doğru zincirleme kullanmayı içerir ve sistem, yeni olup olmadıklarına bakılmaksızın daha düşük numaralı kurallara öncelik verir.

  • 00:00:00 Bu bölümde Mark Seifter , öğrencilerin derslerde ve alıntılarda yer alan materyallerle çalışmasına yardımcı olmak için tasarlanmış öğretici tarzı bir ders olan Mega-Recitation kavramını tanıtıyor. Amaç, öğrencilerin sınıf için çok önemli olan algoritmaları anlamasına ve bunlarla çalışmasına yardımcı olmak ve kısa sınavlarda anladıklarını göstermektir. Odak noktası, geçen seneden birçok öğrencinin çelme taktığı bir sınav problemidir ve Marx, bu hataların tekrar yapılmasını önleme umuduyla onları yakalayan numaraların üzerinden geçer. Son olarak, yazım kuralları için ek ve önek olmak üzere iki gösterim arasındaki farkı ve öğrencilerin neden bunlardan haberdar olmaları gerektiğini açıklıyor.

  • 00:05:00 Bu bölümde, P'lerle etiketlenmiş ve her biri karşılık gelen bir if-then ifadesine sahip altı kuralı öğreniyoruz. İlk kural, eğer X hırslıysa ve X bir kurşun kalem ise, o zaman X'in kötü bir terimi olduğunu belirtir. X veya Y'deki soru işareti bağlanmayı bekleyen bir değişkeni gösterir. Bu değişkenlerin bağlanmasını belirlemek için geriye ve ileriye doğru zincirleme kullanılacaktır. Slytherin zindanında yaşayan Millicent ve Gryffindor Kulesi'nde olan ve Millicent'i etiketleyen Seamus da dahil olmak üzere, birlikte çalışmamız için bize dört iddia verildi. Bir kuralı kullanmadan önce iddiaları kontrol etmenin önemi, geçen yıl bazı insanları şaşırtan bir hata olduğu için vurgulanmıştır.

  • 00:10:00 Bu bölümde sunum yapan kişi geriye zincirleme kavramını açıklar ve ileri zincirleme ile farklarını vurgular. Hipotez üzerinde çalışan geriye zincirlemeci, iddialar listesinde eşleşen bir iddia bulmaya çalışır ve eğer eşleşme yoksa, eşleşen sonuca sahip bir kural bulmaya çalışır. Sunucu, kolay problemlerden örnekler vermeye devam ediyor ve ardından Millicent'in Hermione'nin arkadaşı olduğu gerçek hayattan bir problemi ele alıyor. Örnek boyunca sunum yapan kişi, hedef ağacında eşitliği bozmanın ve belirsizliği gidermenin önemini vurgular.

  • 00:15:00 Bu bölümde video, kural tabanlı sistemlerde geriye doğru zincirleme sürecini tartışıyor. Geriye doğru zincirleme, bir kuralın sonucuna bakmayı ve en üst hedefe ulaşmak için gerektiği şekilde öncülleri eklemeyi içerir. Video, diğer kuralları kontrol etmeden önce, sonucunda mevcut amacı olan bir şeyi aramanın ve iddialarda aramanın önemini vurgulamaktadır. Süreç, sol düğümden başlayarak ve herhangi bir çocuk varsa aşağı doğru hareket eden ve mevcut hedefle eşleşen bir kural arayan bir derinlik aramasını içerir. Video ayrıca, alt kısmında veya düğümü olan bir uç düğüm gibi düğümlerin hedef ağaca doğru şekilde nasıl ekleneceğini açıklar.

  • 00:20:00 Bu bölümde konuşmacı, Millicent'in bir kahraman mı yoksa kötü adam mı olduğunu belirlemek için bir ağaç diyagramı kullanırken derinlemesine aramayı tartışıyor ve sonunda onun bir kötü adam olduğunu kanıtlamaya çalışıyor. Önce sol kolu takip ederler ve Millicent'in bir kahraman olup olmadığına dair bir kural bulmaya çalışırlar. Kriterleriyle eşleşen herhangi bir kural olmadığı için, "veya" düğümüne geri dönerler ve Millicent'in bir kötü adam olduğuna geri dönerler. İddialarda olmamasına rağmen, sonucu olarak bununla ilgili bir kural var mı diye dalı takip ederler. Sonunda, Millicent'in bir kötü adam olduğunu ancak nihai cevabı bulmaya devam etmeleri gerektiğini belirten bir kural bulurlar.

  • 00:25:00 Bu bölümde, konuşmacı geriye zincirlemecinin tek düşünceye odaklanmasını ve diğer iddialar veya öncüllerle ilgilenmemesini açıklıyor. Geri zincirleme, yalnızca Millicent'in bir kötü adam olma olasılığını kanıtlamayı amaçlar ve Millicent'in hırslı olması gibi diğer sonuçları umursamaz. Bunun gereksiz hesaplamalara yol açabileceği, ancak sistemi kodlamanın basit ve verimli bir yolu olduğu belirtilmektedir. Hash tablosunun potansiyel kullanımı tartışıldı, ancak ekstra çabaya değmeyebileceği sonucuna varıldı.

  • 00:30:00 Bu bölümde sınıf, kural tabanlı sistemin çalışma hızını artırmak için bir hash tablosu uygulamayı tartışıyor. Ancak, tablodaki iddiaların ateşlenme sırasını kaybettiği ve bazı kuralların bu iddiaların sırasına bağlı olduğu için bu yaklaşımla ilgili bazı potansiyel sorunlar vardır. Ders ayrıca, daha önce iddia edilenin aksini belirten bir iddia olduğunda kural çözümü ve bu sorunun nasıl çözüleceği hakkında kalabalıktan gelen bir soruyu ele alır. Sınıf, bu nedenle kısa sınavlarda silme ifadelerinin olmadığı ve iddialar eklemedikleri, bunun yerine kanıtlanana veya aksi kanıtlanana kadar hedef ağacındaki her şeyi kontrol ettikleri sonucuna varır.

  • 00:35:00 Bu bölümde, konuşmacı, ana karakter olan Millicent örneğinin geri kalan kısımlarını ve onun Hermione'nin arkadaşı olup olmayacağını belirlemek için kural tabanlı sistemlerin nasıl kullanılacağını hızla anlatıyor. Bu, bir kuralın sonucuyla eşleşen bir iddia eklemeden Millicent'in Hermione'nin arkadaşı olması için gereken minimum ek iddia sayısını belirlemek gibi birkaç soruyu yanıtlamayı içerir. Bu bölüm ayrıca, iddia eklenmesi nedeniyle ortaya çıkan nadir bir durumu ve çelişkili bir iddiayı kaldırarak düzeltme ihtiyacını da kapsar. Son olarak, geriye dönük zincirlemeye kısaca değinilir ve konuşmacı dinleyicilerden, Millicent'in kötü bir terime sahip olup olmadığını belirlemenin amaçlandığı değişken bağlama ile ilgili bir sorunu çözmelerini ister.

  • 00:40:00 Bu bölümde anlatıcı, yeni iddialar geldikçe eklemeyi içeren ileri zincirlemeyi ve kurallar için eşitlik bozma sırasını tartışır. Kurallar için eşitlik bozma sırası 0'dan 5'e kadardır ve aynı kural birden çok farklı iddiayla tetiklenebiliyorsa, kurallar sayısal sırada kullanılır. Anlatıcı, bir dizi iddia kullanarak kuralları iddialarla nasıl eşleştireceğini ve birinin bir kuralı nasıl ateşleyeceğini gösterir. Anlatıcı ayrıca bize güçsüz kuralların veya hiçbir şey yapmayan kuralların kovulmaması gerektiğini, bunun yerine sırayla bir sonraki kurala geçilmesi gerektiğini söyler. Son olarak anlatıcı, kuralları ve iddiaları nasıl eşleştirdiklerini ve nasıl yeni iddialar eklediklerini açıklar.

  • 00:45:00 Videonun bu bölümünde, konuşmacı kural tabanlı sistemler için eşleştirme sürecini tartışıyor. Verilen örnek, numaralandırılmış kuralları ve iddiaları olan bir kısa sınav sorusudur. Sistem, verilen iddialarla hangi kuralların eşleştiğini belirlemek için geriye doğru zincirleme kullanır ve bu durumda yalnızca 1, 2, 3 ve 5 numaralı kurallar eşleşir. Konuşmacı ayrıca, daha düşük kural numarasına sahip yeni iddiaların önce işlenmesi gerekip gerekmediğine dair bir soruyu yanıtlayarak, sistemin yeni olup olmadığına bakılmaksızın daha düşük numaralı kurallara öncelik vereceğini açıklar.
Mega-R1. Rule-Based Systems
Mega-R1. Rule-Based Systems
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterIn this mega-recitation, we cover Pr...
 

Mega-R2. Temel Arama, Optimal Arama



Mega-R2. Temel Arama, Optimal Arama

Bu YouTube videosu, önce derinlik araması, genişlik önceliği araması, optimum arama ve A* algoritması dahil olmak üzere çeşitli arama algoritmalarını ve tekniklerini kapsar. Video, bu kavramları göstermek için yeni bir kale arayan Kötü Derebeyi Mark Vader'ın eğlenceli bir örneğini kullanıyor. Sunucu, grafik aramada kabul edilebilirlik ve tutarlılığın önemini vurgular ve düğümlerin yeniden değerlendirilmesini önlemek için genişletilmiş listelerin kullanımını açıklar. Video, izleyicilerden gelen yaygın hatalara ve sorulara değiniyor ve izleyicileri daha fazla soru sormaya teşvik ediyor. Genel olarak, video bu arama algoritmalarına ve tekniklerine kapsamlı bir giriş sağlar.

  • 00:00:00 Bu bölümde video, Kötü Derebeyi Mark Vader'ın sınıfta öğrendiği arama başlatma tekniklerini kullanarak yeni bir kale arama sorununu tanıtıyor. Vader, mevcut kalesi olan Derinlik öncelikli arama yıldızından başlar ve hiçbir zayıflığı olmayan ve köleleştirilmiş minyonlar, lazer ışınlı köpek balıkları ve harika bir kaçış yolu gibi arzu edilen tüm özelliklere sahip olan 6:03 kalesine ulaşmak ister. Video, kenarların yalnızca tek bir özellikle farklılık gösteren kalelerle birleştiği keşif seçeneklerinin bir grafiğini sunar ve izleyicilere arama yapmak için güvenilir ancak daha yavaş yaklaşım ve hızlı ancak hataya daha yatkın yaklaşım dahil olmak üzere çeşitli yöntemler sunulur.

  • 00:05:00 Bu bölümde, video sunucusu derinlik öncelikli aramayı çözmek için farklı yaklaşımları tartışıyor. Çok hızlı bir yaklaşım olsa da, hatalara daha yatkındır ve tipik olarak kullanılmaz. Bunun yerine sunum yapan kişi, hedef ağacını kullanmayı ve başlangıç düğümünden başlayıp hedef düğümde bitirmeyi önerir; bu, tüm gündemi çizmekten biraz daha hızlıdır. Sunucu ayrıca sözlükbilim kavramını ve bir arama sırasında bağları koparmak için nasıl kullanıldığını alfabetik sırayla açıklar. Ek olarak video, bir sistemde kuralları uygularken sık yapılan bir hata olan kendi kuyruğunuzu ısırmamanız konusunda uyarıda bulunur. Son olarak sunum yapan kişi, hatalara yol açabileceğinden, aynı düğümün aynı yol içinde iki kez görünmemesinin önemini vurgular.

  • 00:10:00 Bu bölümde, konuşmacı bir sıra yerine hedef ağacı kullanarak derinlik öncelikli aramayla ilgili bir sorunun nasıl çözüleceğini açıklıyor. Düğümlerden başlarlar ve izleyicilerden o düğümdeki seçimleri anlamaları için yardım isterler. Konuşmacı, bağlantıyı kontrol etmenin ve talimatları okumanın önemini vurgular. Bir sonraki düğüme gideceklerine karar vermek ve bir çıkmaza girdiklerinde geri adım atmak için sözlükbilimsel eşitlik bozma kullanıyorlar. Ayrıca, geri izlemeleri iki kez sayma hatasına karşı uyarıda bulunurlar ve seyirciye kaç kez geriye gittiklerine dikkat etmelerini hatırlatırlar.

  • 00:15:00 Bu bölümde konuşmacı, çözümü bulmak için gereken adım sayısını etkileyebileceğinden, bir arama yürütürken algoritmanın önemini açıklıyor. Ayrıca geri izleme tekniğini tartışıyorlar ve arama sırasında bunun nasıl takip edileceği konusunda tavsiyelerde bulunuyorlar. Konuşmacı daha sonra derinlik öncelikli aramanın nasıl gerçekleştirileceğini göstermek için devam eder ve genişlik öncelikli arama sorusunu çözmenin hızlı bir yolunu önerir. Genişlik öncelikli arama sırasında bulunan yolun en az atlama sayısına sahip olduğunun garanti edildiğini vurgularlar ve grafiği soldan sağa seviye seviye genişletme talimatı verirler. Son olarak konuşmacı, genişlik öncelikli aramada tip-sıra sırasının kullanımına açıklık getirir.

  • 00:20:00 Bu bölümde konuşmacı videoda kullanılan arama algoritması için sıradaki yolların sıralanmamasının önemini vurgulamaktadır. En iyi ilk aramanın yalnızca bir düğüme ulaştığında bağları koparacağını ve her zaman her şeyi kuyruğun sonuna eklediklerini, bunun da geri adım atmak zorunda olmadıkları anlamına geldiğini açıklıyorlar. Ayrıca, grafik düzeninin aramada bir rol oynamasına rağmen, bunu yalnızca çok ince ve sinsi bir şekilde yaptığından bahsediyorlar. Son olarak, programın önceden ziyaret ettiği düğümleri yeniden değerlendirmesini önlemek için kullanılabilecek genişletilmiş bir liste ile genişlik öncelikli arama olasılığını tartışıyorlar.

  • 00:25:00 Videonun bu bölümünde konuşmacı, Mark'ın evrenler arasında değişen enerji maliyetleriyle mevcut evreninden hedef evrenine giden en kısa yolu bulmaya çalışmasının bir örneğini kullanarak optimal aramayı tartışıyor. Grafik, her bir düğüme verilen mesafeleri ve buluşsal değerleri içerir ve konuşmacı, algoritmanın, her bir düğüme ulaşmanın gerçek maliyetini de göz önünde bulundurarak aramayı hedef düğüme yönlendirmek için buluşsal değerleri kullanacağını açıklar. Kullanılan algoritma, düğümleri en düşük kombine gerçek ve buluşsal maliyetle genişleten A-yıldız algoritmasıdır. Konuşmacı ayrıca, aramanın tekrarını önlemek için genişletilmiş bir liste kullanmanın önemini açıklar ve düğümlerin aramaya eklenme sırası ile ilgili bir soruyu ele alır.

  • 00:30:00 Bu bölümde Mark, kendisini çok fazla enerji kullanmadan hedefe ulaştıracak en kısa sayıda evren atlamasını programlama konseptini tanıtıyor. Tıpkı bir peynirli pizzaya benzeyen basit dal-sınırlı aramasını, A-yıldızlı aramanın ise ekstra soslu et severlerin pizzasına benzediğini açıklıyor. Ancak birbirlerini etkileyebilirler, bu nedenle mevcut en kısa yolu seçmek çok önemlidir. Örnekte, bilgisayar C düğümünü genişletilmiş listeye ekler ve onu uzunluğu 0 olan tek yol olarak işaretler. SB'nin uzunluğu 3'tür ve yol maliyeti 103'tür, f ise maliyeti 4'tür. 14. Sözlük sırasına göre eşitlik bozucular göz ardı edilmesine rağmen, en kısa yol seçilir ve B harcandıktan sonra 4 uzunluğunda D'ye gider ve bu nedenle G'ye giden güncel yol uzunluğu 7'dir.

  • 00:35:00 Bu bölümde konuşmacı S, B, F ve D yollarını genişleterek en uygun arama algoritmasıyla devam eder. Daha sonra E yolu H ve A'ya uzatılır ve en kısa yolun SFHIG olduğu bulunur. . Konuşmacı ayrıca A-star'ın daha verimli bir arama algoritması olarak kullanılmasından bahsediyor ve dinleyicilerin genişletilmiş listede bulunan düğümleri genişletmekle ilgili sorularını yanıtlıyor. Yolun C ve D'ye bağlanıp bağlanmadığına dair başlangıçtaki bazı kafa karışıklıklarına rağmen, sonunda doğru cevaba ulaşılır.

  • 00:40:00 Bu bölümde, konuşmacı önceki bölümde yapılan ve bazı düğümlerin oluşturulan son ağaçtan çıkarılmasına neden olan bazı hataları tartışır. Düğümün de "e" ye gitmesi gerektiğini ve genişletilmiş listeye girmediği için bir düğümün kaç kez yürütüldüğünü sorsalar fark yaratacağını açıklıyor. Daha sonra A-yıldız algoritmasını ve buluşsal değerlerin hesaplanmasını tartışmaya devam ederler. Listedeki her düğüm için buluşsal değerler eklemenin değil, bunun yerine o ana kadarki yolu nihai buluşsal değere eklemenin önemli olduğu vurgulanmıştır. Ayrıca, "G" düğümünü genişletme kararının bir zevk meselesi ve problem setinde puan kaybetmeyecek bir uygulama detayı olduğunu da açıklıyorlar. Sonunda, A-yıldız aramasını çözerler ve nihai kazanan, 57 değeriyle "D" düğümü olarak belirlenir.

  • 00:45:00 Bu bölümde video, A* adlı bir arama algoritmasını özetler ve bir grafikteki en kısa yolu bulmak için en iyi şekilde nasıl kullanılacağını gösterir. Video, grafiğin her noktasında kabul edilebilir buluşsal yöntemlere sahip olmanın önemini tartışıyor. Kabul edilebilir, ne kadar işin kaldığına ilişkin tahminin her zaman hafife alınmış veya doğru bir tahmin olduğu anlamına gelir. Fazla tahmin edilen bir buluşsal yöntem, algoritmanın gerekenden daha fazla iş yapması gerektiğini düşünmesine neden olur ve önemli düğümleri keşfetmeyebilir. Video aynı zamanda tutarlılıktan bahsediyor, bu da bir grafikteki bitişik düğümler arasındaki mesafenin bu düğümler arasındaki buluşsal yöntemlerdeki farktan daha az olduğu anlamına geliyor. Video, muhtemelen sınavda olacakları için bu kavramları anlamanın önemini vurguluyor.

  • 00:50:00 Bu bölümde konuşmacı, grafik aramada kabul edilebilirlik ve tutarlılık kavramlarını açıklar. Kabul edilebilirlik tutarlılık gibidir, ancak her düğüm ile hedef düğüm arasında tutarlılık gerektirir. Tutarlı olan herhangi bir grafik her zaman kabul edilebilir, ancak kabul edilebilir her grafik tutarlı değildir. Genişletilmiş bir liste, hedef düğüme giden her düğüm için tahminleri kontrol ettiği için kabul edilebilir grafikler üzerinde çalışacaktır. Bununla birlikte, düğümler içindeki tahminler yanlışsa, bunları sıra dışı incelemek, genişletilmiş listeyi kullanmaya karar verirken yapılan varsayımı ihlal eder. Videoda sunulan grafik, bir darboğaz hedef düğümü olacak şekilde ustalıkla hazırlanmış ve I ve H dahil olmak üzere düğümler arasındaki tutarsızlıkları içeriyor ve bunların önemli olan tek tutarsızlıklar olduğu ortaya çıkıyor. Son olarak konuşmacı, izleyicileri bu konu hakkında olabilecek tüm soruları sormaya teşvik eder.
Mega-R2. Basic Search, Optimal Search
Mega-R2. Basic Search, Optimal Search
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterThis mega-recitation covers Problem ...