Makine Öğrenimi ve Sinir Ağları - sayfa 43

 

Python ile Sıfırdan Lojistik Regresyon nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/03%20Logistic%20Regression



Python ile Sıfırdan Lojistik Regresyon nasıl uygulanır?

Video, olasılıklar oluşturmak için sigmoid işlevini ve bir hata işlevi olarak çapraz entropiyi kullanarak, Python ile sıfırdan lojistik regresyonun nasıl uygulanacağını açıklar. Eğitmen, yinelemeler yoluyla tahminleri, gradyanları hesaplamak ve önyargıları güncellemek için adım adım talimatları paylaşır. Ayrıca bir meme kanseri veri setinin nasıl yükleneceğini ve bir tümörün habis mi yoksa selim mi olduğunu tahmin etmek için lojistik regresyon sınıflandırıcısını nasıl eğiteceklerini gösterirler. Video, özel bir işlev kullanılarak modelin doğruluğu değerlendirilerek sona erer. Genel olarak, uygulama başarılıdır ve lojistik regresyon algoritmasının iyi çalıştığını kanıtlar.

  • 00:00:00 Bu bölümde video, lojistik regresyonu ve bunun sigmoid işlevini kullanarak belirli değerler yerine olasılıklar oluşturmayı nasıl içerdiğini tartışıyor. Lojistik regresyon, ortalama hatanın karesini kullanmak yerine, hata işlevi için çapraz entropiyi kullanır. Gradyan inişini kullanmak için, hata fonksiyonunun ağırlık ve yanlılık cinsinden gradyanı hesaplanmalıdır. Öğrenme oranı, gradyan tarafından verilen yöne ne kadar hızlı yaklaşılacağını belirlemek için kullanılır. Test sırasında olasılık hesaplanır ve en yüksek olasılığa göre etiket seçilir. Lojistik regresyonun uygulanması, doğrusal regresyona benzer, ancak ağırlıkların ve yanlılıkların sıfır olarak başlatılmasıyla.

  • 00:05:00 Videonun bu bölümünde eğitmen, sonuçları tahmin etmek için bir sigmoid işlevi kullanarak Python ile lojistik regresyonun nasıl uygulanacağını açıklıyor. Süreç, ağırlıkların ve x değerleri artı yanlılığın çarpımından tahminlerin hesaplanmasını, sonuçları vermek için bunları bir sigmoid işlevine koymayı ve gradyanları hesaplamayı içerir. Eğitmen sapma için gradyanın nasıl hesaplanacağını gösterir ve yinelemeler yoluyla günceller. Bu bölüm ayrıca, olasılığı elde ederek ve tahminlerin değerlerine göre etiketi seçerek lojistik regresyon ile çıkarımın nasıl gerçekleştirileceğini de içerir.

  • 00:10:00 Bu bölümde eğitmen, Python kullanarak lojistik regresyonun sıfırdan nasıl uygulanacağını gösterir. Sigmoid işlevini kullanarak olasılıkların ve sınıf etiketlerinin nasıl hesaplanacağını ve daha iyi sonuçlar elde etmek için öğrenme oranının nasıl ayarlanacağını göstererek süreci adım adım açıklıyorlar. Eğitmen ayrıca Scikit-learn'den bir meme kanseri veri seti yükler ve veri setinin özelliklerine dayalı olarak bir tümörün kötü huylu mu yoksa iyi huylu mu olduğunu tahmin etmesi için lojistik regresyon sınıflandırıcısını eğitir. Son olarak, algoritmanın doğruluğunu değerlendirirler ve özel bir işlev kullanarak nasıl hesaplanacağını gösterirler. Genel olarak, uygulama başarılı ve ev yapımı algoritmanın oldukça iyi çalıştığını gösteriyor.
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/03 Logistic Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python ile Karar Ağaçları sıfırdan nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/04%20Decision%20Trees



Python ile Karar Ağaçları sıfırdan nasıl uygulanır?

Video, Python kullanarak sıfırdan bir karar ağacı oluşturmaya ilişkin adım adım bir kılavuz sağlar. Konuşmacı, karar ağaçları kavramını, nasıl çalıştıklarını ve nasıl inşa edildiklerini açıklar. Durdurma kriterlerini, ağaç büyütme fonksiyonunu, "en yaygın etiket", "bilgi kazancı", "entropi" ve "bölünme" yardımcı işlevlerinin yanı sıra tahmin işlevini tartışırlar. Konuşmacı ayrıca bilgi kazancının, ağırlıklı entropinin ve doğruluğun nasıl hesaplanacağını gösterir. Ek olarak, karar ağacı modelini test ederler ve izleyicilere kodun mevcut olduğu GitHub depolarına bir bağlantı sağlarlar.

  • 00:00:00 Bu bölümde karar ağaçlarını, nasıl çalıştıklarını ve nasıl kurulduklarını öğreniyoruz. Karar ağaçları, her veri noktasının 'evet' veya 'hayır'ı temsil eden yaprak düğümlere bölündüğü bir veri setini temsil edecek şekilde oluşturulur. Yaprak düğümler arasındaki düğümlere dallar denir ve veri noktasının doğuda mı yoksa batıda mı olduğunu gösteren özellikler gibi özelliklere göre bölünürler. Bilgi kazancı, ebeveynin entropisi ve çocukların entropisinin ağırlıklı ortalaması olarak hesaplanır ve en önemli bilgi kazanımlarına göre karar ağacı modeli eğitilir. Son olarak, karar ağacının oluşturulmasının ne zaman durdurulacağına karar vermek için kullanılan durdurma kriterlerini ele alıyoruz.

  • 00:05:00 Bu bölümde, konuşmacı, bir düğümün sahip olması gereken maksimum derinlik veya minimum örnek sayısını ayarlamak da dahil olmak üzere tüm olası yaprak düğümleri analiz etmeden önce bir karar ağacını durdurmanın yollarını tartışıyor. Konuşmacı daha sonra karar ağacının uygulanması için kullanılacak iki sınıf sunar: bir Node sınıfı ve bir DecisionTree sınıfı. Düğüm sınıfı, düğümün bölündüğü özellik ve düğümün değeri hakkında bilgi içerir. DecisionTree sınıfı, ağacı x ve y değerleri ile sığdırmak, yeni verileri tahmin etmek ve minimum örnek sayısı ve maksimum derinlik gibi durdurma kriterlerini ayarlamak için yöntemler içerir. Genel olarak, konuşmacı Python'da sıfırdan bir karar ağacının uygulanmasını ana hatlarıyla belirtmek için adım adım bir yaklaşım izliyor.

  • 00:10:00 Bu bölümde konuşmacı, karar ağacını yinelemeli olarak oluşturan ana işlev olan ağaç büyütme işlevinin uygulanmasını tartışır. Fonksiyon, x ve y değerlerini alır ve özellik sayısının gerçek özellik sayısını aşmadığını kontrol eder. İşlev önce durdurma ölçütlerini kontrol eder ve ardından en iyi ayrımı bulmaya, alt düğümler oluşturmaya ve ağaç büyütme işlevini yeniden çağırmaya devam eder. Durdurma ölçütü karşılanırsa, işlev yeni bir yaprak düğüm oluşturur ve bunu value parametresiyle döndürür. Konuşmacı ayrıca, sayaç veri yapısını kullanan ve veri kümesindeki en yaygın etiketi döndüren "en yaygın etiket" adı verilen bir yardımcı işlevi tartışır.

  • 00:15:00 Bu bölümde video, karar ağaçlarının Python ile sıfırdan nasıl uygulanacağını tartışıyor. Eğitmen, yeni bir bölme oluşturmak için en iyi eşiği ve özelliği bulmak üzere bir yardımcı işlevin nasıl oluşturulacağını gösterir. Bu işlev, yeni bir bölme oluşturmayı düşünmek üzere bir özellik grubunu rastgele seçmek için numpy'yi kullanır. Yardımcı işlev tüm olası bölmeler arasında eşiği bulduğunda, o ana kadar hesaplanan en iyi kazançtan daha iyi olup olmadığını belirlemek için bilgi kazancını hesaplar. Son olarak, en iyi bölünmüş dizin ve eşik döndürülür.

  • 00:20:00 Videonun bu bölümünde konuşmacı, bilgi kazancını hesaplamak için "bilgi kazancı" adlı bir yardımcı işlev oluşturur ve ebeveynin entropisini hesaplamak için "entropi" adlı başka bir yardımcı işlevi tanımlar. Ebeveynin entropisinin px çarpı px'in log 2'sinin toplamı olarak hesaplandığını açıklıyorlar ve her bir değerin tekrarını saymak için bir sayısal numara kullanıyorlar ve p'nin x değerini elde etmek için bunu toplam değer sayısına bölüyorlar. . Daha sonra konuşmacı, hangi dizinlerin sola ve hangilerinin sağa gittiğini bulmaya yardımcı olmak için "böl" adı verilen başka bir yardımcı işlev oluşturur ve numpy argwhere'in nasıl çalıştığını gösterir.

  • 00:25:00 Videonun bu bölümünde sunum yapan kişi, Python kullanarak bir karar ağacının alt öğelerinin ağırlıklı entropisinin nasıl hesaplanacağını açıklıyor. y değerlerinin uzunlukları ile sol ve sağ indisler elde edildikten sonra ağırlıklı ortalama formülü kullanılarak çocukların entropisi hesaplanabilir. Bu, her alt düğümdeki örnek sayısının toplam örnek sayısına bölünmesini bulmayı, bunu her düğümün entropisiyle çarpmayı ve ardından çocukların entropisini elde etmek için sonuçları bir araya getirmeyi içerir. Bu bilgilerle, bilgi kazancı daha sonra ana entropi eksi çocuk entropisi alınarak hesaplanabilir ve bu daha sonra tüm karar ağacına geri gönderilir.

  • 00:30:00 Videonun bu bölümünde sunum yapan kişi, karar ağacı sınıflandırıcısı için tahmin işlevinin nasıl uygulanacağını açıklar. Burada traverse_tree yardımcı işlevi, ağacı yinelemeli olarak dolaşmak ve ulaşılırsa yaprak düğümün değerini döndürmek için kullanılır. Özelliğin değeri eşikten küçük veya eşitse, ağacın sol tarafı çapraz geçişe, ağacın sağ tarafı ise aksi yönde geçişe geçilir. Değerler döndürülür ve çıktı alınmadan önce bir numpy dizisine dönüştürülür. Karar ağacı sınıflandırıcısı daha sonra meme kanseri veri seti ile test edilir ve tahmin fonksiyonu, bir doğruluk ölçütüne aktarılan tahminler üretmek için kullanılır.

  • 00:35:00 Bu bölümde sunum yapan kişi, Python kullanarak sıfırdan oluşturdukları karar ağacı modelini test ediyor. Önce tahminleri ve test verilerini kullanarak modelin doğruluğunu hesaplarlar. Ayrıca kodda iki hata bulurlar - biri düğümün başlatılmasında ve diğeri çapraz ağaç işlevinde. Hataları düzelttikten sonra test verilerini tekrar çalıştırırlar ve 0.91 doğruluk elde ederler. Daha sonra modele farklı argümanlar iletirler ve biraz daha iyi doğruluk elde ederler. Son olarak sunum yapan kişi, izleyicileri soru sormaya davet eder ve kodun mevcut olduğu GitHub deposuna bir bağlantı sağlar.
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/04 Decision Trees at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Rastgele Orman Python ile sıfırdan nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/05%20Random%20Forests



Rastgele Orman Python ile sıfırdan nasıl uygulanır?

Bu eğitim videosu, Rastgele Ormanların Python ile sıfırdan nasıl uygulanacağını öğretir. Eğitim sırasında veri kümesinin rastgele bir alt kümesi seçilir ve bu alt küme ile bir karar ağacı oluşturulur. Algoritmaya başlamadan önce belirlenen ağaç sayısı kadar bu işlem tekrarlanır. Çıkarım sırasında, her ağaçtan tahmin elde edilir ve sınıflandırma ise, sınıf etiketinin çoğunluk oyu alınır. Konuşmacı, karar ağaçlarını içine yayarak ve onu bir Numpy dizisine ekleyerek bir liste oluşturarak nasıl uygulanacağını gösterir. Doğruluk, doğru tahmin edilen gerçek değerlerin sayısının gerçek değerlerin toplam sayısına bölünmesiyle hesaplanabilir. Konuşmacı ayrıca, daha yüksek doğruluk elde etmek için ağaç sayısı, maksimum derinlik ve minimum örnek bölünmesinin değiştirilebileceğinden bahseder.

  • 00:00:00 Bu bölümde birçok farklı karar ağacından oluşan rastgele ormanları öğreniyoruz. İşlem, bu ağaçları oluştururken denkleme biraz rastgelelik katmayı içerir. Eğitim sırasında veri kümesinin rastgele bir alt kümesi seçilir ve bu alt küme ile bir karar ağacı oluşturulur. Algoritmaya başlamadan önce belirlenen ağaç sayısı kadar bu işlem tekrarlanır. Çıkarım sırasında her ağaçtan tahmin elde edilir ve bu bir sınıflandırma ise sınıf etiketinin çoğunluk oyu alınır. Gerileme ise, tüm tahminlerin ortalaması hesaplanır. Uygulama, bir önceki derste oluşturulan karar ağaçları sınıfını kullanır ve ağaç sayısı, maksimum derinlik, bölme için minimum örnekler, özellik sayısı ve tüm ağaçları tutacak boş bir dizi belirtilerek başlatılır. bir fit ve tahmin fonksiyonu ve gerekli olan, yukarıda bahsedildiği gibi gerekli parametreleri iletmektir.

  • 00:05:00 Bu bölümde eğitmen, örneklerin bir alt kümesine dayalı olarak bir karar ağacının nasıl sığdırılacağını ve bunun rastgele bir orman modelindeki ağaç listesine nasıl ekleneceğini açıklar. Verilen veri kümesinden değiştirilerek belirli sayıda örneği rasgele seçmek için bir "bootstrap_samples" yardımcı işlevi oluşturulur. Eğitmen daha sonra, rastgele ormandaki tüm ağaçların yinelenmesini ve her bir iç listenin farklı ağaçlardan aynı örnek için tahminler içerdiği bir tahminler listesi döndürmeyi içeren bir X girişi için rastgele ormanın nasıl tahmin edileceğini açıklamaya devam eder. Son olarak eğitmen, listeleri yeniden düzenlemek için numpy'den "ekseni değiştir" işlevini ve en yaygın sınıflandırma etiketini döndürmek için koleksiyon kitaplığından sayaç veri yapısını kullanan "most_common" yardımcı işlevini tanıtır.

  • 00:10:00 Bu bölümde, konuşmacı Python kullanarak sıfırdan bir rastgele orman uygulama sürecini açıklıyor. Tahmin için kullanılacak bir yardımcı fonksiyondan bahsederler ve bir liste oluştururlar, karar ağaçlarını buna yayarlar ve ardından onu tahminler için döndürülecek bir NumPy dizisine eklerler. Doğruluk, doğru tahmin edilen gerçek değerlerin sayısının gerçek değerlerin toplam sayısına bölünmesiyle hesaplanır. Konuşmacı ayrıca, daha yüksek doğruluk elde etmek için ağaç sayısı, maksimum derinlik ve minimum örnek bölünmesinin manipüle edilebileceğinden bahseder. Konuşmacı, izleyicileri GitHub deposundaki koda yönlendirir ve yorum bölümünde soruları memnuniyetle karşılar. Son olarak, konuşmacı eğitimin geri kalan kısmı için Patrick'e teslim eder.
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/05 Random Forests at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python ile sıfırdan Naive Bayes nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/06%20NaiveBayes



Python ile sıfırdan Naive Bayes nasıl uygulanır?

Bu eğitim videosu Python kullanarak Naive Bayes'i sıfırdan uygulamaya odaklanmaktadır. Eğitmen, Bayes teoremine ve bağımsızlık varsayımına genel bir bakış sunar. Algoritmayı eğitmek için gerekli olan önceki olasılığın ve sınıf koşullu olasılığın nasıl hesaplanacağını açıklarlar. Konuşmacı ayrıca olasılıkları modellemenin bir yolu olarak Gauss dağılımını da tanıtıyor. Video, kodlu algoritma için eğitim ve tahmin adımlarını gösterir. Eğitmen, algoritmayı iki sınıflı bir oyuncak veri kümesi üzerinde test ederek %96,5'lik bir doğruluk elde eder. Genel olarak, bu öğretici, Naive Bayes'i öğrenmek ve Python'da uygulamakla ilgilenenler için yararlı bir kaynaktır.

  • 00:00:00 Bu bölümde konuşmacı, sınıf etiketlerini tahmin etmek için özellikler arasında bağımsızlığı varsayan olasılıksal bir sınıflandırıcı olan Naive Bayes'in arkasındaki teoriyi tartışıyor. Bayes teoremini ve bağımsızlık varsayımını ve bunun her sınıfın sonsal olasılığını hesaplamak için nasıl kullanıldığını açıklıyorlar. Konuşmacı, her ikisi de algoritmayı eğitmek için gerekli olan önceki olasılığın ve sınıf koşullu olasılığın nasıl hesaplanacağını açıklamaya devam eder. Ayrıca olasılıkları modellemenin bir yolu olarak Gauss dağılımını da tanıtıyorlar. Eğitim ve tahmin adımları özetlenir ve Naive Bayes'i uygulamak için kod gösterilir. Konuşmacı, hem uyum hem de tahmin yöntemleri için bir tanım sağlar ve her birinde eğitim ve tahmin için gerekli adımları özetler.

  • 00:05:00 Videonun bu bölümünde, eğitmen Naive Bayes'i Python kullanarak sıfırdan nasıl uygulayacağını açıklıyor. Kod, x ve y'nin zaten numpy ve d dizi biçiminde olduğunu varsayar. Eğitmen, x.shape kullanarak x'in nasıl çıkarılacağını ve numpy.unique() kullanarak benzersiz sınıfların sayısının nasıl alınacağını gösterir. Bir sonraki adım, her sınıf için ortalamayı, varyansı ve önceliği hesaplamaktır. Bu, bu değerleri sıfırlarla başlatarak ve ardından numpy işlevlerini kullanarak hesaplayarak gerçekleştirilebilir. Eğitmen daha sonra bir yardımcı işlev ve bir liste kavrayışı kullanarak her sınıf için sonsal olasılığın nasıl hesaplanacağını açıklar. Son olarak eğitmen, tahminin bir sayısal dizi olarak nasıl döndürüleceğini gösterir.

  • 00:10:00 Bu bölümde, konuşmacı Python'da Naive Bayes algoritmasının uygulanmasını tartışıyor. Öncelikleri hesaplama, ardından bir Gauss dağılımı kullanarak sonuncuyu hesaplama ve olasılık yoğunluğu için bir yardımcı fonksiyon oluşturma, ardından en yüksek sonuncuya sahip sınıfı tahmin etme adımlarından geçerler. Son olarak, algoritmayı 1000 örnek ve 10 özellikten oluşan bir oyuncak veri kümesi üzerinde iki sınıfla test ederek %96,5'lik bir doğruluk elde ediyorlar. Konuşmacı, kodun daha fazla araştırılmasını teşvik eder ve bir sonraki dersi dört gözle bekler.
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/06 NaiveBayes at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python ile sıfırdan PCA (Temel Bileşen Analizi) nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/07%20PCA



Python ile sıfırdan PCA (Temel Bileşen Analizi) nasıl uygulanır?

Video, Python ve Numpy kullanarak Temel Bileşen Analizini (PCA) sıfırdan uygulama sürecini açıklar. PCA, bilgilerin çoğunu korurken bir veri kümesinin boyutsallığını azaltan bir tekniktir. Eğitmen, bir veri kümesinde PCA gerçekleştirmek için sığdır ve dönüştür yöntemleriyle bir Python sınıfı oluşturma adımlarını adım adım anlatır. Sığdırma yöntemi önce verilerin ortalamasını ve kovaryansını hesaplar ve özvektörleri ve özdeğerleri çıkarır. Dönüştürme yöntemi daha sonra verileri ana bileşenlere yansıtır. Konuşmacı, süreçte ortalamaları çıkarmanın ve özvektörleri sıralamanın önemini vurgular. Son olarak, uygulama Iris veri kümesi üzerinde test edilir ve bu, dört boyuttan iki boyuta başarılı bir boyut indirgeme ile sonuçlanır.

  • 00:00:00 Bu bölümde eğitmen, bir veri kümesini daha büyük kümenin bilgilerinin çoğunu hala içeren daha düşük boyutlu bir kümeye dönüştürerek boyutsallığını azaltan denetimsiz bir öğrenme yöntemi olan Temel Bileşen Analizini (PCA) tartışır. Eğitmen, PCA'nın, yalnızca en yüksek öneme sahip boyutları alarak boyutsallığın azaltıldığı, dönüştürülen özelliklerin doğrusal olarak bağımsız olduğu bir dönüşümü nasıl bulduğunu açıklar. Yeni bulunan boyutlar, yansıtma hatasını en aza indirmeli ve yansıtılan noktalar maksimum yayılmaya sahip olmalıdır, bu da maksimum varyans anlamına gelir. Eğitmen, PCA'yı Python ve Numpy kullanarak sıfırdan uygulamaya yönelik adımları adım adım anlatıyor. Bu adımlar, ortalamanın x'ten çıkarılmasını, x ve x'in kovaryansının hesaplanmasını ve özvektörlerin özdeğerlerine göre azalan düzende sıralanmasını içerir.

  • 00:05:00 Bu bölümde, konuşmacı Python kullanarak temel bileşen analizinin (PCA) uygulanmasını açıklıyor. Bu, bileşen sayısını girdi olarak alan bir 'init' işlevi, ortalamayı çıkaran, kovaryansı hesaplayan, özvektörleri sıralayan ve temel bileşenleri depolayan bir 'uygun' yöntemi oluşturmayı içerir. 'Transform' yöntemi daha sonra bu dönüşümü yeni verilere uygular. Konuşmacı, ortalamaları çıkarmanın ve özvektörleri sıralamanın önemini vurgulayarak ve nihai olarak boyut indirgeme için temel bileşenleri çıktı olarak alarak kodun her adımını inceler.

  • 00:10:00 Bu bölümde, konuşmacı PCA'nın (Temel Bileşen Analizi) Python'da sıfırdan nasıl uygulanacağını gösterir. Sığdır ve dönüştür yöntemiyle bir sınıf oluşturarak başlarlar. Sığdırma yöntemi önce verilerin ortalamasını hesaplar ve ortalamanın etrafında ortalar. Ardından, verilerin kovaryanslarını hesaplar ve özvektörleri ve özdeğerleri çıkarır. Dönüştürme yöntemi daha sonra verileri bir iç çarpımla ana bileşenlere yansıtır. Son olarak konuşmacı, uygulamayı Iris veri kümesiyle test eder ve verilerin boyutluluğunu başarılı bir şekilde dörtten iki boyuta indirir.
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/07 PCA at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Perceptron Python ile sıfırdan nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/08%20Perceptron



Perceptron Python ile sıfırdan nasıl uygulanır?

Video öğretici, bir etkinleştirme işlevi, ağırlıklar ve girdi kullanarak ikili sınıflandırma için yalnızca doğrusal olarak ayrılabilir kalıpları öğrenebilen Perceptron algoritmasının arkasındaki teoriyi açıklar. Sunucu daha sonra optimizasyon algoritması için öğrenme oranını ve yineleme sayısını seçerek ve aktivasyon fonksiyonunu birim adım fonksiyonu olarak tanımlayarak Perceptron modelini Python'da sıfırdan uygulamak için gerekli adımları özetler. Ağırlıkları ve önyargıları başlattıktan sonra model, ağırlıkları ve sapmaları Perceptron güncelleme kuralına göre güncelleyerek eğitim verilerinden öğrenir. Son olarak, sunum yapan kişi, test verileri için sınıf etiketlerini tahmin ederek modelin doğruluğunu değerlendirir ve doğruluk, karar sınırının başarılı bir şekilde öğrenildiğini gösteren %100 olarak ortaya çıkar.

  • 00:00:00 Bu bölümde sunum yapan kişi, Perceptron algoritmasının arkasındaki temel teoriyi ve ikili sınıflandırıcıların denetimli öğrenimi için nasıl bir algoritma olduğunu açıklar. Perceptron, biyolojik bir nöronun basitleştirilmiş bir modelidir ve sinir ağlarının prototipi olarak da bilinir. Perceptron algoritması yalnızca doğrusal olarak ayrılabilir örüntüleri öğrenebilir ve yapay sinir ağının tek bir birimi olarak görülebilir. Sunum yapan kişi daha sonra ağırlıkları, girişi ve etkinleştirme işlevini ve ikili sınıflandırıcı sınıf etiketlerini içeren Perceptron'un matematiksel temsilini açıklar. Video daha sonra, algoritmanın yanlış sınıflandırma durumunda bunları pozitif veya negatif hedef sınıfa doğru itmek için ağırlıkları ve sapmaları güncellemesini sağlayan Perceptron güncelleme kuralını açıklar.

  • 00:05:00 Bu bölümde, konuşmacı Python'da sıfırdan bir algılayıcı modeli uygulamak için gerekli adımları özetliyor. Optimizasyon algoritması için öğrenme oranını ve yineleme sayısını seçerek başlarlar. Daha sonra aktivasyon fonksiyonu, birim adım fonksiyonu olarak saklanır. Ağırlıklar ve önyargılar başlangıçta sıfır olarak başlatılır ve kod, işlevleri sığdırmak ve tahmin etmek için devam eder. Uyum fonksiyonu için, eğitim verilerinden örnek sayısı ve öznitelik sayısı elde edilir ve ardından ağırlıklar ve sapmalar başlatılır. Sınıf etiketleri 1 veya 0 olacak şekilde ayarlanır. Ardından, her giriş için doğrusal çıkışın hesaplandığı optimizasyon yapılır. Son olarak, test verileri için tahmin edilen çıktıyı hesaplamak için doğrusal model ve aktivasyon fonksiyonunun kullanıldığı yerde tahmin fonksiyonu uygulanır.

  • 00:10:00 Bu bölümde sunum yapan kişi, perceptron'un Python ile sıfırdan uygulanmasını açıklıyor. Perceptron için güncelleme kuralı delta w = alfa çarpı y eksi y şapka çarpı x ve delta yanlılığı alfa çarpı y eksi y şapkadır. Sunum yapan kişi daha sonra güncelleme bölümlerine dayalı olarak ağırlıkları ve sapmayı güncellemek için bu kuralı kullanır. Uyum yöntemini açıkladıktan sonra sunum yapan kişi, doğrusal çıktının hesaplandığı ve ardından y'nin tahmin edilmesini sağlamak için aktivasyon işlevinden geçtiği tahmin yöntemine geçer. Son olarak, sunum yapan kişi, doğruluk için bir yardımcı işlev kullanarak bu uygulamayı test eder ve veri kümeleri, 150 örnek ve iki özellikle bloblar oluşturur, öğrenme oranı ve yineleme sayısına sahip bir algılayıcı oluşturur, onu eğitim verileriyle uydurur ve test verileriyle tahmin yapar. Doğruluk, karar sınırının başarılı bir şekilde öğrenildiğini gösteren %100'dür.
 

Python ile sıfırdan SVM (Destek Vektör Makinesi) nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/09%20SVM



Python ile sıfırdan SVM (Destek Vektör Makinesi) nasıl uygulanır?

Destek Vektör Makineleri (SVM), eğitim sırasında öğrenilen ağırlık ile sınıflar arasındaki ayrımı en üst düzeye çıkaran doğrusal bir karar sınırı bulmayı amaçlar. Maliyet fonksiyonu, karar sınırının doğru tarafından ne kadar uzakta olduğumuzu belirleyen bir dayanak kaybını içerir; dengeye eklenen bir düzenlileştirme terimi, kaybı en aza indirir ve mesafeyi en üst düzeye çıkarır. Gradyanlar hesaplanır, güncelleme kuralları türetilir ve ağırlıklar başlatılırken, tahmin işlevi doğrusal işlevin çıktısıdır. NumPy ve Scikit-learn kitaplıklarını kullanarak Python'da SVM'yi sıfırdan uygulamak için kod sağlanır; içe aktarma tren testi ve bölme, veri kümeleri ve karar sınırının çizilmesi ve doğru uygulamayı onaylayan iki hiper düzlem.

  • 00:00:00 Bu bölümde video, sınıflar arasında maksimum ayrım sağlayan doğrusal bir karar sınırı veya hiperdüzlem bulmayı amaçlayan Destek Vektör Makinelerini (SVM) tartışıyor. Hiperdüzlem, eğitim sırasında öğrenilmesi gereken ağırlık (w) ile en yakın noktalardan veya destek vektörlerinden en büyük paya sahip olmalıdır. Karar sınırının doğru tarafından ne kadar uzakta olduğumuzu belirleyen bir menteşe kaybını içeren bir kayıp fonksiyonu tanımlanır. Maliyet fonksiyonunda söz konusu parçaların önemini kontrol eden bir Lambda parametresi ile kaybı en aza indirmek ve her iki tarafa olan mesafeyi en üst düzeye çıkarmak arasındaki değiş tokuşu yapmak için maliyet fonksiyonuna bir düzenlileştirme terimi eklenir.

  • 00:05:00 Bu bölümde, SVM için ağırlıkları ve sapmayı bulma süreci tartışılmaktadır. Gradyanların hesaplanması açıklanır ve güncelleme kuralları degradeden türetilir. Ağırlıkların başlatılması da gösterilmiştir. Sınıf etiketleri, -1 veya 1 değerlerine sahip olacak şekilde güncellenir ve belirtilen yineleme sayısı için güncelleme kuralları uygulanır. Tahmin fonksiyonu, basitçe öğrenilen ağırlıklardan elde ettiğimiz lineer fonksiyonun çıktısıdır. Çıkışı sıfır ile karşılaştırarak, verilen test örneğinin sınıfına karar verebiliriz. SVM kodu, Python'da NumPy ve Scikit-learn kitaplıkları kullanılarak yazılmıştır.

  • 00:10:00 Bu bölümde sunum yapan kişi, SVM'yi sıfırdan uygulamak için bir python kodunun nasıl yazılacağını açıklar. Yöntem, fit ve tahmin yöntemleri olmak üzere iki bölümden oluşur. Uyum yöntemi, verilen verilerden ağırlıkları hesaplayan eğitimimizdir, tahmin yöntemi ise verilen verilere yaklaşarak çıktıyı tahmin etmek için ağırlıkları kullanır. Sunum yapan kişi ayrıca duruma bağlı olarak farklı gradyanlara göre kod güncellemelerini açıklar. y çarpı W çarpı x eksi B koşulu, kontrol etmek için numpy nokta ile kullandığımız birden büyük veya eşit olmalıdır. Kod, sklearn ve matplotlib'den içe aktarma tren testi, bölme ve veri kümelerini takip eder ve iki özelliğe sahip iki damla veri kümesiyle örnek bir veri kümesi oluşturur, ardından sınıfların -1 ve artı bir, eğitim ve test kümelerine bölünmesini sağlar. ve doğruluğu tahmin etmek için svm'yi çalıştırın. Sunum yapan kişi ayrıca karar sınırını ve iki hiperdüzlemi artı bir ve eksi birde çizmek için kodu ana hatlarıyla belirtir, bu da doğru uygulamayı doğrular.
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/09 SVM at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python ile sıfırdan K-Means nasıl uygulanır?

Kod: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/10%20KMeans



Python ile sıfırdan K-Means nasıl uygulanır?

Bu video, K-Means kümeleme algoritmasının Python ile sıfırdan nasıl uygulanacağını gösterir. K-Means, daha fazla değişiklik olmayana kadar araçları veya merkezleri yinelemeli olarak güncelleyerek etiketlenmemiş verileri k farklı kümede kümelemek için denetimsiz bir öğrenme algoritmasıdır. Video, boş kümelerin başlatılmasını ve küme ve yineleme sayısı için parametrelerin ayarlanmasını, küme etiketlerinin ve merkezlerin güncellenmesini ve değişiklik olmadığında optimizasyon döngüsünün durdurulmasını kapsar. Konuşmacı ayrıca en yakın ağırlık merkezlerini hesaplamak için Öklid mesafesini ölçmenin önemini açıklıyor ve kümeleme sürecini görselleştirmek için Matplotlib'den önceden yazılmış bir çizim işlevi sağlıyor.

  • 00:00:00 Bu bölümde, konuşmacı, bir veri kümesini k farklı kümede kümelemeyi ve araçları veya ağırlık merkezlerini daha fazla değişiklik olmayana kadar yinelemeli bir optimizasyon işlemi sırasında güncellemeyi içeren k-ortalamalar denetimsiz öğrenme yöntemini açıklıyor. Küme etiketlerini ve merkezleri güncelleme işlemi tekrarlanır ve iki özellik vektörü arasındaki Öklid mesafesini hesaplamak için en yakın merkezler formülü kullanılır. Konuşmacı daha sonra etiketlenmemiş verilerde üç küme bulmanın bir örneğini gösterir ve boş kümelerin başlatılması ve küme ve yineleme sayısı için parametrelerin ayarlanması dahil olmak üzere Python'da k-means'in sıfırdan nasıl uygulanacağını gösterir. Video, k-means algoritmasının ve Python'daki uygulamasının bir özeti ile sona eriyor.

  • 00:05:00 Bu bölümde, konuşmacı Python kullanarak K-Means'in sıfırdan uygulanmasını tartışıyor. Her küme ve ağırlık merkezi için boş listeler gibi gerekli değişkenleri başlatarak ve ardından bir sığdırma yöntemi yerine bir tahmin işlevi tanımlayarak başlarlar. K-Means'in etiketlenmemiş veriler için denetimsiz bir öğrenme tekniği olduğunu açıklıyorlar. Optimizasyon döngüsü, kümelerden yeni merkezler hesaplanmadan önce numunelerin merkezlere atanmasını içerir. Konuşmacı, merkezler ve kümeler oluşturmak ve elde etmek için yardımcı işlevlerin gerekli olduğunu not eder. Daha fazla değişiklik olmazsa, döngüyü maksimum yinelemeden önce durdurmanın mümkün olduğunu belirterek bitirirler.

  • 00:10:00 Bu bölümde konuşmacı, küme etiketlerini güncellemek ve örnekleri en yakın merkezlere atamak için yardımcı işlevlerin uygulanmasını açıklar. Küme etiketlerini güncelleme işlevi, her bir küme boyunca yinelenir ve küme dizinini, her numune dizininin etiketine atar. Konuşmacı ayrıca indeksleri atamak için her bir küme için boş listelerin başlatılmasını gösterir ve ardından en yakın merkeze atamak için her numuneyi yineler. Son olarak konuşma, merkezleri ve kümeleri çizmek için gerekli adımları ana hatlarıyla belirtir ve kodun çizilecek adımları sağlaması gerekip gerekmediğini kontrol eder.

  • 00:15:00 Bu bölümde, konuşmacı K-Means kümeleme algoritmasının Python ile sıfırdan nasıl uygulanacağını açıklıyor. Algoritma, bir veri kümesini ve belirli sayıda kümeyi girdi olarak alır ve ardından her noktayı en yakın ağırlık merkezine atar. Konuşmacı, en yakın ağırlık merkezini bulmak ve iki nokta arasındaki Öklid mesafesini hesaplamak için yardımcı işlevleri tanıtır. Her kümenin ortalamasını hesaplamak için başka bir yardımcı işlev kullanılır ve bu daha sonra ağırlık merkezine atanır. Son olarak, algoritma, algoritmanın yakınsayıp yakınsamadığını belirlemek için her küme için eski ve yeni merkezler arasındaki mesafenin sıfır olup olmadığını kontrol eder.

  • 00:20:00 Bu bölümde, konuşmacı Python ve numpy kullanarak K-Means kümelemesini sıfırdan nasıl uygulayacağını açıklıyor. Öklid mesafesini ölçmenin önemini ve yeni merkezlerin ve küme etiketlerinin nasıl hesaplanacağını tartışıyorlar. Ayrıca, kümeleme sürecini adım adım görselleştirmek için matplotlib kitaplığını kullanan önceden yazılmış bir çizim işlevi sağlarlar. Son olarak, üç küme oluşturmak için sklearn'ün make_blobs işlevini kullanarak örnek bir veri kümesi üzerindeki uygulamayı gösterirler ve K-Means algoritmasının veri noktalarını nasıl başarılı bir şekilde ayrı kümeler halinde grupladığını gösterirler. Konuşmacı, izleyicileri Github'daki kodun tamamına göz atmaya ve makine öğrenimi kavramlarının daha ayrıntılı açıklamaları için kursun geri kalanını izlemeye teşvik ediyor.
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
  • AssemblyAI-Examples
  • github.com
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/10 KMeans at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
 

Python'da OpenAI ChatGPT (GPT-3.5) API'sine Başlarken | Yeni Başlayanlar İçin Eğitim



Python'da OpenAI ChatGPT (GPT-3.5) API'sine Başlarken | Yeni Başlayanlar İçin Eğitim

Eğitim videosu, yeni başlayanlar için Python'da OpenAI ChatGPT (GPT-3.5) API'sinin nasıl kullanılacağını açıklar. Sunucu, hem doğal dil hem de kod üretebilen ve belirteç veya toplam sınırı olmayan bir kompozisyon modeli olan DaVinci'ye daha ucuz bir alternatif olarak GPT 3.5 Turbo modelini tanıtıyor. Öğretici daha sonra bir OpenAI hesabına nasıl kaydolacağınızı, bir API anahtarı alacağınızı ve kullanıcı ve sistem girişleriyle bir konuşma günlüğü tutmak için chat_gpt-completion işlevini nasıl kullanacağınızı gösterir. Video ayrıca yanıtların nasıl alınacağını, takip sorularının nasıl ekleneceğini ve sohbetin kesintisiz devam etmesi için kodun nasıl değiştirileceğini de kapsar.

  • 00:00:00 Videonun bu bölümünde konuşmacı, DaVinci modeline göre daha ucuz bir alternatif olan OpenAI'den GPT 3.5 Turbo modelini tanıtıyor. GPT 3.5 Turbo modeli, hem doğal dili hem de kodu anlayıp üretebilen bir kompozisyon modelidir ve bin token başına 0,002 sente mal olur. GPT 3.0 modellerinden farklı olarak GPT 3.5 Turbo modelinde jeton limiti yoktur ve toplam limiti yoktur. Ardından video, bir OpenAI hesabına nasıl kaydolacağınız ve bir API anahtarı alacağınız da dahil olmak üzere Python'da OpenAI GPT API'yi kullanmaya nasıl başlayacağınızı göstermeye devam ediyor.

  • 00:05:00 Bu bölümde, öğreticinin yaratıcısı Python'da OpenAI ChatGPT (GPT-3.5) API'sinin nasıl kullanılacağını tartışıyor. Bu API, daha konuşma odaklı olduğu için normal GPT 3.0 modellerinden farklı çalışır. API, OpenAI kitaplığına ve sohbet tamamlama modeline başvuran chat_gpt-completion adlı bir işlev kullanır. Konuşma kayıtlarını eklemeye devam etmek için konuşma günlüğü bu işleve iletilir. Kullanıcı ve sistem rolleri, girdinin bir kullanıcıdan mı yoksa sistemin kendisinden mi geldiğini belirlemek için kullanılır. Yanıt seçeneği yazdırılır ve yanıtın en önemli kısmı Seçim tuşudur.

  • 00:10:00 Bu bölümde öğretici, Python'da OpenAI ChatGPT (GPT-3.5) API'sinin nasıl kullanılacağını tartışır. Öğretici, normal GPT 3.0 Modellerinden farklı olarak, ChatGPT modelinin bir seferde yalnızca bir mesaj veya bir yanıt döndürebileceğini açıklar. Öğretici daha sonra bir yanıttan satırın ve içeriğin nasıl alınacağını, ChatGPT API ile bir konuşmanın nasıl oluşturulacağını ve birleştirme geçmişinin nasıl alınıp görüntüleneceğini göstermeye devam eder. Eğitim ayrıca, kompozisyona takip sorularının nasıl ekleneceğini ve takip sorusuna dayalı olarak API'den ek bilgilerin nasıl alınacağını da kapsar.

  • 00:15:00 Bu bölümde konuşmacı, ChatGPT kompozisyonunun kesintisiz çalışmasını sağlamak için yapılabilecek bir kod değişikliğini tartışıyor. Değişiklikler, sistem satırıyla bir oturum başlatmayı, içeriği "size nasıl yardımcı olabilirim" olarak ayarlayarak kompozisyonu etkinleştirmeyi ve görüşmeyi devam ettirmek için bir süre döngüsü eklemeyi içerir. Kullanıcı, diziyi problem değişkenine kaydeden giriş ifadesine sorular veya istemler girer. İçerik anahtarı mesaj olarak ayarlanır ve kullanıcı istekleri göndermek ve mesajı kompozisyon listesine eklemek için ChatGPT telafi işlevini çalıştırır. Görüşme daha sonra takip eden sorularla devam ettirilebilir ve tüm görüşmeler ChatGPT API tarafından başvurulabilecek bir listeye kaydedilir.
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
Getting Started With OpenAI ChatGPT (GPT-3.5) API In Python | Tutorial For Beginners
  • 2023.03.02
  • www.youtube.com
OpenAI has finally released the most anticipated ChatGPT model today, called "gpt-3.5-turbo". Unlike the GPT 3.0 models that work like a search engine, Cha...
 

Python'da OpenAI GPT-4 API'sine (ChatGPT Official API) Başlarken



Python'da OpenAI GPT-4 API'sine (ChatGPT Official API) Başlarken

Video, OpenAI GPT-4 API'nin Python'da ChatGPT Resmi API'sini kullanarak nasıl kullanılacağını kapsar. Bir API anahtarı oluşturduktan ve OpenAI python paketini kurduktan sonra kullanıcı, bir işlev oluşturarak ve OpenAI'nin uç noktasını model kimliği ve konuşma günlükleriyle çağırarak GPT-4 modelini kullanabilir. Konuşmacı, oluşturma günlüğü bağımsız değişkenine konuşma günlüklerinin nasıl ekleneceğini, bir komut satırı aracının nasıl oluşturulacağını ve yanıt oluşturmak için ChatGPT API'sinin nasıl kullanılacağını gösterir. İzleyicilerin API'yi denemeleri ve gelecekteki videolar için kanala abone olmaları önerilir.

  • 00:00:00 Bu bölümde video, Python'da ChatGPT Resmi API'sinin nasıl kullanılacağını açıklamaktadır. API, GPT-4 modelini temel alır ve dört farklı sürümü mevcuttur. Normal GPT-4 modeli 8192 jetona kadar kabul edebilirken, GPT-4 32k modeli 32768 jetona kadar kabul edebilir. API'yi kullanmak için öncelikle platform.openai.com'da bir hesaba kaydolarak bir API anahtarı oluşturmanız gerekir. Ardından, OpenAI python paketini kurmanız ve API anahtarını OpenAI modülüne eklemeniz gerekir. Son olarak, bir işlev oluşturarak ve OpenAI'nin uç noktasına bir API çağrısı yaparak, model kimliğini ve konuşma günlüklerinin bir listesini yönteme ileterek Python'da GPT-4 modelini kullanabilirsiniz.

  • 00:05:00 Bu bölümde, konuşmacı OpenAI GPT-4 API'nin Python'da nasıl kullanılacağını gösterir. Bir konuşma listesi oluşturarak başlarlar ve yanıt sağlamak için API'nin listeye nasıl erişebileceğini açıklarlar. API'ye istek göndermek için kullanıcının, görüşmenin yapay zekaya mı yoksa kullanıcıya mı ait olduğunu ve görüşmenin içeriğini belirlemek için bir satır kimliği sağlaması gerekir. Konuşmacı, listeye bir konuşma ekleyen ve sohbet GPT konuşma işlevini kullanarak API'nin nasıl çağrılacağını gösteren örnek bir kod bloğunu paylaşır. Ayrıca, API çağrısının zaman damgası ve maliyeti de dahil olmak üzere yanıt biçimini ve seçimler anahtarında GPT-4 yanıtına nasıl erişileceğini açıklar.

  • 00:10:00 Bu bölümde, konuşmacı bir OpenAI GPT-4 API'sinde Python kullanarak bir konuşma günlüğünün kompozisyon günlüğü bağımsız değişkenine nasıl ekleneceğini açıklamaktadır. En son kayıtları içeren kompozisyon kilidine başvururlar ve seçimler anahtarındaki yanıt kaydını kompozisyon günlüğü bağımsız değişkenine eklerler. Çıktı daha sonra kod bloğu çalıştırılarak ve kompozisyon listesi yazdırılarak test edilir. Konuşmacı ayrıca, kullanıcıların girdi sağlamasına olanak tanıyan bir komut satırı aracının nasıl oluşturulacağını da gösterir; bu araçlar, kullanıcının amacına göre kompozisyon günlüğüne eklenebilir. Genel olarak, bu bölüm Python'da OpenAI GPT-4 API kullanmak isteyen geliştiriciler için yararlı bir kılavuz sağlar.

  • 00:15:00 Bu bölümde sunum yapan kişi, Python kullanarak yanıtlar oluşturmak için ChatGPT API'nin nasıl kullanılacağını gösterir. Kullanıcı girdisini alıp API'ye göndermek ve ardından yanıtı yazdırmak için bir işlev kodlar. Bunu, API'den kendisine bir fıkra anlatmasını isteyerek gösterir ve hem kullanıcı girdisini hem de API yanıtını içeren çıktıyı gösterir. Sunucu, izleyicileri ChatGPT API'yi denemeye ve kanalını beğenmeye ve abone olmaya teşvik ederek sözlerini bitirir.
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
Getting Started With OpenAI GPT-4 API (ChatGPT Official API) In Python
  • 2023.03.29
  • www.youtube.com
In this video, we will learn 1) how to use OpenAI GPT-4 API, and 2) how to build a simple ChatGPT command line tool in Python.📑 Source Code: https://wp.me/p...