Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3296

 
Maxim Dmitrievsky #:
Benim bir sorum yok. Çok sayıda özelliğin nedensel çıkarımda neden kötü sonuçlar verdiğini yazdım.

ve size bunun sadece sizin hipoteziniz olduğunu söyledim "özellik sayısı arttıkça sonuçlar daha da kötüleşecektir".

ve hipotezimi belirttim. burada MO'da hiç kimse deney maliyeti nedeniyle henüz bunu test etmeye çalışmadı. ama hatırlatırım, bazı insanlar GPT için yaptı, heterojen bilgilerin bağlantılarının kalitesinde yeni bağlantılar ve çıkarımlar yaratmanın mümkün olduğu noktaya kadar bir sıçrama oldu.

 
Andrey Dik #:

Ben de size bunun sadece sizin "özellikler arttıkça sonuçlar daha da kötüleşecek" hipoteziniz olduğunu yazdım.

Hipotezimi belirttim. deneylerin maliyeti nedeniyle MO'da henüz kimse bunu test etmeye çalışmadı. ama hatırlatırım, bazı insanlar bunu GPT için yaptı, heterojen bilgilerin bağlantılarının kalitesinde öyle bir sıçrama oldu ki yeni bağlantılar ve sonuçlar yaratmak mümkün hale geldi.

Size bunun sizin hipoteziniz olduğunu yazdım, ben hipotez kurmadım. Bu kesin olarak kanıtlanmıştır.

Parmağı parmakla karşılaştırmayın, büyük dil modelleri tamamen aynı şekilde eğitilir. Ve öğrenme hatasının ne olduğu hakkında hiçbir fikriniz yok.

Başka sorunuz var mı?

 
Maxim Dmitrievsky #:
Size bunun sizin hipoteziniz olduğunu yazdım, hipotez kurmadım. Bu kesinlikle kanıtlandı.

Başka sorusu olan var mı?

Söylediğiniz şey kanıtlanmamıştır, ampirik bir yargıdır, bu nedenle ifadeniz bir hipotezdir.

Size soracak bir sorum yok.

 
Andrey Dik #:

söyledikleriniz kanıtlanmamıştır, bunlar ampirik yargılardır, dolayısıyla ifadeniz bir hipotezdir.

Sana soracak sorum yok.

Bu kanıtlandı. Kanıtlandığını bilmiyor olmanız kanıtlanmadığı anlamına gelmez. Bir kez daha, baes-variance tradoff için bir link veriyorum.

Neyin kanıtlanıp neyin kanıtlanmadığı konusuna hiç girmeyeyim. Dışarıda daha ciddi Gurular var.
 
Maxim Dmitrievsky #:

Parmağı parmakla karşılaştırmayın, büyük dil modelleri tamamen aynı şekilde eğitilir. Ve ne tür bir öğrenme hatası olduğu hakkında hiçbir fikriniz yok.

Hangi parmaktan parmağa?

Kesinlikle, büyük dil modelleri tam olarak aynı şekilde eğitilir ve optimizasyon algoritmaları kullanırlar (GPT'ye hangi algoritmalarla eğitildiğini sorabilirsiniz, birkaç ay önce net bir şekilde cevap verdi, şimdi şaka yapıyor, ancak ADAM'ın bunlardan biri olduğunu söyleyeceğim). ve ne tür bir öğrenme hatası olduğu hakkında hiçbir fikrim yok, tıpkı sizin hiçbir fikriniz olmadığı gibi. Yazarlar sadece büyük bir model için değerlendirme kriterleri oluşturabildikleri için iyidir, ki bu çok zordur, çünkü bilgi toplamak yeterli değildir, eğitimin kalitesini doğru bir şekilde değerlendirebilmeniz gerekir (dediğim gibi, değerlendirme kriterleri oluşturmak daha az önemli değildir).

 
Maxim Dmitrievsky #:

Neyin kanıtlanıp neyin kanıtlanmadığı konusuna hiç girmeyeyim. Daha ciddi Öğretmenler var.

Kendinizi ölçmeyi seviyorsunuz. Size öğretmiyorum, süper profesyonel olduğunuzu düşünüyorsanız bunları anlamalısınız.

 
Andrey Dik #:

Kendini ölçmeyi seviyorsun. Sana öğretmiyorum, süper bir profesyonel olduğunu düşünüyorsan bunları anlamalısın.

Benim süper profesyonel olduğumu düşünen sensin ve konunun dışındasın. Gevezelikten, otoritelere atıfta bulunmak gibi psikolojik hilelerle serpiştirilmiş alakasız argümanlardan hoşlanmıyorum. Kanıtları okuyamayacak kadar tembelseniz, size daha fazla yardımcı olamam.
 
Maxim Dmitrievsky #:
Benim süper profesyonel olduğumu ve konu dışı yazdığımı düşünen sizsiniz. Gevezelikten, otoritelere atıfta bulunmak gibi psikolojik hilelerle serpiştirilmiş alakasız argümanlardan hoşlanmıyorum. Kanıtları okuyamayacak kadar tembelseniz, size daha fazla yardımcı olamam.

Hangi otoritelere atıfta bulundum? Sanırım genellikle otoritelere ve onların makalelerine atıfta bulunarak gösteriş yapıyorsunuz.
MO konusunda uzman değilim, ancak optimizasyon hakkında çok şey biliyorum. Ve MO optimizasyon olmadan hiçbir yerde olmadığı için, buradaki herhangi bir tartışmaya tereddüt etmeden katılabilirim.
 
Andrey Dik #:

Hangi otoritelere atıfta bulundum? Sanırım genellikle otoritelere ve onların makalelerine atıfta bulunuyorsunuz.
MO konusunda uzman değilim ama optimizasyon hakkında çok şey biliyorum. Ve optimizasyon olmadan MO olamayacağı için buradaki herhangi bir tartışmaya tereddüt etmeden katılabilirim.
GPT'yi anlamadığınız bir şeyin kanıtı olarak göstermişsiniz. Sırf yazmış olmak için yazıyorsunuz. Anlamlı bir mesaj yok. Optimizasyonla ilgilenmiyorum, bu 3. soru. Optimizasyon hakkında yazmadım ve bunu sormadım. Öğrenme optimizasyonu içeriyorsa, bu öğrenmenin optimizasyon olduğu anlamına gelmez. Konuşmanın konusu bu değildi.

Siz sadece benim ne hakkında yazdığımı anlamadınız ve size daha yakın olan hastalıklı şeyler hakkında yazmaya başladınız.
 
Maxim Dmitrievsky #:
GPT'yi ne olduğu hakkında hiçbir fikriniz olmayan bir tür kanıt olarak gösterdiniz. Sadece yazmış olmak için yazıyorsun. Anlamlı bir mesaj yok. Optimizasyonla ilgilenmiyorum, bu 3. soru. Optimizasyon hakkında yazmadım ve bunu sormadım. Öğrenme optimizasyonu içeriyorsa, bu öğrenmenin optimizasyon olduğu anlamına gelmez. Konuşmanın konusu bu değildi.

Optimizasyon hakkında yazmadınız, öyleyse neden etrafı kurcalıyorsunuz?
Ben sana yazmadım.
Ve öğrenme, optimizasyonun özel bir durumudur, bunu unutmayın.
Gördün mü, yazmadı! Şimdi de ne hakkında yazıp ne hakkında yazmayacağım konusunda izin mi almam gerekiyor? Sakin ol.