Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2651

 
mytarmailS #:



Bu daha mı iyi?


=====================

ifadeleri daha da karmaşık hale getirebilirsiniz

Evet, liste olayı iyi bir fikir.

Gerçek bir double yapmak için cebirsel veri tiplerine ihtiyacınız var. Henüz R için uygulamalarını görmedim ve genetik optimizasyon bunlarla çalışmayacaktır( ne tür bir optimizasyonun bunlarla çalışacağı belli değil ).

 

Sizi bilmem ama ben bu algoritmadan çok etkilendim... Alttaki basit değişkenlerin üstteki büyük karmaşık ifadelere nasıl eklendiğini.... tıpkı doğadaki gibi bir hiyerarşi

 
Aleksey Nikolayev #:

Evet, liste olayı iyi bir fikir.

Gerçek bir double yapmak için cebirsel veri tiplerine ihtiyacınız var. Henüz R için uygulamalarını görmedim ve genetik optimizasyon bunlarla çalışmayacaktır( ne tür bir optimizasyonun bunlarla çalışacağı belli değil ).

Evet, sınırlamalar var, çünkü GP için her rakam listede ayrı bir öğedir, bu nedenle çok fazla varsa, o zaman sorun(( , ancak gösterdiğim gibi durumdan kurtulabilirsiniz

 
mytarmailS #:

Sizi bilmem ama ben bu algoritmadan çok etkilendim... Alttaki basit değişkenlerin üstteki büyük karmaşık ifadelere nasıl eklendiği, tıpkı doğadaki gibi bir hiyerarşi....

MSUA'dan nasıl daha iyi? Yararlı olduğu sürece her şeyden etkilenebilirsiniz :)
 
Maxim Dmitrievsky #:
MSUA'dan nasıl daha iyi olabilir? Sizin için iyi olduğu sürece her şeyden etkilenebilirsiniz:)
Şey, bu farklı.
Sembolik regresyon herhangi bir Mantığı uygulayabileceğiniz bir çerçevedir, sadece kullanışlıdır çünkü kendiniz yazmak zorunda değilsiniz....

Ve bu kuralların uygulanması, evet mgua'ya çok benziyor - özellik ingeniring + özellik seçimi + model yap
Hepsi bir arada mgua gibi.
Eğer bu özel uygulamayı mgua ile karşılaştırırsanız:
MGUA çok sayıda özelliği idare edemez, çünkü tamamen aşırıdır.
Bu kötüdür, ancak mgua garantili en iyi çözümü bulur, bu da iyidir.

Bu uygulamada ise durum tam tersidir
 
mytarmailS #:
Şey, bu farklı.
Sembolik regresyon, herhangi bir Mantığı uygulayabileceğiniz bir çerçevedir, sadece kullanışlıdır çünkü kendiniz yazmak zorunda değilsiniz....

Ve bu kuralların uygulanması, evet mgua'ya çok benziyor - özellik ingeniring + özellik seçimi + model oluşturma.
Hepsi bir arada mgua gibi.
Eğer bu özel uygulamayı mgua ile karşılaştırırsanız:
MGUA çok sayıda özelliği işleyemez, çünkü tamamen aşırıdır.
Bu kötüdür, ancak mgua garantili bir en iyi çözüm bulur, bu da iyidir.

Bu uygulamada ise durum tam tersidir
Evet, bu genetik bir aşırılıktır ve muhtemelen özellikleri birleştirmek için standart şemalar vardır.
 

Olaylara karşı değişmezlik hakkında biraz bilgi

Bir baş ve omuz formasyonunu tanımlamak istediğimizi varsayalım (böyle bir formasyonun var olduğunu varsayalım) , algoritmamız son H noktalarına bakar, örnekte olduğu gibi 7 diyelim

Yeşil dikdörtgen algoritmanın kapsamını göstermektedir. Son H noktaları, bu örnekte 7 adet.

Bu formdaki veriyi işliyoruz, AMO'ya besliyoruz vs, kayan pencere vs... Bunu herkes biliyor...

Düzenliliği kurallarla tanımlarsak, x[1] < x[2] & x[2] > x[3] vb. gibi bir şey olacaktır.....

Ancak gerçekte piyasa değişir, uzar / kısalır, genlikler değişir, vb....


İşte piyasanın gerçekliği ve hepimiz son 7 noktaya bakıyoruz ve x[1] < x[2] & x[2] > x[3]... kuralımızın çalışmasını bekliyoruz) ).

Gördüğünüz gibi, bir örüntü var, hiçbir yere gitmedi, ancak havalı 10 katmanlı GPT-5'imiz hiçbir şey görmeyecek).


Sonuçlar: "Kutudan çıkan" tüm AMO algoritmaları tablo verileriyle çalışır, yani tüm algoritmalar indekslere katı bir şekilde bağlanan örüntüler arar, işe yaramaz....

1) Olaylara, olayların sırasına bağlı olan, ancak endekslere bağlı olmayan ilişkisel kurallar gibi algoritmalara bakmak gerekir.

2) Ya doğru kuralları kendimiz tasarlayıp onlardan modeller oluşturmak

3) Ya da AMO için ilişkisel kurallar/diziler algoritmaları için kullanılan veri gösterimini kullanın, ancak bu durumda özellik sayısı milyarlarca olacaktır.

 
Aleksey Nikolayev #:

Bunlarla ne tür bir optimizasyonun işe yarayacağı belli değil

Ne demek istiyorsunuz? İkili olan sürekli optimizasyon ve tamsayı olan ayrık optimizasyon vardır. Yoksa ben mi yanlış anladım?

GP ayrıktır, bu yüzden çift GP ile ilgili sorunlar vardır.
 

Çeşitlendirmenin gücü hakkında

Diyelim ki çok iyi para kazanmayan bir CU'muz var, hiç de iyi değil.

Bu onun verim eğrisidir.

Aslında, çok zayıf bir trend eklenmiş rastgele bir gürültüdür, trend o kadar küçüktür ki gürültü içinde gözle görülemez.

İşte trend.

Bu, işlem yapılmasına izin vermeyeceğimiz bir stratejidir).

Peki ya tek bir hesapta aynı anda işlem gören bu tür 100 ilişkisiz stratejimiz varsa?

Bu pek iyi değil, ya 1000 stratejimiz varsa?

Ve 100 bin strateji?

Bu oldukça havalı.

MO ile bu kadar çok strateji üretmek mümkün mü? ....

 
mytarmailS #:
Ne demek istiyorsunuz? İkili olan sürekli optimizasyon ve tamsayı olan ayrık optimizasyon vardır. Yoksa ben mi yanlış anladım?

GP ayrıktır, bu yüzden çift GP ile ilgili sorunlar vardır.

Orada cebirsel veri türleri hakkında yazmıştım. Listeler ve ağaçlar gibi karmaşık veri türlerini genelleştirirler. Karmaşık bir ayrık yapıyı ve bu yapıda saklanan bir gerçek sayılar kümesini (sabit olmayan boyutta olduğu ortaya çıkıyor) birleştiriyorlar. Buna göre, bir şekilde yapı üzerinde ayrık optimizasyonu ve içinde depolanan sayılar üzerinde sürekli optimizasyonu birleştirmemiz gerekiyor. Bunu en azından teorik olarak nasıl yapacağıma dair hiçbir fikrim yok.