"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 78

 
Proje şu anda ne aşamada? Patron kim?
 
Daha iyi :
Proje şu anda ne aşamada? Patron kim?

Patron yok, istersen olabilirsin.

Tehdit Sanırım yarın öğleden sonra konuşmak daha iyi olacak.

 
Daha iyi :
Proje şu anda ne aşamada? Patron kim?
daha iyi - sinirsel baykuşların bir zamanlar şampiyonluğu kazanması daha iyi değil mi?
 
şima :
daha iyi - nöron baykuşunun bir zamanlar şampiyonluğu kazanması daha iyi değil mi?
O. Bir yerde PAMM hesabı vardı... Google'da arayın.
 
R0MAN :
O. Bir yerde PAMM hesabı vardı... Google'da arayın.
Profil üzerinden :-)
 
aharata :
Profil üzerinden :-)
Evet, ilk önce oraya baktım - bulamadım ... hemen yarasa ... :-) Daha uyanmadım ... :-)
 

Eski konuyu açmaya karar verdi.

Ulusal Meclis'in evrensel bir modelini düşünmeyi öneriyorum.

Rakipler, bu model tarafından tarif edilemeyecek bir ızgara türü sunmaya davet ediliyor!!!

Kod taslak, bu yüzden köküne bakın.

Önerilen uygulama, hem CPU hem de GPU için kolayca dönüştürülebilir. Izgara ayrıca gecikme operatörleri sağlar.

3 dönüşüm yolu vardır:

olduğu gibi bırakın (4 dizinin tümü iki boyutludur), GPU için uygundur

out tek boyutlu bir dizidir, ancak iki boyutlu bir bool maskesi de kullanılır

out tek boyutlu bir dizidir ve maske yerine maskeden oluşturulan bir dizi dizin kullanılır.

(ikili maskelerden daha önce bahsetmiştik, bu, sıfırları ve birleri kullanarak bir bağlantının olup olmadığını gösteren bir maskedir, bu durumda nöron yatay bir dizidir ve diğerleriyle olan bağlantıları ufkunda şu şekilde gösterilir: ikili maskenin karşılık gelen değerleri, bu hücrelerde ancak paralel dizilerde ağırlıkları, çıktıları ve zaman verilerini depolar, Zx x-sıralı gecikme operatörleridir)

Model Ağı

 class CDmem
  {
public :
                     CDmem( void ){};
                    ~CDmem( void ){};
   double             m[];
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class CBmem
  {
public :
                     CBmem( void ){};
                    ~CBmem( void ){};
   bool               m[];
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class CProcessing
  {
public :
                     CProcessing( void ){};
                    ~CProcessing( void ){};
   virtual void       Processing( int i,CBmem &mask[],CDmem &weg[],CDmem &out[],CDmem &temp[], int I, int J)
     {
       for ( int j= 0 ;j<J;j++)
        {
         temp[i].m[j]=mask[i].m[j]*weg[i].m[j]*out[i].m[j];
        }
       double sum= 0 ;
       for ( int j= 0 ;j<J;j++)
        {
         sum+=temp[i].m[j];
        }

       double outt= 2 ./( 1 .+ exp (-sum));
       for ( int j= 0 ;j<J;j++)
         out[i].m[j]=outt;
     };
   void               DelayOperator( int i,CDmem &out[])
     {
       // тут мы сдвишаем от конца к началу, реализуем оператор задержки
     };
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class Unet
  {
   int                cnt_prcss;
   CBmem             mask[];
   CDmem             weg[];
   CDmem             out[];
   CDmem             temp[];
   CProcessing      *prcss[];
   void               Init()
     {
       ArrayResize (mask, 5 );
       ArrayResize (weg, 5 );
       ArrayResize (out, 5 );
       ArrayResize (temp, 5 );
       for ( int i= 0 ;i< 5 ;i++)
        {
         ArrayResize (mask[i].m, 19 );
         ArrayResize (weg[i].m, 19 );
         ArrayResize (out[i].m, 19 );
         ArrayResize (temp[i].m, 19 );
        }
     };
   void               InitProcessing(CProcessing *p)
     {
      prcss[cnt_prcss]=p;
      cnt_prcss++;
     };
public :
                     Unet( void ){Init(); cnt_prcss= 0 ;};
                    ~Unet( void )
     {
       for ( int i= 0 ;i<cnt_prcss;i++)
         delete prcss[i];
     };
   void               DonwloadMask(){};
   void               DonwloadWeg(){};
   void               Processing()
     {
       for ( int i= 0 ;i<cnt_prcss;i++)
         prcss[i].Processing(i,mask,weg,out,temp, 5 , 19 );
     };
   void               DelayOperator()
     {
       for ( int i= 0 ;i<cnt_prcss;i++)
         prcss[i].DelayOperator(i,out);
     };
  };
 

Bu bir model değil. Nöronlar nerede? Bağlantılar nerede? Süreç nerede? Geri bildirimler nerede?

Ve doldurma için başka bir soru - neden tüm ağlar için evrensel bir model oluşturuyorsunuz?

Çoğu görev için evrensel bir ağdan daha iyi (heh))

Ve neden hemen uygulamaya geçiyorsunuz? Mimariniz hazır değil.

 
TheXpert :

Bu bir model değil. Nöronlar nerede? Bağlantılar nerede? Süreç nerede? Geri bildirimler nerede?

Ve doldurma için başka bir soru - neden tüm ağlar için evrensel bir model yapıyorsunuz?

Çoğu görev için evrensel bir ağdan daha iyi (heh))

Nöronlar şekildeki yatay dizilerdir. bağlantılar bir boolean maskesiyle şifrelenir.

Açıkça açıklamayacağım yönlendirici sorular sorun, her şeyi bir anda anlatamazsınız.

Tehdit mimarisi modelden kaynaklanıyor ve bunun gibi bir şey olacak.

Çoğu görev için evrensel bir ağdan daha iyi (heh))

ZZY Burada ayrıca verilen modelin yuvarlandığı veya mevcut olmadığı tüm görevler altında kontrol etmek istiyorum. Bir kafa iyidir, ancak bir koroda daha iyi çıkacaktır.

CProcessing sınıfının alt öğelerini değiştirerek nöron tiplerini tek tek değiştirmek mümkün olacaktır.

Ek olarak bir dizi nöron türü ekleyebilir ve her biri için kendi türlerini ayarlayabilirsiniz (soylardan CProcessing'i seçerek).

ZZZY Geri bildirimler şekil Zx'te belirtilmiştir.

 
Ukrayna :

Öyleyse neden maskeniz çıktıya bağlı ve tekrar nöronlara bağlı değil)

Ve etkinleştirme işlevini GPU'ya nasıl zorlamak istersiniz?

IMHO, geçen seferki gibi önemsiz olanı iteceksin. Ama bu IMHO, bu yüzden güvenle uzanabilirsiniz.

İş dışında artık seni rahatsız etmeyeceğim.

Ah, cognitron. Başka ne - hopfield ağı - bir girdi var bir çıktı. Bir de seyrek...