Hybride neuronale Netze.

 

Ich möchte nicht, dass das Thema einfach in die Statistik der neuronalen Netze übergeht.

Ich schlage vor, Erfahrungen und Probleme bei der Arbeit und dem Training von nicht standardisierten neuronalen Netzarchitekturen auszutauschen.

Hier ist der erste Link zur Theorie

http://cgm.computergraphics.ru/content/view/62

oder pdf-Datei

Dateien:
num6neiro.zip  636 kb
 
sergeev >> :

Ich möchte nicht, dass das Thema einfach in die Statistik von neuronalen Netzen übergeht.

Ich schlage vor, Erfahrungen und Probleme bei der Arbeit und dem Training von nicht standardisierten neuronalen Netzarchitekturen auszutauschen.

Hier ist der erste Link zur Theorie

http://cgm.computergraphics.ru/content/view/62

oder eine pdf-Datei


Im Bereich der neuronalen Netze bin ich mit Heikin aufgewachsen. Ich sage Ihnen gleich zu Beginn, dass das Buch nicht einfach ist. Man muss sehr gut in Mathe sein und sich mit dem Vornamen anreden können, und zwar mit einem großen T.

Außerdem möchte ich anmerken, dass selbst in diesem Buch eines renommierten Verlags eine Menge Fehler enthalten sind. Ob sie zufällig dabei waren oder nicht, ist eine dritte Frage.

Bei neuronalen Netzen ist es besser, die Originale einzulesen. Und das ist Englisch...

 
Der Titel passt irgendwie nicht zum Inhalt. In dem Link werden mehrere kanonische (Standard-)Netzwerkmetaphern beschrieben und nur ein Absatz über hybride Metaphern, der besagt, dass alles Beschriebene kombiniert werden kann. Das heißt, es gibt nichts Hybrides oder Nicht-Standardisiertes. Was ist der Sinn des neuen Themas?
 

Es ist seltsam, entweder interessiert sich fast niemand dafür oder alle betrinken sich an dem, was sie haben, und niemand will den Platz verteilen.

eher die zweite)

 
Es gibt Versuche, hybride Netze auf der Grundlage von Fuzzy-Logik zu verwenden. Sie wird noch verfeinert.
 
dentraf писал(а) >>
Es gibt Versuche, hybride Netze auf der Grundlage von Fuzzy-Logik zu verwenden. Noch in der Verfeinerungsphase.

Anfisa mz Matlaba oder fuzzyTech versuchen, sich zu verbessern :)

 
SergNF писал(а) >>

Anfisa mz Matlaba oder fuzzyTech versuchen, sich zu verbessern :)

nein, das MQL sagt

 
sergeev >> :

Ich lade Sie ein, Ihre Erfahrungen und Herausforderungen beim Arbeiten und Lernen mit Nicht-Standard-Architekturen neuronaler Netze zu teilen....

Ist es nicht an der Zeit, mit dem Erfahrungsaustausch zu beginnen?

 
Meine Herren, ich trainiere meine Perceptrons mit dem Backpropagation-Algorithmus. Es funktioniert, aber die Wahrscheinlichkeit, ein globales Extremum zu finden, liegt bei 50%-70% (von 100 Neuronen). Vor kurzem habe ich das Schreiben von Genetik für XORa beendet - ich war glücklich. Aber als sich das durchschnittliche Perceptron vervielfachte und sich zu paaren begann, wurde mir klar, dass ich ohne parallele Berechnungen einen Monat lang sitzen würde! Wer hat diese Einschränkung überwunden?
 
IlyaA >> :
Meine Herren, ich trainiere meine Perceptrons mit dem Backpropagation-Algorithmus. Es funktioniert, aber die Wahrscheinlichkeit, ein globales Extremum zu finden, liegt bei 50%-70% (von 100 Neuronen). Vor kurzem habe ich das Schreiben von Genetik für XORa beendet - ich war glücklich. Aber als sich das durchschnittliche Perceptron vervielfachte und sich zu paaren begann, wurde mir klar, dass ich ohne parallele Berechnungen einen Monat lang sitzen würde! Wer hat diese Einschränkung überwunden?

Von welcher Einschränkung genau sprechen Sie?

 
joo >> :

Von welcher Art von Einschränkung sprechen Sie?

Zeitliche Begrenzung.