Hybride neuronale Netze. - Seite 11

 
gumgum >> :

................

Wozu ist das alles gut?

 
joo писал(а) >>

>> welches n?

 

Es tut mir leid, Kaugummi, aber ich weiß nicht, warum und wofür. Entweder bin ich dumm, oder Sie verschweigen mir etwas.

Welchen Sinn hat es, eine so einfache Funktion zu optimieren?

 

Um den Fehler gleichmäßig zu reduzieren, muss man eine sehr niedrige Lernrate wählen, was jedoch eine unannehmbar lange Lernzeit zur Folge haben kann.

Hier denke ich an eine funktionale Änderung der Lernrate während des Lernprozesses.

 
joo писал(а) >>

Es tut mir leid, Kaugummi, aber ich weiß nicht, warum und wofür. Entweder bin ich dumm, oder Sie verschweigen mir etwas.

Welchen Sinn hat es, eine so einfache Funktion zu optimieren?

Sie muss nicht optimiert werden.

 
Joo, danke für den Link, sehr interessant!
 
gumgum >> :

>> Es muss nicht optimiert werden.

Der Farbverlauf ist eigentlich eine nützliche Sache, aber er löst das Problem nicht immer

 
gumgum >> :

Reden wir über Gradientenabstieg oder so etwas? Ich weiß nicht wie, und ich weiß nicht, was es tun würde.

Ich weiß nicht alles über alle Optimierungsmethoden, ich spreche nur über das, was ich gut kann. Deshalb habe ich vorgeschlagen, ein ff durchzuführen, um Ihre Methode mit anderen zu vergleichen und etwas Neues zu lernen.

 
IlyaA писал(а) >>

Deutlicher geht es nicht mehr :-D. Tun Sie mir einen Gefallen und beschreiben Sie es mit anderen Worten von Anfang an. Oder verwenden Sie einfach mehr Wörter.

Ich werde heute ein Experiment durchführen.... >> Ich werde es morgen veröffentlichen!

 
gumgum >> :

>> Es muss nicht optimiert werden.

Sie denken richtig, denn das ist es, was sie tun, wenn die Epochen wachsen, um die Lernkurve zu senken.