Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2451

 
Alexej Tarabanow #:

Es liegt alles vor uns.

Wie meinen Sie das?

 

Meine Enkelin lernt gerade Farsi und Chinesisch. Sie bittet auch um Japanisch, damit sie sie ausspionieren kann.

 
Alexej Tarabanow #:

Meine Enkelin lernt gerade Farsi und Chinesisch. Sie bittet auch um Japanisch, damit sie sie ausspionieren kann.

Cool natürlich, aber nicht zukunftsorientiert (Schuld der Eltern), es wäre besser für sie, Programmiersprachen zu lernen, die auch Denkfähigkeiten entwickeln...

Übersetzer sind jetzt schon sehr gut, in 10 Jahren, denke ich, können wir Chips in das Gehirn implantieren mit vielen Goodies, einschließlich der Übersetzung aller Sprachen, sie haben gelernt, wie man sich mit dem Gehirn verbindet, es ist nur eine Frage der Zeit ...

Viele Sprachen zu lernen ist also so, als würde man davon träumen, Pilot, Lkw-Fahrer, Taxifahrer usw. zu werden, ohne zu bemerken, dass der Tesla bereits mit vollem Autopilot an einem vorbeifährt... Sehr bald werden viele Arbeitsplätze für immer verschwunden sein und man muss darüber nachdenken...

 
Sie kennen Python mit dem Vornamen
 
Alexei Tarabanov #:
Mit Python beim Vornamen genannt

cool

 
Maxim Dmitrievsky #:
Die Hälfte der Neuronenaktivierungen ist für Klasse 1, die andere Hälfte für die andere Klasse. Auf der Grundlage einer solch primitiven Logik. Wenn sie schief sind, dann sind die Klassen vielleicht schlecht ausbalanciert. Und bei extremen Werten scheint der Farbverlauf zu explodieren oder zu verblassen

Max, ziehen Sie keine voreiligen Schlüsse.

Das Wort "möglicherweise" in Ihrem Beitrag deutet darauf hin, dass Sie über diese Formulierung der Frage nicht nachgedacht haben, nicht wahr?

Das neuronale Netz im Allgemeinen und MLP im Besonderen ist sehr flexibel, und der gleiche Satz von Merkmalen kann auf die gleiche Weise durch das gleiche Netz aufgeteilt werden, aber mit unterschiedlichen Werten der Neuronengewichte.... Richtig? - Es stellt sich also die Frage, welche dieser Varianten der Gewichtungsmenge robuster ist.

Und mit dem zweiten, der auf meinen Beitrag geantwortet hat, halte ich es nicht mehr für nötig, einen Dialog aufrechtzuerhalten - er ist sinnlos.

 
Alexej Tarabanow #:

Zhi, shi werden mit einem i geschrieben.

Es gibt Ausnahmen. ;)

 
Andrey Dik #:

Max, ziehen Sie keine voreiligen Schlüsse.

Das Wort "vielleicht" in Ihrem Beitrag deutet darauf hin, dass Sie nicht über diese Formulierung der Frage nachgedacht haben, oder?

Das neuronale Netz im Allgemeinen und MLP im Besonderen ist sehr flexibel, und derselbe Satz von Merkmalen kann von demselben Netz gleichmäßig aufgeteilt werden, aber mit unterschiedlichen Werten der Neuronengewichte.... Oder? - Es stellt sich also die Frage, welche dieser Varianten der Gewichtungsmenge robuster ist.

Und mit dem zweiten, der auf meinen Beitrag geantwortet hat, halte ich es nicht mehr für nötig, einen Dialog zu führen - er ist sinnlos.

Lassen Sie sich nicht auf Unfug ein. Sie haben die richtige Antwort erhalten, dass Sie im Test ein Modell auswählen sollten. Und noch besser bei der Kreuzvalidierung oder Bewertungsweitergabe.

Erfahrung wird zwar durch Übung gewonnen... Lernen) Dann kommen Sie zu den Tests.

 
elibrarius #:

Machen Sie keinen Blödsinn. Man hat Ihnen zu Recht gesagt, dass Sie sich im Test für ein Modell entscheiden sollen. Oder noch besser auf der Basis von Kreuzvalidierung oder Weiterleitung von Bewertungen.

Erfahrung wird zwar durch Übung gewonnen... Zu den Tests kommst du später.

im Test...? Ein Test ist dasselbe wie die Ableitung einer Funktion. Es kann sich um dieselbe Kurve handeln, die am selben Punkt tangiert wird, aber an zwei verschiedenen Funktionen.

Ich möchte keinem der alten Hasen in diesem Thread zu nahe treten, aber nach so vielen Jahren sollten Sie die Grundlagen kennen.

 

.