Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3295
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
1. Was hat das mit Optimierung zu tun?
2. Eine Gegenfrage 💩 ist ein neuronales Netz ein Optimierer oder ein Approximator?
1. Was hat "hier" mit was zu tun?
2. Weißt du immer noch nicht, dass ein neuronales Netz ein Approximator ist?
1. An welchem Ort "hier"?
2. wissen Sie immer noch nicht, dass ein neuronales Netz ein Approximator ist?
eine analogie sei als beispiel genannt: wenn man eine ebene oberfläche von zwei stäben aus verschiedenen metallen poliert, gleiten die stäbe umso besser aufeinander, je geringer die rauheit ist. wenn man die oberflächen weiter poliert, kleben die stäbe aneinander, die moleküle beginnen von den beiden stäben aus ineinander zu dringen, d.h. es kommt nicht zu einer weiteren reduktion der reibungskräfte, sondern im gegenteil zu einem sprunghaften wachstum!
Wahrscheinlich ist das widersprüchlich, aber die Idee ist klar.
Ich stimme zu
aber es wird kein plötzliches Wachstum geben, denn:
- nicht jeder ist so stur, dass er bei der erreichten Entwicklung der Intelligenz nicht stehen bleibt.
- sich Geschäftsgeheimnisse und hohe Preise bilden, was wiederum Angebot und Nachfrage reduziert
Ihr Gedanke steht ganz am Anfang auf Ihrer eigenen Grafik: geringe Quantität bei hoher Qualität.
Das wissen Sie offenbar nicht. Sonst würden Sie sich nicht fragen, was die Angleichung damit zu tun hat.
Ich habe Ihre Frage beantwortet, warum wiederholen Sie sich?
Mein Beitrag bezog sich auf den Beitrag von Sanych, der die krummen FF erwähnte.
Kannst du das verstehen?
Und du kannst auch nicht verstehen, dass Lernen jeglicher Art ohne Optimierung nicht möglich ist, sie sind untrennbare Dinge.
Ich habe Ihre Frage beantwortet, warum wiederholen Sie sich?
Mein Beitrag bezog sich auf den Beitrag von Sanych, der den krummen FF erwähnte.
Können Sie das verstehen?
Und Sie können auch nicht verstehen, dass Lernen in irgendeiner Form nicht ohne Optimierung möglich ist, das sind untrennbare Dinge.
Das ist wahrscheinlich widersprüchlich, aber ich verstehe die Idee.
Ich stimme zu
aber es wird kein plötzliches Wachstum geben, denn:
- nicht jeder ist so stur, dass er bei der erreichten Entwicklung der Intelligenz nicht stehen bleibt.
- sich Geschäftsgeheimnisse und hohe Preise bilden, was wiederum Angebot und Nachfrage reduziert
Ihr Gedanke steht ganz am Anfang auf Ihrer eigenen Grafik.
Ich habe das Beispiel mit den polierten Stäben genannt, da gibt es einen Sprung in den Reibungskräften.
Mit Informationen wird es natürlich keinen Sprung geben, sondern einen geglätteten Übergang.
Er schrieb richtig, dass wir nicht über das Konzept der Extrema verfügen. Wir haben Näherungs- und Stabilitätskriterien für neue Daten, die die Komponenten des Modellfehlers sind.
Verbessern Sie die Näherungs- und Stabilitätskriterien iterativ oder nicht?
Oder ist es wie im Märchen, als ein reicher Mann 30 Jahre lang auf dem Herd lag und plötzlich aufstand und allen in den Hintern trat? In 10 Tagen verschwindet das Schmiermittel in unbeweglichen Gelenken, so dass der reiche Mann niemanden mehr treten kann, aber er wird in 10 Tagen auch nicht mehr aufstehen können.
Nein, man macht es iterativ, verbessert die Ergebnisse, es ist ein Optimierungsprozess.
Annäherung und Stabilitätskriterien iterativ verbessern oder nicht?
Nein, man verbessert die Schätzungen iterativ, es handelt sich um einen Optimierungsprozess.
Was soll das bedeuten?