Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 586
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Versuchen Sie also, eine zu finden.)) Eine solche MLP wäre optimal.
Gestern habe ich eine NS-Faltung gefunden, die normalerweise für die Bilderkennung verwendet wird. Natürlich gibt es alle Hilfsmittel - Ausbildung, usw. Entwickelt für die Verwendung in Python.
Es gibt auch Wiederholungen und so weiter, aber das ist noch nicht interessant.
Da das Faltungsnetz nicht vollständig vernetzt ist, können wir die Anzahl der Neuronen ohne Leistungseinbußen stark erhöhen. Aber es ist notwendig, Details zu verstehen, ich bin noch nicht ins Detail gegangen.
Eine beliebte Beschreibung -https://geektimes.ru/post/74326/Schauen Sie sich HTM genau an - ich habe Ihnen bereits geschrieben. Seine Struktur impliziert die Verwendung von Kontext. Und es gibt eine Python-Implementierung.
Über die Nicht-Stationarität von Haykin
Darüber habe ich (und nicht nur ich) geschrieben, und es ist so, als wäre alles schon längst bewiesen :)
Ich weiß zufällig, dass es eine neue Version des gbm-Pakets gibt, die noch nicht in den Cran-Repositories ist.
https://github.com/gbm-developers/gbm3
Installation:
Danach wird die aktualisierte Bibliothek in r gbm3 genannt:
Ich habe lediglich den Namen der Bibliothek im r-Skriptcode von gbm in gbm3 geändert, der Rest des Codes funktioniert ohne Änderungen.
Wenn ich nach Parametern für das gbm-Modell suchte, kam es manchmal vor, dass das Training viel Arbeitsspeicher verbrauchte und der ganze Computer ein Dutzend Minuten lang hing. Mit der neuen Version ist das noch nicht passiert, ich empfehle, sie auszuprobieren.
Über die Nicht-Stationarität von Haykin
Über das, was ich (und nicht nur) und schrieb, und hier, als ob alles schon längst bewiesen ist :)
Ich verstehe den Text über die Nicht-Stationarität überhaupt nicht: Das Eintreffen neuer Beobachtungen zerstört die zuvor offenbarten Beziehungen? Vielleicht liegt es an meiner Unkenntnis der NS, aber es gibt genau eine Linie von Beobachtungen, die in Bäumen berücksichtigt werden, und es ist unmöglich, zuvor konstruierte Bäume zu zerstören. Es kann sein, dass sie in der Zukunft nicht mehr vorkommen, es kann sein, dass genau dieselben Bäume in der Zukunft auftauchen, aber sie werden zu einer anderen Klasse gehören, aber die alten werden alle erhalten bleiben.
PS.
Es gibt Bäume, die bei der Erstellung eines Baumes ein paar Zeilen berücksichtigen... aber es scheint das Wesen der Sache nicht zu verändern
Ich verstehe den Text über die Nicht-Stationarität überhaupt nicht: Das Eintreffen neuer Beobachtungen zerstört die zuvor ermittelten Beziehungen? Vielleicht liegt es an meiner Unkenntnis der NS, aber bei Bäumen wird genau eine Beobachtungslinie berücksichtigt, und es ist unmöglich, zuvor konstruierte Bäume zu zerstören. Es kann sein, dass sie in der Zukunft nicht mehr vorkommen, es kann sein, dass genau dieselben Bäume in der Zukunft auftauchen, aber sie werden zu einer anderen Klasse gehören, aber die alten werden alle erhalten bleiben.
PS.
Es gibt Bäume, die bei der Erstellung eines Baumes ein paar Zeilen berücksichtigen... aber das scheint nichts an der Sache zu ändern.
Nein, es läuft darauf hinaus, konsequent pseudo-stationäre Serien aufzubauen und so viel wie möglich neu zu lernen... das ist im Grunde das, was ich tue
oder lineare/nichtlineare Filter bauen... Ich verstehe, dass man vorher die Dynamik der Veränderung des Einflusses der Prädiktoren auf das Ziel berücksichtigen und versuchen muss, die Ausgabe über Filterkoeffizienten in Abhängigkeit von Veränderungen in der Umgebung anzupassen
Nun, im Allgemeinen nichts Besonderes. Zumindest in diesem Kapitel.
Über die Nicht-Stationarität von Haykin
Darüber habe ich (und nicht nur ich) geschrieben, und hier ist es so, als wäre alles schon lange bewiesen :)
Über die Nicht-Stationarität von Haykin
Darüber habe ich (und nicht nur ich) geschrieben, und hier ist es so, als wäre alles schon lange bewiesen :)
Werfen Sie einen Blick auf HTM - ich habe Ihnen bereits geschrieben. Seine Struktur nutzt den Kontext. Und es gibt eine Implementierung in Python.
Ich habe in unserer Korrespondenz nichts gefunden. Was ist HTM und was ist das?
Ich habe vor 2-3 Tagen angefangen, Python zu lernen. Ich verstehe noch nicht viel). Es wird also eine Weile dauern, bis ich mit der Arbeit beginnen kann.
Ich habe in unserer Korrespondenz nichts gefunden. Was ist HTM und was ist das?
Ich habe vor 2-3 Tagen angefangen, Python zu lernen. Ich verstehe noch nicht viel). Es dauert also eine Weile, bis ich zur Sache komme.
Sie können von hier aus starten: https://numenta.org/implementations/
Es gibt ein Buch auf Russisch - die Übersetzung ist fast ausreichend.