MetaTrader 5 Python User Group - wie man Python in Metatrader verwendet - Seite 82
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wie kann ich einen Ausgleich vornehmen?
Dies ist die Tabelle (Data Frame)
wie man es so macht:
Wofür? Einfach ausdrucken?
Wie kann ich einen Ausgleich vornehmen?
Dies ist die Tabelle (Data Frame)
Wie man das macht:
Hier, gefundenpandas.DataFrame.shift
Das Wichtigste ist, dass Sie nicht vergessen, die letzte Zeile zu streichen, da sie sonst Unsinn enthält.
Sehr geehrte Damen und Herren, bitte teilen Sie mir mit, was an meinem Verständnis falsch ist.
Ich habe ein neuronales Netz aufgebaut. Er hat die Daten vorbereitet.
Ausgebildet.
Ergebnis.
Und dann verstehe ich nicht, was passiert...
predictions = model.predict(X_test[:15])
.
Warum solche "Vorhersage"-Ergebnisse? Erwartet entweder 0-0, 0-1 oder 1-0....
Es ist immer so...
Wenn man eine Frage stellt, denkt jeder: Wozu die Mühe?
Subjektive Meinung: 93% der Zeit muss man googeln.... 90% der Zeit, die es braucht, um die Frage richtig zu beantworten....
Vielen Dank für das Feedback! Das ist alles für den Moment. Ich gehe zu google....
dies sind die Wahrscheinlichkeiten der Klassen 1 und 2
Die 2. hat eine höhere Wahrscheinlichkeit, also wird sie vorhergesagt
ihre Summe muss 1 sein, hier liegt eine Art Trainingsfehler vor
Bei einer binären Klassifizierung sollte 1 Neuron ausgegeben werden. Oder Softmaxdies sind die Wahrscheinlichkeiten der Klassen 1 und 2
Die 2. hat eine höhere Wahrscheinlichkeit, also wird sie vorhergesagt
ihre Summe sollte gleich 1 sein, hier liegt eine Art Trainingsfehler vor
Bei einer binären Klassifizierung benötigen Sie 1 Neuron pro Ausgabe. Oder SoftmaxBinäre Klassifizierung bedeutet nicht, dass 1 Neuron pro Ausgabe vorhanden ist. Zumindest von dem, was ich gefunden habe...
Das Problem ist jedoch, dass sich das Bild auch bei Verwendung anderer Verlustfunktionen nicht ändert!
Ich werde morgen einen Datentester mit Vorhersagevalidierung schreiben. Aber irgendetwas sagt mir, dass das Ergebnis beklagenswert sein wird!
Ich kann nur nicht verstehen, warum die "Genauigkeit" über 96% liegt und die Vorhersage "so" ist...
Vielleicht mache ich etwas falsch?
Binäre Klassifizierung bedeutet nicht, dass 1 Neuron pro Ausgang vorhanden ist. Zumindest von dem, was ich gefunden habe...
Das Problem ist jedoch, dass sich das Bild auch bei Verwendung anderer Verlustfunktionen nicht ändert!
Ich werde morgen einen Datentester mit Vorhersagevalidierung schreiben. Aber irgendetwas sagt mir, dass das Ergebnis beklagenswert sein wird!
Ich kann nur nicht verstehen, warum die "Genauigkeit" über 96% liegt und die Vorhersage "so" ist...
Vielleicht mache ich etwas falsch?
Ich habe wohl keine Ahnung, um welche Art von Netzwerkkonstruktor es sich handelt.
1 Neuron bedeutet nicht, dass ein Addierer stehen sollte und eine Aktivierung f-e. Normalerweise setzt man 1 Neuron
kann es viele Gründe geben. Zum Beispiel sind die Daten nicht normalisiert, nicht richtig aufbereitet, das Netz ist krummIch habe wohl keine Ahnung, um welche Art von Netzwerkkonstruktor es sich handelt.
1 Neuron bedeutet nicht, dass ein Addierer vorhanden sein muss, sondern eine Aktivierung f-e. Normalerweise ist es 1 Neuron.
Dafür kann es viele Gründe geben. Zum Beispiel sind die Daten nicht normalisiert, nicht richtig aufbereitet, das Netz ist nicht richtig aufgebautDas Problem ist, dass die Normalisierung ein hoffnungsloser Fall ist!
Lassen Sie mich das erklären. Es gibt einige Daten A, B, C...
Sie unterscheiden sich in Bezug auf ihre Bedeutung und so weiter. Alle (Google) sagen, dass die Normalisierung nach Spalten (A-A-A, B-B-B, C-C-C) und nicht nach Zeilen erfolgen sollte. Das ist logisch nachvollziehbar.
Aber wenn neue Daten für die "Vorhersage" erscheinen, WIE kann man sie normalisieren, wenn es nur EINE Zeile ist? Und jeder Begriff in dieser Reihe kann über die Normalisierung von Trainings- und Testdaten hinausgehen?
Und die Normalisierung nach Zeichenketten hat keine Auswirkungen!
Eigentlich hatte ich schon nach der Überprüfung dieser Nuancen diesen "Schrei der Seele" ))))