Was soll in den Eingang des neuronalen Netzes eingespeist werden? Ihre Ideen... - Seite 59

 
mytarmailS #:
Nun, entscheiden Sie sich.

Annäherung ist kein Lernen, aber Neuronik ist eine Annäherung...

Neuronics ist nicht trainierbar?


Der eine hält DB für einen Klassifikator, der andere verwechselt es mit Approximation....

Was seid ihr Experten? 😀.
Lernen ist ein umfassenderes Konzept als Optimierung und Approximation. Warum ist es so schwierig? Weil die Scoofs die Kurve gekriegt haben?
 
Maxim Dmitrievsky #:
Lernen ist ein umfassenderes Konzept als Optimierung und Annäherung. Warum ist es so schwierig?
Breit, eng.

Das Trainieren eines Modells auf einem Trainee ist nichts anderes als eine Kurvenanpassung, d.h. eine Annäherung... mehr Details.
 
mytarmailS #:
Breit, schmal.

Das Trainieren eines Modells auf einem Trainee ist nichts anderes als Curvafitting, d.h. Annäherung... weitere Details
Das ist Ihre persönliche Meinung.
 
Ich habe eine Frage und Verwunderung in einer Flasche. Beabsichtigen Sie wirklich, die Diskussion über das Verteidigungsministerium mit nacktem Hintern, d.h. ohne minimale Kenntnisse des Diskussionsgegenstands, fortzusetzen? :)
 
Maxim Dmitrievsky #:
Ich habe eine Frage und Verwunderung in einer Flasche. Beabsichtigen Sie wirklich, die Diskussion über das Verteidigungsministerium mit nacktem Hintern, d.h. ohne minimale Kenntnisse des Diskussionsgegenstands, fortzusetzen? :)
Na ja, wenn die Vertiefung des Themas für sie darin besteht, mit gpt zu plaudern, was meinen Sie?


Sie werden nicht einmal in der Lage sein, eine Frage richtig zu formulieren, weil ihnen das Wissen und die Terminologie fehlen.
 
mytarmailS #:
Nun, wenn das Thema Deep Learning für sie das Chatten mit gpt ist, was meinen Sie dann?
Zumindest ist er besser ausgebildet als andere. Eine Menge Experten haben hart gearbeitet.
 
Maxim Dmitrievsky #:
Zumindest ist er besser ausgebildet als andere. Eine Menge Experten haben hart gearbeitet.
Die Halluzinationen sind nicht verschwunden
 
mytarmailS #:
Die Halluzination hat sich nicht aufgelöst.
Dies ist ein bekanntes Problem bei neuen Daten. Als Wissensbasis ist es durchaus tolerierbar :)
 
Maxim Dmitrievsky #:
Dies ist ein bekanntes Problem bei neuen Daten. Als Wissensbasis ist es durchaus tolerierbar :)
Ich denke darüber nach, eine Wissensdatenbank auf dem Markt zu erstellen und dann damit zu handeln.

Sie können zum Beispiel Obsidian verwenden
 
Forester #:

Die höchste Qualität des Trainings wird bei absolut exakter Speicherung erreicht, d. h. wenn alle Daten vollständig in der Datenbank erfasst sind, oder wenn ein Baum bis zum letztmöglichen Split oder Clustering mit Anzahl der Cluster = Anzahl der Beispiele trainiert wird.

Bäume, bei denen die Aufteilung früher aufhört oder die Clusterbildung mit weniger Clustern erfolgt, verallgemeinern und verschmelzen die Daten in den Blättern/Clustern. Es handelt sich dabei um unzureichend trainierte Modelle, die jedoch bei Vorhandensein von Rauschen erfolgreicher sein können als Modelle mit exaktem Recall.

Zu Beginn des MO-Zweiges gab es ein Beispiel, bei dem einem Gerüst das Einmaleins beigebracht wurde. Da es nicht mit einer unendlichen Anzahl von Auswahlmöglichkeiten gefüttert wurde, produziert der Wald manchmal exakte Antworten, aber meistens ungefähre Antworten. Er ist eindeutig untertrainiert. Aber er ist in der Lage, zu verallgemeinern - er findet und mittelt die Antworten, die den richtigen Antworten der einzelnen Bäume am nächsten kommen.

Beim Lernen im Rauschen ist es schwierig, die Qualität zu beurteilen. Vor allem, wenn das Rauschen viel stärker ist als die Muster, wie beim Handel.

Zu diesem Zweck erfand man die Bewertung anhand von Validierungs- und Teststichproben, die Kreuzvalidierung, das Vorwärtsschieben usw.

So kam das Wort Bewertung auf, großartig.

Lernen muss also irgendwie bewertet werden, egal wie, wichtig ist, dass man die Bewertung verbessert. Richtig?