Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 58

 
Cosa c'è di sbagliato nella definizione abituale di apprendimento, ovvero l'assegnazione di valori specifici ai parametri del modello?
 
Aleksey Nikolayev #:
Cosa c'è di sbagliato nella definizione abituale di apprendimento - assegnare valori specifici ai parametri del modello?
Potete chiederlo al modello stesso :)

La definizione usuale di apprendimento come assegnazione di valori specifici ai parametri del modello può essere insufficiente per diversi motivi:

  1. Incompletezza della descrizione del processo: l'addestramento del modello non comporta solo l'assegnazione di valori ai parametri, ma anche il processo di ottimizzazione di questi parametri sulla base dei dati. Questo processo può includere la selezione di un algoritmo di ottimizzazione, la regolazione degli iperparametri, la selezione di una funzione di perdita e altri aspetti che non sono coperti dalla semplice assegnazione dei valori.

  2. Ignorare le dinamiche di apprendimento: l'addestramento del modello è un processo dinamico che può comportare molte iterazioni e fasi. La semplice assegnazione dei valori non coglie questa natura iterativa, in cui i parametri vengono gradualmente regolati per minimizzare l'errore.

  3. Mancanza di contesto dei dati: l'addestramento del modello è guidato dai dati e il processo di addestramento comporta l'analisi e l'interpretazione di tali dati. La semplice assegnazione di valori non tiene conto del modo in cui i dati vengono utilizzati per addestrare il modello e di come influiscono sui parametri finali.

  4. Mancata considerazione della generalizzazione: l'obiettivo dell'addestramento del modello non è solo quello di ridurre al minimo l'errore sui dati di addestramento, ma anche la capacità del modello di generalizzare le proprie conoscenze a nuovi dati non visti. La semplice assegnazione di valori non coglie questo aspetto della generalizzazione.

  5. Ignorare la convalida e i test: il processo di formazione prevede anche la convalida e il test del modello per valutarne le prestazioni ed evitare l'overtraining. La semplice assegnazione di valori non tiene conto di queste fasi importanti.

Pertanto, una definizione più completa di apprendimento del modello dovrebbe includere un processo di ottimizzazione dei parametri guidato dai dati, tenendo conto delle dinamiche di apprendimento, del contesto dei dati, della capacità di generalizzazione e delle fasi di validazione e test.

 
In generale, mi chiedo perché esperti di valore si mettano a discutere di un argomento complesso e interessante senza essersi orientati in esso :)
 
Forester #:

Informazioni sulla formazione...


Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.



Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:



1 riga nel database contiene solo 1 esempio dai dati memorizzati nel database. 1 foglia contiene:



1) 1 esempio e tutti gli esempi esattamente uguali (quando si divide l'albero il più possibile fino all'ultima differenza) o

2) 1 esempio ed esattamente gli stessi esempi + gli esempi più simili se la divisione si ferma prima.
Gli esempi simili sono definiti in modo diverso dai diversi algoritmi quando selezionano le suddivisioni dell'albero.

Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.

Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.

Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.

In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.

Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.
Se solo sapeste quante sciocchezze avete detto con uno sguardo intelligente.

Ma non ho il tempo o la voglia di spiegarlo.
 
Forester #:

Informazioni sulla formazione...


Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.



Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:



1 riga nel database contiene solo 1 esempio dai dati memorizzati nel database. 1 foglia contiene:



1) 1 esempio e tutti gli esempi esattamente uguali (quando si divide l'albero il più possibile fino all'ultima differenza) o

2) 1 esempio ed esattamente gli stessi esempi + gli esempi più simili se la divisione si ferma prima.
Gli esempi simili sono definiti in modo diverso dai diversi algoritmi quando selezionano le suddivisioni dell'albero.

Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.

Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.

Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.

In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.

Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.

E come si determina la qualità dell'apprendimento?
 
Andrey Dik #:

e come viene determinata la qualità dell'insegnamento?

La massima qualità di apprendimento si ottiene con una memorizzazione assolutamente accurata, cioè con una registrazione completa di tutti i dati nel database, o con l'addestramento di un albero fino all'ultima divisione possibile o con un clustering con numero di cluster = numero di esempi.

Gli alberi che smettono di dividersi prima o che si raggruppano con un numero inferiore di cluster generalizzano e uniscono i dati nelle foglie e nei cluster. Si tratta di modelli poco addestrati, ma in presenza di rumore possono avere più successo dei modelli con richiamo esatto.

All'inizio del ramo MO c'è stato un esempio in cui si insegnava a uno scaffold la tabella delle moltiplicazioni. Poiché non gli è stato fornito un numero infinito di scelte possibili per l'addestramento, la foresta produce a volte risposte esatte, ma per lo più risposte approssimative. È chiaro che è poco addestrata. Ma è in grado di generalizzare, trovando e mediando le risposte più vicine a quelle corrette dei singoli alberi.

Con l'apprendimento nel rumore, è difficile valutare la qualità. Soprattutto se il rumore è molto più forte dei modelli, come nel trading.

A questo scopo sono state inventate la valutazione su campioni di convalida e di prova, la convalida incrociata, il jacking forward, ecc.
 
Forester #:

La massima qualità dell'addestramento si ottiene con una memorizzazione assolutamente accurata, cioè quando tutti i dati sono completamente registrati nel database, oppure quando si addestra un albero fino all'ultima divisione o clustering possibile con numero di cluster = numero di esempi.

Gli alberi che smettono di dividersi prima o di raggrupparsi con un numero inferiore di cluster generalizzano e uniscono i dati nelle foglie e nei cluster. Si tratta di modelli poco addestrati, ma in presenza di rumore possono avere più successo dei modelli con richiamo esatto.

All'inizio del ramo MO c'è stato un esempio in cui si insegnava a uno scaffold la tabella delle moltiplicazioni. Poiché non gli è stato fornito un numero infinito di scelte possibili per l'addestramento, la foresta produce a volte risposte esatte, ma per lo più risposte approssimative. Ovviamente, è poco addestrata. Ma è in grado di generalizzare, trovando e facendo la media delle risposte più vicine a quelle corrette dei singoli alberi.

Con l'apprendimento nel rumore è difficile valutare. Soprattutto se il rumore è molto più forte dei modelli, come nel trading.

Massimizzare la qualità dell'addestramento significa massimizzare la qualità delle previsioni su nuovi dati. Nessuno è interessato alle previsioni sul campione di allenamento, perché sono già note. Non si tratta più di apprendimento, ma di approssimazione. L'approssimazione non si chiama apprendimento.

Ad esempio, una MLP a due strati è un approssimatore universale che può approssimare qualsiasi funzione arbitraria con qualsiasi precisione. Questo significa che è addestrato alla massima qualità? Ovviamente no. Altrimenti non si inventerebbero altre architetture di reti neurali che sono migliori nell'apprendimento esatto, non nell'adattamento, per compiti specifici.

Debole, anche se sembra che l'argomento sia stato trattato a lungo.
 
Aleksey Nikolayev #:
Cosa c'è di sbagliato nella definizione abituale di apprendimento - assegnare valori specifici ai parametri del modello?

Non coglie l'essenza.



Si può assegnare qualsiasi tipo di scemenza o assurdità. Se partiamo dall'opposto (memorizzazione/ricordo), allora l'apprendimento è l'identificazione di certi schemi attraverso i quali si può creare o identificare nuova conoscenza. Per esempio: Chat scrive poesie su un argomento arbitrario.

 
Maxim Dmitrievsky #:
Massimizzare la qualità della formazione significa massimizzare la qualità delle previsioni sui nuovi dati. Nessuno è interessato alle previsioni sul campione di addestramento, perché sono già note. Questo non è apprendimento, è approssimazione. Non si chiama apprendimento l'approssimazione.

Ad esempio, una MLP a due strati è un approssimatore universale che può approssimare qualsiasi funzione arbitraria con qualsiasi precisione. Questo significa che è addestrato alla massima qualità? Ovviamente no. Altrimenti non avremmo inventato altre architetture di reti neurali che sono migliori nell'apprendimento, non nell'adattamento, per compiti specifici.
Quindi bisogna decidersi.

L'approssimazione non è apprendimento, ma la neuronica è un'approssimazione...

Neuronics non si addestra?


Uno pensa che il database sia un classificatore, l'altro si confonde con l'approssimazione....

Cosa siete voi esperti? 😀
 
mytarmailS #:
Beh, decidete.

L'approssimazione non è apprendimento, ma la neuronica è un'approssimazione...

Neuronics non è addestrabile?


Uno pensa che DB sia un classificatore, l'altro si confonde con l'approssimazione....

Cosa siete voi esperti? 😀
L'apprendimento è un concetto più ampio dell'ottimizzazione e dell'approssimazione. Perché è così difficile? Perché gli scoofs si sono messi d'accordo?