L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3296

 
Maxim Dmitrievsky #:
Non ho una domanda. Ho scritto perché un gran numero di caratteristiche dà scarsi risultati nell'inferenza causale.

e ti ho detto che è solo la tua ipotesi "all'aumentare del numero di caratteristiche, i risultati peggioreranno".

Ho espresso la mia ipotesi. nessuno qui in MO ha ancora provato a testarla a causa dei costi di sperimentazione. ma ti ricordo che qualcuno l'ha fatto per la GPT, c'è stato un salto nella qualità delle connessioni di informazioni eterogenee al punto che è stato possibile creare nuove connessioni e inferenze.

 
Andrey Dik #:

e ti ho scritto che è solo la tua ipotesi "all'aumentare dei tratti, i risultati peggioreranno".

Ho espresso la mia ipotesi. nessuno qui in MO ha ancora provato a testarla a causa dei costi degli esperimenti. ma ti ricordo che qualcuno l'ha fatto per il GPT, c'è stato un salto nella qualità delle connessioni di informazioni eterogenee a tal punto che è diventato possibile creare nuove connessioni e conclusioni.

Le ho scritto che questa è la sua ipotesi, io non ho ipotizzato. È rigorosamente dimostrato.

Non paragonare dito a dito, i modelli linguistici di grandi dimensioni vengono addestrati esattamente nello stesso modo. E non hai idea di quale sia l'errore di apprendimento.

Altre domande?

 
Maxim Dmitrievsky #:
Le ho scritto che questa è la sua ipotesi, non ho ipotizzato. È rigorosamente dimostrato.

Ci sono altre domande?

Quello che hai detto NON è dimostrato, è un giudizio empirico, quindi la tua affermazione è un'ipotesi.

Non avevo domande da farle.

 
Andrey Dik #:

quello che hai detto NON è provato, sono giudizi empirici, quindi la tua affermazione è un'ipotesi.

Non avevo domande da farle.

È dimostrato. Solo perché non sai che è provato, non significa che non lo sia. Ancora una volta, sto fornendo un link al rapporto baes-varianza.

E non fatemi parlare di ciò che è provato e ciò che non è provato. Ci sono guru più seri là fuori.
 
Maxim Dmitrievsky #:

Non paragonare dito a dito, i modelli linguistici di grandi dimensioni vengono addestrati esattamente nello stesso modo. E non hai idea del tipo di errore di apprendimento.

Quale dito contro dito?

Esattamente, i modelli linguistici di grandi dimensioni sono addestrati esattamente allo stesso modo, e utilizzano algoritmi di ottimizzazione (puoi chiedere a GPT con quali algoritmi è stato addestrato, qualche mese fa ha risposto in modo inequivocabile, ora sta assecondando, ma mi limiterò a dire che ADAM è uno di questi). e non ho idea di che tipo di errore di apprendimento ci sia, proprio come non ne hai idea tu. Gli autori sono bravi solo perché sono riusciti a costruire criteri di valutazione per un modello di grandi dimensioni, il che è molto difficile, perché non basta raccogliere informazioni, bisogna essere in grado di valutare correttamente la qualità dell'addestramento (come ho detto, costruire criteri di valutazione non è meno importante).

 
Maxim Dmitrievsky #:

E non fatemi iniziare a parlare di cosa è provato e cosa no. Ci sono insegnanti più seri.

A te piace misurarti. Non ti sto insegnando nulla, dovresti capire queste cose se pensi di essere un super-professionista.

 
Andrey Dik #:

Ti piace misurarti. Non ti sto insegnando nulla, dovresti capire queste cose se pensi di essere un super professionista.

Sei tu che pensi che io sia un super professionista e sei fuori tema. Non mi piace il blablabla, una poltiglia di argomenti slegati tra loro, cosparsi di trucchi psicologici come la citazione di autorità. Se sei troppo pigro per leggere le prove, non posso più aiutarti.
 
Maxim Dmitrievsky #:
Sei tu che pensi che io sia un super professionista e che scriva fuori tema. Non mi piace il blablabla, una poltiglia di argomenti non correlati, cosparsi di trucchi psicologici, come i riferimenti alle autorità. Se sei troppo pigro per leggere le prove, non posso aiutarti ulteriormente.

Quali autorità ho citato? Credo che lei sia solito ostentare riferimenti ad autorità e ai loro articoli.
Non sono un esperto di MO, ma conosco molto bene l'ottimizzazione e, dato che il MO non esiste senza l'ottimizzazione, posso partecipare a qualsiasi discussione qui senza esitazioni.
 
Andrey Dik #:

A quali autorità ho fatto riferimento? Penso che di solito ostentiate riferimenti ad autorità e ai loro articoli.
Non sono un esperto di MO, ma so molto sull'ottimizzazione e, dato che non c'è MO senza ottimizzazione, posso partecipare a qualsiasi discussione qui senza esitazioni.
Hai citato la GPT come una sorta di prova di qualcosa che non capisci. Scrivi per il gusto di scrivere. Non c'è alcun messaggio significativo. Non sono interessato all'ottimizzazione, questa è la terza domanda. Non ho scritto di ottimizzazione e non ho fatto domande in merito. Se l'apprendimento include l'ottimizzazione, non significa che l'apprendimento sia ottimizzazione. La conversazione non verteva affatto su questo.

Semplicemente non hai capito quello che ho scritto e hai iniziato a scrivere di cose malate che ti sono più vicine.
 
Maxim Dmitrievsky #:
Hai citato la GPT come una sorta di prova di non si sa cosa. Stai scrivendo solo per il gusto di scrivere. Non c'è alcun messaggio significativo. Non mi interessa l'ottimizzazione, questa è la terza domanda. Non ho scritto di ottimizzazione e non ho fatto domande in merito. Se l'apprendimento include l'ottimizzazione, non significa che l'apprendimento sia ottimizzazione. La conversazione non verteva affatto su questo.

Non hai scritto sull'ottimizzazione, quindi perché stai curiosando?
Non ho scritto a te.
E l'apprendimento è un caso speciale di ottimizzazione, ricordatelo.
Vedi, non ha scritto! Ah, quindi ora devo chiedere il permesso di scrivere su cosa scrivere e su cosa non scrivere? Calmati!