L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3296
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non ho una domanda. Ho scritto perché un gran numero di caratteristiche dà scarsi risultati nell'inferenza causale.
e ti ho detto che è solo la tua ipotesi "all'aumentare del numero di caratteristiche, i risultati peggioreranno".
Ho espresso la mia ipotesi. nessuno qui in MO ha ancora provato a testarla a causa dei costi di sperimentazione. ma ti ricordo che qualcuno l'ha fatto per la GPT, c'è stato un salto nella qualità delle connessioni di informazioni eterogenee al punto che è stato possibile creare nuove connessioni e inferenze.
e ti ho scritto che è solo la tua ipotesi "all'aumentare dei tratti, i risultati peggioreranno".
Ho espresso la mia ipotesi. nessuno qui in MO ha ancora provato a testarla a causa dei costi degli esperimenti. ma ti ricordo che qualcuno l'ha fatto per il GPT, c'è stato un salto nella qualità delle connessioni di informazioni eterogenee a tal punto che è diventato possibile creare nuove connessioni e conclusioni.
Le ho scritto che questa è la sua ipotesi, non ho ipotizzato. È rigorosamente dimostrato.
Quello che hai detto NON è dimostrato, è un giudizio empirico, quindi la tua affermazione è un'ipotesi.
Non avevo domande da farle.
quello che hai detto NON è provato, sono giudizi empirici, quindi la tua affermazione è un'ipotesi.
Non avevo domande da farle.
Quale dito contro dito?
Esattamente, i modelli linguistici di grandi dimensioni sono addestrati esattamente allo stesso modo, e utilizzano algoritmi di ottimizzazione (puoi chiedere a GPT con quali algoritmi è stato addestrato, qualche mese fa ha risposto in modo inequivocabile, ora sta assecondando, ma mi limiterò a dire che ADAM è uno di questi). e non ho idea di che tipo di errore di apprendimento ci sia, proprio come non ne hai idea tu. Gli autori sono bravi solo perché sono riusciti a costruire criteri di valutazione per un modello di grandi dimensioni, il che è molto difficile, perché non basta raccogliere informazioni, bisogna essere in grado di valutare correttamente la qualità dell'addestramento (come ho detto, costruire criteri di valutazione non è meno importante).
A te piace misurarti. Non ti sto insegnando nulla, dovresti capire queste cose se pensi di essere un super-professionista.
Ti piace misurarti. Non ti sto insegnando nulla, dovresti capire queste cose se pensi di essere un super professionista.
Sei tu che pensi che io sia un super professionista e che scriva fuori tema. Non mi piace il blablabla, una poltiglia di argomenti non correlati, cosparsi di trucchi psicologici, come i riferimenti alle autorità. Se sei troppo pigro per leggere le prove, non posso aiutarti ulteriormente.
Hai citato la GPT come una sorta di prova di non si sa cosa. Stai scrivendo solo per il gusto di scrivere. Non c'è alcun messaggio significativo. Non mi interessa l'ottimizzazione, questa è la terza domanda. Non ho scritto di ottimizzazione e non ho fatto domande in merito. Se l'apprendimento include l'ottimizzazione, non significa che l'apprendimento sia ottimizzazione. La conversazione non verteva affatto su questo.