L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3008

 
mytarmailS #:

Siamo rimasti con il superamento degli obiettivi, ma stiamo lentamente arrivando a RL.

L'ho già superato :) il punto debole è l'approssimatore, che non può isolare e poi generalizzare. Ma è utile per la formazione generale. Non distingue NS tra quasi-utile e effettivamente utile. A causa della piccola frazione di utili effettivi nei dati. Aggiungere un po' di utile ai dati funzionerebbe.

Si tratta di seguire le innovazioni più efficaci e di essere tra i primi ad applicarle prima che diventino mainstream, oppure di andare in bicicletta.

I Transformers non hanno funzionato, vediamo cos'altro si inventeranno.
 
Maxim Dmitrievsky #:
Transformers non ha funzionato, vediamo cos'altro si inventeranno.

Sarai troppo vecchio per aspettare.

 
mytarmailS #:

sarai troppo vecchio per aspettare.

Non ci spero più di tanto, mi limito a sbirciare ogni tanto. Dopo tutti i gpt prevedo stagnazione e immobilismo in questo topic. Non si vedono svolte. Si tratta solo di un flash hype, come per le cripto. Ora faranno un po' di soldi e si calmeranno.
 
Maxim Dmitrievsky #:
Non nutro molte speranze, mi limito a sbirciare di tanto in tanto. Dopo tutto il gpt prevedo stagnazione e immobilismo in questo topic. Non si intravedono svolte. Si tratta solo di un'esplosione di hype, come nel caso delle criptovalute.

Io ho una visione opposta.

In generale credo che una forte IA sia stata creata da tempo (solo non per noi), e che l'intera criptoindustria (il mondo intero) abbia lavorato alla sua formazione, senza saperlo.

 
mytarmailS #:

Io sono di parere opposto.

In generale credo che un'IA forte sia stata creata da tempo (solo non per noi), e che l'intera criptoindustria (il mondo intero) abbia lavorato alla sua formazione, senza saperlo.

Allora la domanda logica è: su quale tecnologia. Se su Transformers, allora non è affatto IA e non sarà mai in grado di farlo.
 
Maxim Dmitrievsky #:

Non è saggio, non ho bisogno di aiuto. Il forum è ancora più una distrazione che un indizio. Sto solo esponendo la mia esperienza in termini generali. A volte la vendo :) chi la sente risparmierà tempo ereditandola.


Superare i segnali è una tattica errata e molto inefficace, questo è già un assioma per me. Vorrei dire IMHO, ma è più un assioma.

E ho bisogno di aiuto: mi vengono in mente più cose e più velocemente di quante ne possa verificare nel codice.

Non è necessario cercare le funzionalità, ma selezionarle e configurarle correttamente.

 
Aleksey Vyazmikin #:

E ho bisogno di aiuto: mi vengono in mente più cose e più velocemente di quanto io possa testarle nel codice.

Non serve una sovrabbondanza di funzioni: bisogna selezionarle e impostarle correttamente.

Nella narrativa è esattamente la stessa cosa. Si inventano un sacco di cose, non hanno il tempo di scriverle :) e poi il comitato editoriale rappresentato da Aleksey Nikolayev taglia tutto.
 
Maxim Dmitrievsky #:
Allora la domanda logica è: su quale tecnologia. Se è su Transformers, non è affatto AI e non lo sarà mai.

Chi può dirlo?

Ma la tecnogolia deve essere davvero pessima se è necessaria la potenza di calcolo di tutto il mondo, dai telefoni cellulari a una crypto farm collegata a una centrale elettrica...

Ma a questo punto non c'è tecnologia migliore.

 

A me sembra semplice e banale.

1. Io stesso ho lavorato e lavoro: c'è un maestro e bisogna cogliere/elaborare i segni.

2. Come afferma mytarmailS, si può impostare il compito opposto: ci sono dei segni e bisogna abbinare/creare un insegnante ad essi. C'è qualcosa in questo che non mi piace. Non cerco di seguire questa strada.


In realtà, entrambi i modi sono uguali: l'errore di classificazione sulla coppia insegnante-tratto disponibile non deve superare il 20% fuori dal campione. Ma soprattutto, dovrebbe esserci la prova teorica che il potere predittivo delle caratteristiche disponibili non cambia, o cambia debolmente, in futuro. In tutti i casi di steamrolling, questa è la cosa più importante.


Noterò che il mio ragionamento non include la selezione del modello. Ritengo che il modello abbia un ruolo estremamente secondario, in quanto non ha nulla a che fare con la stabilità della capacità predittiva delle caratteristiche: la stabilità della capacità predittiva è una proprietà della coppia insegnante-tratto.

1. Qualcun altro ha una coppia insegnante-tratto con un errore di classificazione inferiore al 20%?

2. C'è qualcun altro che ha prove effettive di una variabilità della capacità predittiva delle caratteristiche utilizzate inferiore al 20%?


Qualcuno ce l'ha? Allora c'è qualcosa da discutere


No? Tutto il resto è bla, bla, bla.

 
СанСаныч Фоменко #:

Mi sembra semplice e banale.

1. Io stesso ho lavorato e lavoro: c'è un maestro e bisogna cogliere/elaborare i segni.

2. Come afferma mytarmailS, è possibile impostare il compito opposto: ci sono degli attributi e bisogna abbinare/creare un insegnante ad essi. C'è qualcosa in questo che non mi piace. Non sto cercando di andare in quella direzione.


In realtà, entrambi i modi sono uguali: l'errore di classificazione sulla coppia insegnante-tratto disponibile non deve superare il 20% fuori dal campione. Ma soprattutto, dovrebbe esserci la prova teorica che il potere predittivo delle caratteristiche disponibili non cambia, o cambia debolmente, in futuro. In tutti i casi di steamrolling, questo è l'aspetto più importante.


Noterò che il mio ragionamento non include la selezione del modello. Ritengo che il modello abbia un ruolo estremamente secondario, poiché non ha nulla a che fare con la stabilità della capacità predittiva dei tratti: la stabilità della capacità predittiva è una proprietà della coppia insegnante-tratto.

1. Qualcun altro ha una coppia insegnante-tratto con un errore di classificazione inferiore al 20%?

2. Qualcuno ha prove effettive di una variabilità della capacità predittiva per le caratteristiche utilizzate inferiore al 20%?


Qualcuno lo sa? Allora c'è qualcosa da discutere


No? Tutto il resto è bla bla bla.

Un insegnante è un insieme di tratti e di etichette, non quello che hai scritto tu :) o meglio, non è affatto una persona, o un algoritmo che genera quei dati 😀

La scelta del modello gioca un ruolo importante, bisogna scegliere un modello forte. Ma poiché tutti i modelli forti riguardano le stesse qualità forti, la scelta tra di essi è già priva di principi.

A volte conoscere le definizioni giuste aiuta a pensare bene.