L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3008
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Siamo rimasti con il superamento degli obiettivi, ma stiamo lentamente arrivando a RL.
Sarai troppo vecchio per aspettare.
sarai troppo vecchio per aspettare.
Non nutro molte speranze, mi limito a sbirciare di tanto in tanto. Dopo tutto il gpt prevedo stagnazione e immobilismo in questo topic. Non si intravedono svolte. Si tratta solo di un'esplosione di hype, come nel caso delle criptovalute.
Io ho una visione opposta.
In generale credo che una forte IA sia stata creata da tempo (solo non per noi), e che l'intera criptoindustria (il mondo intero) abbia lavorato alla sua formazione, senza saperlo.
Io sono di parere opposto.
In generale credo che un'IA forte sia stata creata da tempo (solo non per noi), e che l'intera criptoindustria (il mondo intero) abbia lavorato alla sua formazione, senza saperlo.
Non è saggio, non ho bisogno di aiuto. Il forum è ancora più una distrazione che un indizio. Sto solo esponendo la mia esperienza in termini generali. A volte la vendo :) chi la sente risparmierà tempo ereditandola.
Superare i segnali è una tattica errata e molto inefficace, questo è già un assioma per me. Vorrei dire IMHO, ma è più un assioma.
E ho bisogno di aiuto: mi vengono in mente più cose e più velocemente di quante ne possa verificare nel codice.
Non è necessario cercare le funzionalità, ma selezionarle e configurarle correttamente.
E ho bisogno di aiuto: mi vengono in mente più cose e più velocemente di quanto io possa testarle nel codice.
Non serve una sovrabbondanza di funzioni: bisogna selezionarle e impostarle correttamente.
Allora la domanda logica è: su quale tecnologia. Se è su Transformers, non è affatto AI e non lo sarà mai.
Chi può dirlo?
Ma la tecnogolia deve essere davvero pessima se è necessaria la potenza di calcolo di tutto il mondo, dai telefoni cellulari a una crypto farm collegata a una centrale elettrica...
Ma a questo punto non c'è tecnologia migliore.
A me sembra semplice e banale.
1. Io stesso ho lavorato e lavoro: c'è un maestro e bisogna cogliere/elaborare i segni.
2. Come afferma mytarmailS, si può impostare il compito opposto: ci sono dei segni e bisogna abbinare/creare un insegnante ad essi. C'è qualcosa in questo che non mi piace. Non cerco di seguire questa strada.
In realtà, entrambi i modi sono uguali: l'errore di classificazione sulla coppia insegnante-tratto disponibile non deve superare il 20% fuori dal campione. Ma soprattutto, dovrebbe esserci la prova teorica che il potere predittivo delle caratteristiche disponibili non cambia, o cambia debolmente, in futuro. In tutti i casi di steamrolling, questa è la cosa più importante.
Noterò che il mio ragionamento non include la selezione del modello. Ritengo che il modello abbia un ruolo estremamente secondario, in quanto non ha nulla a che fare con la stabilità della capacità predittiva delle caratteristiche: la stabilità della capacità predittiva è una proprietà della coppia insegnante-tratto.
1. Qualcun altro ha una coppia insegnante-tratto con un errore di classificazione inferiore al 20%?
2. C'è qualcun altro che ha prove effettive di una variabilità della capacità predittiva delle caratteristiche utilizzate inferiore al 20%?
Qualcuno ce l'ha? Allora c'è qualcosa da discutere
No? Tutto il resto è bla, bla, bla.
Mi sembra semplice e banale.
1. Io stesso ho lavorato e lavoro: c'è un maestro e bisogna cogliere/elaborare i segni.
2. Come afferma mytarmailS, è possibile impostare il compito opposto: ci sono degli attributi e bisogna abbinare/creare un insegnante ad essi. C'è qualcosa in questo che non mi piace. Non sto cercando di andare in quella direzione.
In realtà, entrambi i modi sono uguali: l'errore di classificazione sulla coppia insegnante-tratto disponibile non deve superare il 20% fuori dal campione. Ma soprattutto, dovrebbe esserci la prova teorica che il potere predittivo delle caratteristiche disponibili non cambia, o cambia debolmente, in futuro. In tutti i casi di steamrolling, questo è l'aspetto più importante.
Noterò che il mio ragionamento non include la selezione del modello. Ritengo che il modello abbia un ruolo estremamente secondario, poiché non ha nulla a che fare con la stabilità della capacità predittiva dei tratti: la stabilità della capacità predittiva è una proprietà della coppia insegnante-tratto.
1. Qualcun altro ha una coppia insegnante-tratto con un errore di classificazione inferiore al 20%?
2. Qualcuno ha prove effettive di una variabilità della capacità predittiva per le caratteristiche utilizzate inferiore al 20%?
Qualcuno lo sa? Allora c'è qualcosa da discutere
No? Tutto il resto è bla bla bla.