L'uso dell'intelligenza artificiale in MTS - pagina 8

 

2 SergNF.

Sono lontano dall'argomento quanto il Polo Sud. Mi sono agganciato solo al post di eugenk, ma nessuno lo ha sostenuto. E quando ho deciso di guardare l'esperto, così lungo e teso per capire dove è l'IA e come insegnare. :-))

Ma poi, quando anche le domande elementari mi sono sfuggite di mano, non ho resistito e mi sono messo in mezzo. :-)

La tecnologia qui, purtroppo, è stata discussa molto poco. Per lo più solo l'esperto. Ma la tecnologia è certamente interessante. Ho del cibo per pensare. Quindi l'argomento è stato molto utile per me.

Queste perline sono una cosa sottile, non possono essere applicate al forex. :-)))

 
Non posso più guardare. Sono tutte sciocchezze. SergNF, dove posso trovare delle perline?
 
SergNF:

Prendete il vostro indicatore preferito (se esterno, attraverso iCustom) e fate uscire il suo valore in un file per un certo importo (quanto volete prevedere nel futuro) INDIETRO e, ci sono opzioni, Close/High/Low "alla prima barra" o Highest/Lowest per questo intervallo. Puoi analizzare e pensare a come applicarlo leggendo articoli paralleli da http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm
Grazie mille, SergNF, per i link. Io stesso mi sono dilettato con NS più di un anno fa (in TradingSolutions e piuttosto direttamente): usando la rete Jordan-Elman ho cercato di prevedere l'alto-basso per un giorno avanti per mezzo di diverse MA. Primitivo, certo, ma qui ho anche tratto una serie di conclusioni utili per me stesso, avendo costruito decine di AM molto diverse e curiose lungo la strada...

Non ho pensato a nessuna classificazione di reti neurali e mappe di Kohonen allora - e ho fatto una conclusione prematura, che le NS erano di scarsa utilità, e poi ho iniziato a sperimentare con GA. Penso che il mio percorso sia tipico della maggior parte dei trader che cercano il Graal nei NS - senza studiarli seriamente. Sembra che ora, in termini di Elliott, si possa dire che ho superato con successo le fasi della 1a ondata (attacco unilaterale di prova senza una seria preparazione) e della 2a ondata (profondo raffreddamento) nel trattare con NS. È l'ora della Terza Onda, hehe...
 
sashken:
Pyh ha scritto:

P.S. Sono d'accordo con l'opinione di Yurixx. La maleducazione non dovrebbe essere tollerata, anche se l'esperto dovrebbe essere riconosciuto come molto curioso.
Non mi avete convinto. Capisco molto bene che i test sono in base ai prezzi di apertura dei bar, MA ! Si apre una barra e dobbiamo trovare (per questo EA) il valore AC in quattro punti, incluso il valore AC della barra che si è appena aperta. Dove possiamo ottenere AC se si forma solo alla chiusura della barra, perché al momento abbiamo solo l'apertura di questa barra.

Tu stesso scrivi che la barra si è aperta, quindi c'è un prezzo di apertura della barra. Esso (il prezzo aperto della barra) non cambierà durante la formazione della barra (può cambiare High, Low e Close, ma Open - no, perché la barra è già aperta).

Spero che sia chiaro:)
Non è chiaro per loro. Molti non si rendono conto che quando Volume[0] == 1 (cioè il primo tick di una nuova barra), allora Сlose[0] == Open[0] == High[0] = Low[0], cioè il prezzo di chiusura dell 'ultima barra è già stato formato e varierà di tick in tick fino alla chiusura della barra. E da questo analfabetismo molto elementare e dalle affermazioni sulla presunta qualità "adatta" dei test.

Dobbiamo solo scrivere sulla fronte di tutti i lamer insoddisfatti del destino con vernice indelebile (o meglio ancora, bruciarla con ferro indurito) che: "Slose[0] è il Bid dell'ultimo tick che è arrivato al terminale, non la capacità telepatica del tester della strategia".
 
eugenk1:
Ragazzi, ho trovato molto interessante quello che ha fatto Reshetov. Naturalmente, non stiamo parlando di nessun tipo di intelligenza artificiale. L'IA è necessariamente adattamento e formazione, almeno di una rete neurale, almeno di un filtro lineare. Ma penso che dovremmo piuttosto parlare del comportamento di gruppo degli indicatori. A ciascuno di essi viene assegnato un peso che riflette la sua importanza e utilità. E c'è un "voto" ponderato - sommatoria. L'unica cosa che prenderei per 4 indicatori 14 parametri invece di 4, per tenere conto di tutte le possibili combinazioni di parametri. Penso che sia possibile costruire un vero sistema adattivo in questo modo. Prendiamo gli indici normalizzati (di cui ho scritto sopra) e stimiamo la qualità di ciascuno di essi con dei trade virtuali. Un trader bugiardo viene punito con una diminuzione di peso (fino al negativo, che significa "interpretare il mio segnale esattamente nella direzione opposta"), mentre uno che lavora correttamente viene premiato con un aumento di peso. A proposito, questo sistema merita davvero il titolo di intelligente... Se si prendono 10 simboli invece di 4, il numero di tutte le combinazioni possibili sarà 1023. Quale mente umana è in grado di analizzare una tale montagna! E il sistema può...
Questo approccio è chiamato adattivo, anche se l'algoritmo di apprendimento classico è molto diverso, cioè quando:
  • neuronka mente, allora è "stubbed": w[i] i= a[i] per tutti gli ingressi denotati da i;
  • il neurone ha dato una risposta corretta, allora riceve una "carota": w[i] += a[i] per tutti gli ingressi indicati con i;
Poi si controlla la sua pudicizia e se mente di nuovo, viene "frustato" di nuovo sul culo nudo finché non smette di mentire.
C'è anche un teorema, non ricordo il nome, che dimostra che questo algoritmo ha convergenza, cioè prima o poi troverà un'equazione accettabile del piano di separazione, ma solo in quel caso se gli oggetti identificabili sono linearmente separabili nello spazio delle caratteristiche di questi oggetti.

Ma l'identificazione per acquisto e vendita non è linearmente separabile, quindi la rete neurale fa ancora degli errori, anche se la si esegue attraverso l'impulso con algoritmi di addestramento classici.
 
Eppure - se il programma stesso decide quando aprire/chiudere, allora per definizione ha un'intelligenza artificiale.
E il processo di ottimizzazione dell'Expert Advisor è la formazione di questo sistema.
 
Itso:
Eppure - se il programma stesso decide quando aprire/chiudere, allora per definizione ha un'intelligenza artificiale.
E il processo di ottimizzazione dell'Expert Advisor è la formazione di questo sistema.
Anche se il trader decide quando aprire e dove aprire, e quando chiudere, questo non significa che abbia intelligenza. Il deficiente può essere addestrato a premere i pulsanti. Ma la decisione di questo idiota di premere i pulsanti non sarà intelligente dal punto di vista del trading, ma soggettiva (per esempio, il colore dei pulsanti sarà soggettivamente più attraente per prendere una decisione, non il valore del capitale).
 
Mathemat писал (а):
Io stesso mi sono dilettato con NS più di un anno fa (in TradingSolutions e in modo abbastanza semplice): usando la rete Jordan-Elman ho provato a prevedere il massimo-basso un giorno prima applicando diverse MA all'input.

Esattamente, stavo solo scherzando con i neuroni. Se te ne occupassi seriamente avresti conosciuto un fatto matematicamente fondato: "Lereti neurali sono adatte per l'identificazione, ma sono assolutamente inappropriate per l'estrapolazione", e di conseguenza non possono prevedere alcun valore per qualsiasi periodo in avanti - i risultati saranno chilometri in più o in meno. Ma è possibile in molti casi identificare quale oggetto appartiene a quale classe con un certo grado di affidabilità.

Per esempio, possiamo cercare di trovare la posa più redditizia (comprare o vendere) dai valori degli indici e degli oscillatori. E può funzionare, perché il compito ha l'identificazione. Ma se si cerca di usare la neuronica per calcolare dove dovrebbe essere il take profit di quelle pose, si può avere successo nei test, ma al di fuori del campione è improbabile, perché il valore di take profit è un'estrapolazione - il prezzo dovrebbe almeno toccarlo (per determinare gli obiettivi è probabilmente meglio usare i fuzzles).

In poche parole, stavate cercando di piantare chiodi in muri di cemento con una TV.

Conclusioni più dettagliate e calcoli matematici che sono stati fatti sulla base dei risultati ottenuti dopo il completamento del progetto Perceptron possono essere letti nel libro:

Minsky, M e Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traduzione disponibile:

Minsky M., Papert S. Il Perseptron: tradotto dall'inglese: Mir, 1971. - с. 261

Il mio consiglio, bambini, prima di scherzare, e prima di rendere pubbliche conclusioni molto importanti basate sui risultati dello scherzo, provate prima a studiare i materiali sull'argomento. In primo luogo, non farà alcun danno, e in secondo luogo, vi permetterà di non calpestare il rastrello, cosa che tutti sanno da molto tempo.
 
Reshetov писал (а):
Minsky, M e Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traduzione disponibile:

Minsky M., Papert S. Il Perseptron: tradotto dall'inglese: Mir, 1971. - с. 261

Il mio consiglio, bambini, prima di scherzare, e prima di rendere pubbliche conclusioni molto importanti basate sui risultati dello scherzo, provate prima a studiare i materiali sull'argomento. In primo luogo, non farà alcun danno, e in secondo luogo, vi permetterà di non calpestare il rastrello, cosa che tutti sanno da molto tempo.
Grazie per aver indicato la fonte. E per quanto riguarda il materiale di partenza, mi sono informato - in realtà l'ho fatto attraverso le pubblicazioni sul neuro-previsione. Tali pubblicazioni sono ancora in corso e rivendicano persino l'adeguatezza del neuro - nonostante il tuo verdetto categorico sull'inutilità del neuro per compiti di interpolazione(Reshetov, esattamente inter-, non estrapolazione; dovresti saperlo di sicuro, se parli così intelligentemente della separabilità lineare... A proposito, se non mi sbaglio, il teorema di Minsky sull'irrisolvibilità del problema di non separabilità lineare (XOR, diciamo) da parte del perceptron ha davvero raffreddato l'interesse per i neuro - ma solo fino a quando non hanno pensato alle reti multistrato).
 
Mathemat:
Reshetov:
Minsky, M e Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traduzione disponibile:

Minsky M., Papert S. Perseptrons: Per. - с.

Il mio consiglio a voi, piccoli amici, prima di scherzare, e poi di trarre conclusioni pubblicamente significative da tale scherzo, è di familiarizzare con la letteratura disponibile sull'argomento. In primo luogo, non farà male, e in secondo luogo, permetterà di non calpestare un rastrello, di cui tutto è già noto da tempo.
Grazie per aver indicato la fonte. Beh, per quanto riguarda la matrice, in realtà ne sono a conoscenza - da pubblicazioni sul tema della neuroprevisione. Tali pubblicazioni sono ancora in corso e rivendicano persino l'adeguatezza di neuro - nonostante il tuo verdetto categorico sull'inadeguatezza di neuro per problemi di interpolazione(Reshetov, esattamente inter-, non estrapolazione; dovresti saperlo di sicuro, se ragioni così saggiamente sulla separabilità lineare... A proposito, se non mi sbaglio, il teorema di Minsky sull'irrisolvibilità del problema di non separabilità lineare (XOR, diciamo) da parte del perceptron ha davvero raffreddato l'interesse per i neuro - ma solo fino a quando non hanno inventato le reti multistrato).
Gli articoli sono articoli, ma il significato geometrico non va da nessuna parte. Ed è che un filtro lineare permette di separare le mosche dalle cotolette, se le coordinate (valori delle caratteristiche) di questi stessi oggetti sono noti con l'aiuto di un piano lineare in condizione di separabilità lineare. Ma non c'è soluzione al problema inverso, cioè nominare un oggetto a un neurone per scoprire le sue coordinate. Tutto quello che possiamo scoprire sull'oggetto è solo da quale lato del piano di separazione si trova. Pertanto, l'interpolazione e l'estrapolazione sono fuori questione.