L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 428

 
Maxim Dmitrievsky:

Vedo, non credo che qualcuno qui abbia confrontato in pratica :) cercherò informazioni, per non essere ingannato se si scopre che il diplerning non dà un vantaggio sull'impalcatura. E dato che il componente lì è un MLP, può anche essere che non lo faccia...

A proposito, qualsiasi cosa con più di 2 strati è chiamata diplerning, MLP con 2 strati nascosti è anche diplerning. Mi riferivo alle reti profonde, che Vladimir ha descritto nell'articolo del link qui sopra.

TOTALMENTE SBAGLIATO. Dove prendete queste informazioni?

Anche se si dice che i predittori sono più importanti perché i modelli funzionano allo stesso modo... ma questa è teoria, in pratica si scopre che la selezione del modello è anche molto importante, per esempio il compromesso tra velocità e qualità, perché NS tende ad essere lungo...

DNN È molto veloce, testato.

Voglio la connessione diretta al server P daMT5 o la connessione diretta al server P da MT5, ma la connessione diretta è meglio. Hai bisogno di 1 volta per riscrivere con C++ la rete neurale che ti serve su mql, e questo è tutto.

Come si controlla? Per me funziona.

Ah, ho dimenticato di aggiungere IMHO

IMHO basato sulla pratica

Buona fortuna

 
Vladimir Perervenko:

L'apprendimento profondo (noto anche come apprendimento strutturato profondo o apprendimento gerarchico) è l'applicazione a compiti di apprendimento di reti neurali artificiali (RNA) che contengono più di uno strato nascosto. L'apprendimento profondo fa parte di una famiglia più ampia di metodi di apprendimento automatico basati sull'apprendimento di rappresentazioni di dati, al contrario di algoritmi specifici del compito. L'apprendimento può essere supervisionato, parzialmente supervisionato o non supervisionato.


Riguardo al dipling con gli autocodificatori, sì, è veloce, ma non sono ancora arrivato a loro, quindi c'era una domanda logica - c'è un vantaggio rispetto alla RF

p.s. Funziona anche in optimizer o in una nuvola?

https://en.wikipedia.org/wiki/Deep_learning

 
Maxim Dmitrievsky:

L'apprendimento profondo (noto anche come apprendimento strutturato profondo o apprendimento gerarchico) è l'applicazione a compiti di apprendimento di reti neurali artificiali (RNA) che contengono più di uno strato nascosto. L'apprendimento profondo fa parte di una famiglia più ampia di metodi di apprendimento automatico basati sull'apprendimento di rappresentazioni di dati, al contrario di algoritmi specifici del compito. L'apprendimento può essere supervisionato, parzialmente supervisionato o non supervisionato.


Riguardo al diplinking con gli autocodificatori sì, veloce, ma non ci sono ancora arrivato, quindi era una domanda logica - ci sono dei vantaggi rispetto alla RF

p.s. Vola nell'ottimizzatore, e nel cloud?

https://en.wikipedia.org/wiki/Deep_learning

1. Dove ha trovato questa definizione? Dici sul serio? Troverò i link alle fonti serie quando avrò tempo.

2. Il vantaggio principale della DNN con preapprendimento è l'apprendimento di trasferimento. Significativamente più veloce, più accurato e ... Usate il pacchetto darch.

3. Qualsiasi ottimizzazione deve essere fatta in R. Più veloce, più trasparente e flessibile.

Buona fortuna

 
Vladimir Perervenko:

1. Dove ha trovato questa definizione? Dici sul serio? Troverò i link alle fonti serie quando avrò tempo.

2. Il vantaggio principale della DNN con preapprendimento è l'apprendimento di trasferimento. Significativamente più veloce, più accurato e ... Usate il pacchetto darch.

3. Qualsiasi ottimizzazione deve essere fatta in R. Più veloce, più trasparente e flessibile.

Buona fortuna

Alla fine di questa lezione capirai come funziona un semplice modello di deep learning chiamato perceptron multistrato (MLP) e imparerai a costruirlo in Keras, ottenendo un discreto grado di precisione su MNIST. Nella prossima lezione, scomporremo i metodi per problemi di classificazione di immagini più complessi (come CIFAR-10).
Neuroni (artificiali)

Anche se il termine "deep learning" può essere inteso in un senso più ampio, è per lo più applicato nel campo delle reti neurali(artificiali).


https://habrahabr.ru/company/wunderfund/blog/314242/

e qui


Forse stanno tutti mentendo, non ne sono a conoscenza )

IMHO, naturalmente.

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
A cosa servono i predittori? Una serie temporale è un predittore͵ Solo il NS deve andare un po' più in profondità͵.
(Dal telefono cellulare)
 
Yuriy Asaulenko:
A cosa servono i predittori? Una serie temporale è un predittore.
(Da un telefono cellulare)

Hanno dimenticato di mettere la c) :))
 
Maxim Dmitrievsky:

Ho dimenticato di mettere la c) :))
E chi è stato citato?).
 
Yuriy Asaulenko:
Chi hai citato?).
Beh, lui stesso. Una specie di distintivo d'autore)
 
Maxim Dmitrievsky:
Alla fine di questa lezione capirai il funzionamento di un semplice modello di deep learning chiamato perceptron multistrato (MLP) e imparerai a costruirlo in Keras, ottenendo un discreto grado di precisione su MNIST. Nella prossima lezione, analizzeremo i metodi per compiti di classificazione di immagini più complessi (come CIFAR-10).
Neuroni (artificiali)

Anche se il termine "deep learning" può essere inteso in un senso più ampio, nella maggior parte dei casi viene applicato nel campo delle reti neurali (artificiali).


https://habrahabr.ru/company/wunderfund/blog/314242/

E guarda un po'.


Forse mentono tutti, non ne sono a conoscenza )

IMHO, naturalmente.

No, non lo fanno. Qui sotto c'è una spiegazione (da un articolo che non finirò mai :(

Introduzione

Principali aree di ricerca e applicazioni

Attualmente, nella ricerca e nell'applicazione delle reti neurali profonde (parliamo solo di reti neurali multistrato full-link - MLP) sono emerse due correnti principali che differiscono nell'approccio di inizializzazione dei pesi dei neuroni negli strati nascosti.

Primo: è noto che le reti neurali sono estremamente sensibili al modo di inizializzazione iniziale dei neuroni negli strati nascosti, soprattutto quando il numero di strati nascosti è maggiore di 3. L'impulso iniziale di questo problema è stato proposto dal professor G. Hynton. L'idea era che i pesi dei neuroni negli strati nascosti della rete neurale potessero essere inizializzati dai pesi ottenuti dall'apprendimento non supervisionato di reti associative automatiche costituite da RBM (constrained Boltzmann machine) o AE (automatic encoder). Questi Stacked RBM (SRBM) e Stacked AE (SAE) sono addestrati in un certo modo su un grande set di dati non etichettati. Lo scopo di questo addestramento è di identificare strutture nascoste (rappresentazioni, immagini) e dipendenze nei dati. L'inizializzazione dei neuroni MLP con i pesi ottenuti durante il pre-addestramento pone l'MLP nello spazio di soluzione più vicino a quello ottimale. Questo rende possibile il successivo fine-tuning (allenamento) delle MLP per applicare una quantità minore di dati marcati con meno epoche di allenamento. Per molte applicazioni pratiche (specialmente nell'elaborazione dei "big data"), questi sono vantaggi critici.

Secondo: Un gruppo di scienziati (Benjio et al.) ha concentrato i suoi sforzi principali sullo sviluppo e la ricerca di metodi specifici per l'inizializzazione iniziale dei neuroni nascosti, funzioni di attivazione speciali, stabilizzazione e metodi di apprendimento. Il successo in questa direzione è dovuto principalmente al rapido sviluppo delle reti neurali profonde convoluzionali e ricorrenti (DCNN, RNN), che hanno mostrato risultati sorprendenti nel riconoscimento delle immagini, nell'analisi e classificazione del testo e nella traduzione del parlato dal vivo da una lingua all'altra. Le idee e i metodi sviluppati per queste reti neurali sono stati applicati a MLP con uguale successo.

Oggi entrambe le direzioni sono attivamente utilizzate nella pratica. Esperimenti comparativi [ ] dei due approcci non hanno rivelato vantaggi significativi di uno rispetto all'altro, ma una cosa è chiara. Le reti neurali con pre-addestramento richiedono molto meno esempi per l'addestramento e risorse computazionali, dando quasi gli stessi risultati. Per alcuni campi questo è un vantaggio molto importante.

Buona fortuna

 
Vladimir Perervenko:

Oggi, entrambi gli approcci sono attivamente utilizzati nella pratica. Gli esperimenti comparativi [ ] dei due approcci non rivelano vantaggi significativi di uno rispetto all'altro, ma c'è un vantaggio. Le reti neurali con pre-addestramento richiedono molti meno esempi di allenamento e risorse computazionali con risultati quasi uguali. Per alcuni campi questo è un vantaggio molto importante.

Buona fortuna

Ultimamente sono tornato al GARCH, con cui avevo già familiarità. Ciò che mi ha sorpreso enormemente dopo diversi anni di fascino con l'apprendimento automatico è l'enorme numero di pubblicazioni sull'applicazione del GARCH alle serie temporali finanziarie, comprese le valute.


Avete qualcosa di simile per le reti profonde?