L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2258

 
Non mi ricordo nemmeno io. Chiedete alle ragazze qui intorno, si ricordano tutto.
 
Aleksey Mavrin:

Leggendo il thread (o meglio cercando di leggerlo), ho avuto l'impressione che le chat chiuse con moderazione siano una cosa molto utile).

Re la richiesta del caso - hanno postato una raccolta di letteratura sul sabotaggio. Se non ti dispiace il link di nuovo per favore, @Maxim Dmitrievsky,Aleksey Nikolayev.

Ramo allegato alla discussione generale, 4° dall'alto https://www.mql5.com/ru/forum/214418

Что читать, смотреть и где учиться машинному обучению
Что читать, смотреть и где учиться машинному обучению
  • 2017.08.25
  • www.mql5.com
На русском сайте StackOverflow в вопросе о хороших книгах по математике и машинному обучению сформировали список материалов, с которых стоит начать...
 
Vladimir Perervenko:

L'articolo parla di qualcos'altro. Si occupa del caso in cui tutti i predittori sono discreti [0, 1]. Allora c'è un problema. La rete neurale non capisce i predittori con variazione zero.

Il tuo caso, da quanto ho capito, è leggermente diverso. Avete combinato i predittori (continui) e l'obiettivo (matrice discreta ncol=3) nell'input. Si cerca di ottenere una distribuzione qualitativa di latenti a partire dalla quale si generano (ripristinano) quelli di input compreso quello di destinazione praticamente senza addestramento. Ho capito bene: non avrà successo qualitativamente. L'articolo mostra la via della soluzione. Per convertire il target discreto in continuo usando RBM, connettersi con altri predittori e usare BAE (training!). E poi recuperare gli esempi dal VAE addestrato e ripristinare l'obiettivo di nuovo con RBM. È piuttosto complicato. Ma può funzionare.

Lo proverò con un normale AE.

Buona fortuna

puoi semplicemente addestrare un classificatore su questi dati per darti delle probabilità.

opzione ancora più semplice: dividere il dataset in 2 parti con etichette diverse e insegnare 2 modelli... e non disturbare la nonna con tutti i tipi di stati condizionali)

 

Provato copule, codificatori, tabula gans, codero gans. hmm finora imbattibile. Le copule non sono male. Le tecnologie delle reti neurali sono ancora outsider per i dati tabulari, il che è un peccato.

Se hai bisogno di più dati, per ora solo gmm.

 
Aleksey Mavrin:

Leggendo il thread (o meglio cercando di leggerlo), ho avuto l'impressione che le chat chiuse con moderazione siano una cosa molto utile).

Re la richiesta del caso - hanno postato una raccolta di letteratura sul sabotaggio. Non ti dispiace linkare di nuovo per favore, @Maxim Dmitrievsky,Aleksey Nikolayev.

Mi sono ricordato che ho dato un link a questo archivio. Vale letteralmente la pena di leggerlo per un po'.

https://codernet.ru/books/python/?page=1

Python | CoderNet
  • codernet.ru
Архив учебной литературы по программированию на языке Python
 

Architetture di reti neurali biomorfe per i sistemi AI

Биоморфные нейросетевые архитектуры для систем ИИ - Вадим Филиппов - Семинар сообщества AGI
Биоморфные нейросетевые архитектуры для систем ИИ - Вадим Филиппов - Семинар сообщества AGI
  • 2020.12.24
  • www.youtube.com
Биоморфные нейросетевые архитектуры для систем искусственного интеллекта следующего поколения: как и зачем? - Вадим ФилипповСеминар русскоязычного сообщества...
 

Ciao, sei rimasto senza internet?

Buone vacanze!

;)
 
Renat Akhtyamov:

Ciao, sei rimasto senza internet?

Buone vacanze!

;)

Tutti sono stati bloccati nello stesso momento.

Buon anno a tutti!

 
Maxim Dmitrievsky:

Provato copule, codificatori, tabula gans, codero gans. hmm finora imbattibile. Le copule non sono male. Le tecnologie delle reti neurali sono ancora outsider per i dati tabulari, il che è un peccato.

Se hai bisogno di più dati, per ora solo gmm.

Maxim, hai provato la macchina di Turing neurale? in quale quadro e quali sono i successi?

Buon anno e tanti auguri!

 
dr.mr.mom Mishanin:

Maxim, hai provato la macchina di Turing Neurale? In quale quadro e quali sono stati i tuoi successi?

Buon anno a tutti e che tutti i vostri desideri si avverino!

felice anno nuovo! in siberia è già iniziato)))))