L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3030

 
Forester #:

È una descrizione complicata. Ordinare la colonna e dividerla in 32 parti, per esempio, se ci sono duplicati, allora tutti vengono gettati nel quantum. Se la colonna ha solo 0 e 1, allora ci saranno 2 quanti, non 32 (perché ci sono dei duplicati).

Tu intendi il metodo e io l'obiettivo. I metodi possono essere diversi. Mettiamola così: i metodi empirici sono spesso migliori di quelli matematici. Forse perché non abbiamo dati completi sul campione generale.

 
Aleksey Nikolayev #:

In sostanza, si scopre che un albero viene costruito su ciascun predittore separatamente.

Sì, è così che vengono costruiti gli alberi C4.5 per i valori discreti. Una divisione.

 
Aleksey Vyazmikin #:

Tu parli del metodo, io dell'obiettivo. I metodi possono essere diversi. Mettiamola così: i metodi empirici sono spesso migliori di quelli matematici. Probabilmente perché non abbiamo dati completi sul campione generale.

Per i dati non stazionari, non esiste affatto il concetto di "campione generale", ma solo le code. Questo è il problema, ed è il motivo per cui qualsiasi stima derivante dalla formazione è estremamente difficile da ottenere in futuro.

 
СанСаныч Фоменко #:

Per i dati non stazionari, non esiste affatto il concetto di "campione principale", ma solo di coda. Questo è l'intero problema, ed è il motivo per cui qualsiasi stima ottenuta durante l'addestramento è estremamente difficile da ottenere in futuro.

Non lo sappiamo. Più precisamente, non conosciamo la vera densità della distribuzione, e osserviamo solo gli estratti - ecco perché queste fluttuazioni...

Non vivo di concetti :)

Allora dimmi come si chiama un fenomeno del genere, che non possiamo osservare, perché siamo nel processo di esso, ed è stato completato molto tempo fa nei lontani confini dello spazio....

 
СанСаныч Фоменко #:

Per i dati non stazionari, non esiste affatto il concetto di "campione principale", ma solo di coda. Questo è l'intero problema, ed è il motivo per cui qualsiasi stima ottenuta durante l'addestramento è estremamente difficile da ottenere in futuro.

Esatto, SanSanych.

I dati non stazionari sono sempre soggetti agli effetti cumulativi di altri datinon stazionari. Da cui dipenderanno le code.

 
Aleksey Vyazmikin #:

L'intervallo di valori del predittore che descrive i dati.

Qui ho descritto praticamente l'algoritmo - c'è anche un'immagine con RSI.

Ho capito: separare tutto e tutto e studiarlo separatamente.

Non capisco perché sono quantistici.
 
Maxim Dmitrievsky #:
Non capisco perché siano quantistici.

Perché il ragazzo non vive secondo le regole, ha scritto)

 
Maxim Dmitrievsky #:

Ho capito: separare tutto e tutti e studiarli separatamente.

Non capisco perché siano quantistici.

Beh, probabilmente è per le traduzioni. terminologia.

Ci sono le quantizzazioni e i loro diversi metodi, la tabella contenente i punti di divisione - tabella quantica - è già presente nell'istruzione CatBoost.

Segmenti quantici - da tabella quantica, ma quelli estremi hanno dei limiti. È già una mia invenzione.

 
Aleksey Vyazmikin #:

Probabilmente è colpa dei traduttori. la terminologia.

Esistono le quantizzazioni e i loro diversi metodi, la tabella contenente i punti di divisione - tabella quantica - è già presente nell'istruzione CatBoost.

Segmenti quantici - dalla tabella quantica, ma quelli estremi hanno dei limiti. È già una mia invenzione.

non quantistico, probabilmente quantizzato, come in questo caso.

5.4 Quantizzazione delle reti neurali convoluzionali

Classicamente, a causa di ovvie difficoltà di ottimizzazione, quando si quantizzano le reti neurali non si usano solo numeri interi, ma piuttosto un'approssimazione dei numeri in virgola mobile attraverso i numeri interi. Un approccioampiamente utilizzato in letteratura [52, 54, 60] per l'approssimazione di numeri in virgola mobile attraverso numeri interi di profondità arbitraria è l'algoritmo proposto nella libreria GEMMLOWP di Google [59]. Avendo in ingresso un array 𝑋, valori limite [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], numero di bit 𝑀, il risultato è definito come segue:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

Quindi, per ogni matrice di numeri in virgola mobile, si ottiene una matrice di numeri interi 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡, interi 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, che rappresenta accuratamente lo zero, un numero di doppia precisione𝑠𝑐𝑎𝑙𝑒 che definisce la scala di quantizzazione.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

 
Maxim Dmitrievsky #:

non quantistico, quantizzato, come qui.

5.4 Quantizzazione delle reti neurali convoluzionali

Classicamente, per ovvie difficoltà di ottimizzazione, la quantizzazione delle reti neurali non utilizza solo numeri interi, ma piuttosto un'approssimazione di numeri in virgola mobile attraverso numeri interi. Un approccioampiamente utilizzato in letteratura [52, 54, 60] per l'approssimazione di numeri in virgola mobile attraverso numeri interi di profondità arbitraria è l'algoritmo proposto nella libreria GEMMLOWP di Google [59]. Avendo in ingresso un array 𝑋, valori limite [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], numero di bit 𝑀, il risultato è definito come segue:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

Quindi, per ogni matrice di numeri in virgola mobile, si ottiene una matrice di numeri interi 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡, interi 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, un intero che rappresenta accuratamente lo zero, un numero a doppia precisione𝑠𝑐𝑎𝑙𝑒 che definisce la scala di quantizzazione.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

È una questione di traduzione: sono tutti sinonimi. Ecco le impostazioni di CatBoost.