Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3030

 
Aleksey Vyazmikin #:

Ну тут скорей переводы виноваты... терминология такая.

Есть квантование и разные их методы, таблица содержащая точки разделения - квантовая таблица - это уже из инструкции CatBoost.

Квантовые отрезки - из квантовой таблицы, но крайние имеют приделы. Это уже моё изобретение.

не квантовые, квантизованные наверное, по типу как здесь

5.4. Квантизация сверточных нейронных сетей

Классически, из-за очевидных оптимизационных трудностей, при квантизации нейронных сетей используют не просто целые числа, а аппрок- симацию чисел с плавающей запятой через целые. Широко используемым в литературе подходом [52, 54, 60] для приближения чисел с плавающей точ- кой через целые числа произвольной глубины является алгоритм, предло- женный в библиотеке Google GEMMLOWP [59]. Имея входной массив 𝑋, граничные значения [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], количество бит 𝑀, результат определен следующим образом:

𝑠𝑐𝑎𝑙𝑒 = (𝑣􏰲􏰈􏰂 − 𝑣􏰲􏰭􏰠)/2􏰳, (14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(−𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0), 2􏰳)), (15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡). (16)

Так, для каждого массива из чисел с плавающей запятой мы получаем целочисленный массив 𝑜𝑢𝑡𝑝𝑢𝑡, целое число 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, точно представля- ющее нуль, число двойной точности 𝑠𝑐𝑎𝑙𝑒, определяющее масштаб кванти- зации.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

 
Maxim Dmitrievsky #:

не квантовые, квантизованные наверное, по типу как здесь

5.4. Квантизация сверточных нейронных сетей

Классически, из-за очевидных оптимизационных трудностей, при квантизации нейронных сетей используют не просто целые числа, а аппрок- симацию чисел с плавающей запятой через целые. Широко используемым в литературе подходом [52, 54, 60] для приближения чисел с плавающей точ- кой через целые числа произвольной глубины является алгоритм, предло- женный в библиотеке Google GEMMLOWP [59]. Имея входной массив 𝑋, граничные значения [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], количество бит 𝑀, результат определен следующим образом:

𝑠𝑐𝑎𝑙𝑒 = (𝑣􏰲􏰈􏰂 − 𝑣􏰲􏰭􏰠)/2􏰳, (14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(−𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0), 2􏰳)), (15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡). (16)

Так, для каждого массива из чисел с плавающей запятой мы получаем целочисленный массив 𝑜𝑢𝑡𝑝𝑢𝑡, целое число 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, точно представля- ющее нуль, число двойной точности 𝑠𝑐𝑎𝑙𝑒, определяющее масштаб кванти- зации.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

Я же говорю - вопрос перевода - это все синонимы. Вот настройки CatBoost.


 
Интересно а можно ли тренировать нейронку генетикой, но обновлять не все веса сразу,а  небольшими рандомными кусочками, и так постепенно уменьшать ошибку
 
Aleksey Vyazmikin #:

Я же говорю - вопрос перевода - это все синонимы. Вот настройки CatBoost.

квантизоны форексус натурале

 
Aleksey Vyazmikin #:

Она нам не известна. Точней не известна настоящая плотность распределения, а мы наблюдаем только выдержки - поэтому и такие колебания...

Я не живу по понятиям :)

Поэтому сами расскажите мне, как такое явление называется, которое мы не можем наблюдать, так как в процессе его находимся, а оно завершено давно в далеких приделах космоса...

Все равно есть некоторые наблюдения и закономерности, которых стоит придерживаться( увеличение дисперсии и прочее)...

 
mytarmailS #:
Интересно а можно ли тренировать нейронку генетикой, но обновлять не все веса сразу,а  небольшими рандомными кусочками, и так постепенно уменьшать ошибку

Нужно ;-)

 
Mikhail Mishanin #:

Нужно ;-)

?? Есть опыт? 
 
mytarmailS #:
?? Есть опыт? 

конечно, собираю свои архитектуры исключительно на MQL5, и при собственных ФФ обучаю нейронку как встроенной(MQL5) так и собственной генетикой,
веса обновляю рандомно выбирая 10-20% из общего количества. это в двух словах.
только при собственных ФФ - не уменьшение ошибки.

 
Mikhail Mishanin #:

только при собственных ФФ - не уменьшение ошибки.

это как понять? 
Явно где то ошибка
 
mytarmailS #:
это как понять? 
Явно где то ошибка

Отнюдь, собственные функции приспособленности, и совсем не ошибка и не прибыль. "Устойчивость".

Причина обращения: