Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3030
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну тут скорей переводы виноваты... терминология такая.
Есть квантование и разные их методы, таблица содержащая точки разделения - квантовая таблица - это уже из инструкции CatBoost.
Квантовые отрезки - из квантовой таблицы, но крайние имеют приделы. Это уже моё изобретение.
не квантовые, квантизованные наверное, по типу как здесь
5.4. Квантизация сверточных нейронных сетей
Классически, из-за очевидных оптимизационных трудностей, при квантизации нейронных сетей используют не просто целые числа, а аппрок- симацию чисел с плавающей запятой через целые. Широко используемым в литературе подходом [52, 54, 60] для приближения чисел с плавающей точ- кой через целые числа произвольной глубины является алгоритм, предло- женный в библиотеке Google GEMMLOWP [59]. Имея входной массив 𝑋, граничные значения [𝑣,𝑣], количество бит 𝑀, результат определен следующим образом:
𝑠𝑐𝑎𝑙𝑒 = (𝑣 − 𝑣)/2, (14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(−𝑣/𝑠𝑐𝑎𝑙𝑒, 0), 2)), (15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡). (16)
Так, для каждого массива из чисел с плавающей запятой мы получаем целочисленный массив 𝑜𝑢𝑡𝑝𝑢𝑡, целое число 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, точно представля- ющее нуль, число двойной точности 𝑠𝑐𝑎𝑙𝑒, определяющее масштаб кванти- зации.
https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y
не квантовые, квантизованные наверное, по типу как здесь
5.4. Квантизация сверточных нейронных сетей
Классически, из-за очевидных оптимизационных трудностей, при квантизации нейронных сетей используют не просто целые числа, а аппрок- симацию чисел с плавающей запятой через целые. Широко используемым в литературе подходом [52, 54, 60] для приближения чисел с плавающей точ- кой через целые числа произвольной глубины является алгоритм, предло- женный в библиотеке Google GEMMLOWP [59]. Имея входной массив 𝑋, граничные значения [𝑣,𝑣], количество бит 𝑀, результат определен следующим образом:
𝑠𝑐𝑎𝑙𝑒 = (𝑣 − 𝑣)/2, (14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(−𝑣/𝑠𝑐𝑎𝑙𝑒, 0), 2)), (15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡). (16)
Так, для каждого массива из чисел с плавающей запятой мы получаем целочисленный массив 𝑜𝑢𝑡𝑝𝑢𝑡, целое число 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, точно представля- ющее нуль, число двойной точности 𝑠𝑐𝑎𝑙𝑒, определяющее масштаб кванти- зации.
https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y
Я же говорю - вопрос перевода - это все синонимы. Вот настройки CatBoost.
Я же говорю - вопрос перевода - это все синонимы. Вот настройки CatBoost.
квантизоны форексус натурале
Она нам не известна. Точней не известна настоящая плотность распределения, а мы наблюдаем только выдержки - поэтому и такие колебания...
Я не живу по понятиям :)
Поэтому сами расскажите мне, как такое явление называется, которое мы не можем наблюдать, так как в процессе его находимся, а оно завершено давно в далеких приделах космоса...
Все равно есть некоторые наблюдения и закономерности, которых стоит придерживаться( увеличение дисперсии и прочее)...
Интересно а можно ли тренировать нейронку генетикой, но обновлять не все веса сразу,а небольшими рандомными кусочками, и так постепенно уменьшать ошибку
Нужно ;-)
Нужно ;-)
?? Есть опыт?
конечно, собираю свои архитектуры исключительно на MQL5, и при собственных ФФ обучаю нейронку как встроенной(MQL5) так и собственной генетикой,
веса обновляю рандомно выбирая 10-20% из общего количества. это в двух словах.
только при собственных ФФ - не уменьшение ошибки.
только при собственных ФФ - не уменьшение ошибки.
это как понять?
Отнюдь, собственные функции приспособленности, и совсем не ошибка и не прибыль. "Устойчивость".