- ArrayBsearch
- ArrayCopy
- ArrayCompare
- ArrayFree
- ArrayGetAsSeries
- ArrayInitialize
- ArrayFill
- ArrayIsDynamic
- ArrayIsSeries
- ArrayMaximum
- ArrayMinimum
- ArrayPrint
- ArrayRange
- ArrayResize
- ArrayInsert
- ArrayRemove
- ArrayReverse
- ArraySetAsSeries
- ArraySize
- ArraySort
- ArraySwap
- ArrayToFP16
- ArrayToFP8
- ArrayFromFP16
- ArrayFromFP8
ArrayFromFP16
将ushort类型数组复制到给定格式的float或double类型的数组中。
bool ArrayFromFP16(
|
double类型的重载
bool ArrayFromFP16(
|
参数
dst_array[]
[out] 接收器数组或float或double类型。
src_array[]
[in] ushort类型的源数组。
fmt
[in] 来自ENUM_FLOAT16_FORMAT枚举的复制格式。
返回值
如果成功返回true,否则返回false。
注意
格式FLOAT16和BFLOAT16在ENUM_FLOAT16_FORMAT枚举中定义,在MQL5中仅用于ONNX模型的操作。
如果从OnnxRun函数执行得到的输出参数为FLOAT16和BFLOAT16类型,则可以使用该函数将结果转换为float或double数组。
FLOAT16,也称为半精度float(浮点),使用16位来表示浮点数。这种格式提供了准确性和计算效率之间的平衡。FLOAT16广泛应用于需要对大型数据集进行高性能处理的深度学习算法和神经网络。这种格式通过减少数字大小来加速计算,这在GPU上训练深度神经网络时尤其重要。
BFLOAT16(或Brain Floating Point 16)也使用16位,但在格式表示方法上与FLOAT16不同。在该格式中,分配8位用于表示指数,而剩余7位用于表示尾数。这种格式是为深度学习和人工智能而开发的,特别是在谷歌的张量处理单元(TPU)中。BFLOAT16在神经网络训练方面表现出优异的性能,可以有效加速计算。
示例:函数来自文章使用float16和float8格式的ONNX模型
//+------------------------------------------------------------------+
|
另见