学习ONNX交易 - 页 15

 

GRCon20 - 使用 ONNX 在 GNU Radio 中进行深度学习推理



GRCon20 - 使用 ONNX 在 GNU Radio 中进行深度学习推理

该视频讨论了使用 ONNX 作为一种开放格式,将深度学习集成为射频领域的灵活开源解决方案。演讲者介绍了他们的新模块 GR DNN DN4,该模块对 GNU Radio 和 ONNX 使用 Python 接口,并通过使用在 GNU Radio 生成的模拟数据上训练的深度卷积神经网络模型进行自动调制分类的示例展示了其功能。他们还讨论了使用深度学习对 BGG16 模型的 SDR 数据进行分类的要求和挑战,并建议使用硬件加速(例如 GPU)来改进推理并获得实时结果。该项目是开源的,鼓励合作。

  • 00:00:00 在视频的这一部分,Oscar Rodriguez 讨论了他在 GNU Radio 和 ONNX 中的深度学习推理工作。他们项目的主要目标是将深度学习作为一种灵活的开源解决方案集成到射频领域。他们选择 ONNX 是因为它是一种开放格式,允许不同框架之间的机器学习互操作性,解决了深度学习框架不兼容的问题。但是,使模型适应 ONNX 会产生成本,并且某些操作可能存在操作可用性问题,尽管 ONNX 得到 Microsoft 的积极开发和支持这一事实缓解了这一问题。最终,ONNX 在用户的模型和不同的深度学习框架之间提供了一个抽象层。

  • 00:05:00 部分讨论了 ONNX 的使用,它允许在 TensorFlow 和 PyTorch 等各种框架中设计和训练机器学习模型,然后再将它们转换为通用格式以在 ONNX 块中使用。 ONNX定义了一套深度学习模型常用的基本操作,其运行时提供了各种软硬件加速的接口和支持。运行时还创建模型的图形表示,它根据可用的加速器将操作分配给不同的执行提供者。

  • 00:10:00 在本节中,演讲者讨论了 ONNX 中执行提供程序的可扩展性,只要所有 ONNX 操作都在该平台上实施,就可以支持新的硬件平台。然后他们介绍了他们的新模块 GR DNN DN4,该模块使用 Python 接口用于 GNU Radio 和 ONNX。同步模块使输入适应模型的预期格式,用转换后的数据拟合模型,然后将输出转换回一维格式。该模块还允许选择 ONNX 支持的不同执行提供程序。演讲者继续使用在 GNU Radio 生成的模拟数据上训练的深度卷积神经网络模型进行自动调制分类示例,从而展示 GR DNN DN4 的功能。
     
  • 00:15:00 在本节中,演讲者讨论了使用深度学习通过 BGG16 模型对 SDR 数据进行分类。他们解释说,模型的输入需要一个包含 128 个 IQ 值的向量,它必须适应 SDR 设备的输出。他们还指出,深度学习推理是计算密集型的,性能取决于模型的复杂性。演讲者最后建议使用 GPU 等硬件加速可以改进推理并获得实时结果。

  • 00:20:00 在本节中,演讲者讨论了一种新的无线电实施,它可以使用深度学习模型表示的标准格式集成深度学习推理和软件定义无线电 (SDR),并支持各种加速方法。演讲者演示了该模块如何用于自动调制分类并通过硬件加速实现实时推理。演讲者还讨论了该模块未来的改进,包括使其更灵活地适用于不同类型的深度学习模型,以及在模块中包含预处理功能。该项目是开源的,鼓励合作。
原因: