算法|读《AI嵌入式系统》,看AI大规模商业落地的未来( 二 )


比如 , 基于GPU的通用多处理器架构 , 方案通用性强、算力高 , 但代价是硬件成本高、功耗大;基于专用运算加速引擎的定制化方案运算效率高 , 功耗可控 , 但运算结构相对固定 , 灵活性差;而基于现有处理器对算法进行深度优化的方案成本低 , 不需要专用或定制化硬件 , 通用性强 , 但代价是需要手动对各案例逐个优化 , 开发难度高 。
存在即合理 , 不同的路径在不同的场景都有其存在的价值 。
《AI嵌入式系统: 算法优化与实现》中关注的是基于现有嵌入式处理器系统和架构 , 通过不同层次的优化实现机器学习算法 。 虽然所介绍的方法以通用嵌入式处理器为例 , 但也能够应用于GPU或者硬件加速引擎架构 , 比如基于变换域的快速卷积算法 , 在GPU的底层运算库中得到应用 , 基于加减图的常数乘法运算能够方便地在芯片硬件设计中实现 。
多样性不仅存在于处理器系统和架构 , 包括机器学习也涉及多个不同领域的算法选择 。
比如 , 基于统计学系的算法理论模型设计精巧 , 泛化性好 , 运算量相对较低 , 容易在存储量的运算量受限的嵌入式系统中实现 , 但它依赖较强的概率假设 , 模型上的偏差限制了它在实际应用中的性能 。
反观神经网络算法 , 尽管性能优越 , 但庞大的参数存储量限制了其在嵌入式系统上的实现 。 近年来的研究发现 , 很多神经网络架构中存在大量冗余的运算和参数 , 通过运算的简化和架构裁剪能够大大降低神经网络对计算性能和内存的需求 , 使得在嵌入式系统上实现它成为可能 。
因此 , 《AI嵌入式系统: 算法优化与实现》讨论的内容 , 也覆盖了基于统计学和基于神经网络的机器学习算法在嵌入式系统上的实现 , 通过算法和例程介绍具体的优化手段 。
“小心思”帮读者更快吸收知识点
为什么说《AI嵌入式系统: 算法优化与实现》 , 可以同时满足开发者和专业学生的需要呢?

首先 , 从专业度上来说 , 本书的两位作者都有较强的专业背景 , 如应忍冬是上海交通大学电子信息与电气工程学院副教授 , 硕士生导师 。 长期从事嵌入式系统和数字电路教学与科研工作;刘佩林是上海交通大学电子信息与电气工程学院教授 , 博士生导师 。 他们既具备专业视角 , 也懂得如何授业解惑 。
其次 , 从内容的详实度上 , 本书的内容涵盖了通用嵌入式优化技术 , 包括基于SMD指令集的优化、内存访问模式优化、参数量化等 , 并在此基础上介绍了信号处理层面的优化、Al推理算法优化及基于神经网络的Al算法训练—推理联合的优化理论与方法 。 此外 , 本书还通过多个自动搜索优化参数并生成C代码的例子介绍了通用的嵌入式环境下机器学习算法自动优化和部署工具开发的基本知识 , 通过应用示例和大量代码说明了Al算法在通用嵌入式系统中的实现方法 , 力求让读者在理解算法的基础上 , 通过实践掌握高效的Al嵌入式系统开发的知识与技能 。
第三 , 《AI嵌入式系统: 算法优化与实现》本身也考虑到不同受众的接受度问题 , 因此在机器学习算法在嵌入式系统中的内容不仅给出了手动优化的步骤 , 也有软件辅助优化的介绍 , 让读者可以根据的实际需求进行理解 。 特别是书中底层算法代码 , 以Python语言形式进行了展现 。 这是考虑到Python语言表达能力和程序简洁性 , 这些“小心思”可以帮助读者更好的吸收和学习本书的知识点 。
随着人工智能技术 , 在各个行业的普及 , 将AI技术和嵌入式系统相结合 , 构建AI嵌入式系统 , 本身也是为AI商业化的大规模落地奠定了基础 , 而这也是《AI嵌入式系统: 算法优化与实现》一书的初衷 。

相关经验推荐