Z6尊龙凯时·(中国区)人生就是搏!

    代码:300638
    / 资讯中心 / Blog / IoT / “轻量级”小模型如何发挥“重量级”作用?

    “轻量级”小模型如何发挥“重量级”作用?

    当大家都还在钻研参数规模达百亿甚至千亿级的大模型时,精巧且兼具性能的小模型已逐步应用于边缘智能终端与嵌入式系统,以“小身板”发挥大作用。相较于大模型,小模型更便于在计算能力和存储空间受限的智能终端运行,在边缘侧即完成计算。


    端侧AI模型的趋势,变得“越来越小”。

    大模型指的是参数量巨大的机器学习模型,参数数量通常在数百亿到数千亿之间,具有强大的计算能力和推理能力,获得更好的性能。“小模型”则是参数量在数亿到数十亿之间,存储和计算资源方面的需求相对较低,能够在端侧进行部署和推理。

    为达到更好的训练效果,小模型的训练语料库可能比大模型更强大,使每一个参数更具价值。另一方面,以大模型为基础,通过知识蒸馏(Knowledge distillation)、量化、剪枝等模型压缩方法也是打造高质小模型的方式之一。今年4月,Meta发布了最新一代大模型Llama 3,其小参数模型效率高于Llama 2的大参数模型。如何让更小的模型具备更好的效果,已然是大模型公司的竞争焦点。

    相比于不得不部署于云端的千亿参数大模型,小模型可在边缘侧实现快速部署和运行,提高终端边缘计算能力和效率。这种“瘦身型”AI算力部署,将提高智能终端的运算能力,实现更多自我学习、自我工作、自我决策的功能。


    Z6尊龙凯时基于高通QCM6490处理器的解决方案搭载了8核高性能处理器,其最高达13TOPS的算力可高效地进行数据计算与处理,运行各类0.5B/1.8B/3B/7B的开源大语言模型,为智能支付、自助服务机、工业检测、具身智能等终端提供了边缘计算的能力。此外,该解决方案还可运行精简小模型,帮助客户在成本、性能、存储、效率上达到平衡。


    无论是大模型,还是小模型,应用的根本是打造离用户更近的模型,助力各类场景智能化。面向端侧AI部署需求,计算效率高、资源占用少、快速迭代的小模型更能定制化地实现边缘计算能力,充分发挥“高效率”的大作用。

    注册账号
    已有账号,立即登录
    fsicon.png
    已把文档发送到您注册的邮箱3150103329@qq.com请注意查收,谢谢!
    fsicon02.png
    您已预约成功,已把具体信息发送到您的邮箱3150103329@qq.com感谢您的信任!
    20200520175738392.jpg
    点击购买

    嘿,这儿!👋 今天需要帮忙吗?

    友情链接: