新华社联合北大发布AI大模型评测:安全可靠成重点,360智脑表现优异光明网2023-08-1412:38


首先是算力规模与算力密度上的需求。大模型的出现促使AI对大规模芯片算力的需求更加强烈,按照传统技术路线简单堆砌芯片无法实现期待的算力规模增长,需要从提高算力密度和算力集成度等多个角度同时解决问题。其次是芯片能效问题变得更加突出。芯片高功耗导致的散热等问题,不仅是芯片算力提升的主要障碍,也导致了大模型训练与推理的成本巨大。当前AI芯片能效依然低下,大模型每次训练和推断的电费成本昂贵,导致当前大模型的应用经济性较低。
第三是AI芯片在执行计算密集型任务时面临的内存墙问题。这导致计算芯片的功耗和性能都受限于处理器和存储器之间的数据搬运,严重限制了AI芯片在计算规模、密度、效率等方面的提升。此外,AI芯片的通用性和可编程性趋势也值得关注。目前大模型技术算法有趋同的发展趋势,以Transformer为代表的网络模型正在成为主流。定制化的AI芯片将难以满足AI产业的发展,芯片的通用性和可编程性十分重要。
性能优势明显,存算一体将成解决方案
其实,GPU并非AI大模型部署的唯一算力担当。广义而言,AI芯片指的是专门用于处理人工智能应用中大量计算任务的模块,也就是说面向人工智能领域的芯片均被称为AI芯片。从技术架构来看,目前用于AI处理的主流芯片主要包括GPU、FPGA、ASIC,以及存算一体芯片等。其中,GPU目前被运用的最为广泛,如图像渲染、特效制作等,在数据中心、超级计算机等大型计算设施中均在采用。FPGA是一种灵活可编程的硬件平台,具备较高的计算性能和可定制性等优点,在AI推理应用中表现较为出色。但这两种芯片也存在上面所述的问题。ASIC是针对用户对特定电子系统的需求而设计的专用集成电路,是固定算法最优化设计的产物。在大模型技术算法趋同的情况下,定制化AI芯片整体市场规模有可能受到限制。
存算一体芯片被认为是下一代芯片,虽然目前还受限于成熟度,应用范围不够广泛,但未来却有着极大的发展空间。对此,蔡一茂便指出,新兴的存算一体和近存计算技术直接在存储器内部或附近进行计算,通过将计算和存储功能融合在一起提高数据处理和计算的效率和成本。在大模型时代,存算一体技术有望大幅度提升AI芯片的计算密度和能效,缓解AI 芯片性能与功耗之间的矛盾,提升大模型部署的经济性。特别是针对大模型的推理,存算一体保持权重的特点与大模型中大规模的参数部署需求相匹配,可能是存算一体技术最先服务大模型应用的场景之一。
知存科技创始人、CEO王绍迪在接受采访时也表示,传统芯片是先把数据从存储系统中读取出来,放到乘、加法器当中做计算,然后再把计算结果传回到存储系统当中。这种大规模的数据迁移导致了带宽瓶颈和功耗浪费。存算一体则从计算架框的根本上避免了这种情况发生,同时带来一系列性能优势。

首先是运算的性能更高。存算一体芯片的计算能力取决于存储器的容量规模。所有电子设备当中都会集成存储器,存储与计算相伴而行,有运算的地方就需要对数据进行存储,比如可穿戴手环中可能会集成2M的SD卡,笔记本电脑中会安装1TB的NAND Flash,数据中心的闪存芯片可能会达到256TB。如果采用存算一体芯片,随着存储容量规模的提高,其运算能力也会随之提高。
AI大模型时代,存算一体开启智算未来
集微网报道(文/陈炳欣)ChatGPT一经发布便引起国内外强烈反响,成为史上用户数增长最快的消费者应用,也让人工智能再次回到大众关注的焦点。然而,高昂的部署成本

AI赋能,迈向自智网络新时代——中国联通发布网络AI平台3.0、智能运维机器人3.0产品
2021年12月6日举办的