今年年初,一场由ChatGPT引发、令无数人重新审视人工智能(AI)的新一代科技革命在全球掀起浪潮。超出预料的对话能力与巨大的想象空间,令AI同样成为中国资本市场2023年最热门的题材之一,国内AI发展呈现出齐头并进、各显神通的状态。
图片来源于网络,如有侵权,请联系删除
经过一年的演绎,业内对于人工智能的态度日趋理性。最终,商业模式的故事,需要找到落脚点。
图片来源于网络,如有侵权,请联系删除
今年2月7日,ChatGPT热度正盛,百度官宣将推出新一代大语言模型“文心一言”,就此拉开“百模大战”序幕。
图片来源于网络,如有侵权,请联系删除
一时间,几乎所有互联网巨头都发布了自己的大模型。比如,昆仑万维在发布其大模型后,迅速获得市场追捧,股价在短时间内上涨超过300%。一些规模偏小的公司则发布了基于行业的大模型应用,股价也是乘势而上。
就在“百模大战”甚嚣尘上之时,投资者发现,尽管不少大模型还未上线,但厂商的抢购已经让英伟达的显卡“脱销”了。
作为生态最为完整的算力芯片,英伟达的A800芯片价格快速上涨,一张卡从4万元、5万元一路涨至10万元甚至13万元、14万元,而且还不一定有货。
意识到巨大的需求缺口后,市场果断将目光转向算力芯片、服务器等上游硬件。
产业链上的巨头们纷纷发布新品,抢占英伟达无法满足的市场。例如,今年8月,华为与科大讯飞联合发布讯飞星火一体机,其FP16算力2.5petaFLOPS,在单卡算力上已可对标英伟达A100。
实际上,国产算力底座已经悄然走向台前。
10月13日,中国电信发布《AI算力服务器(2023年~2024年)集中采购项目》中标候选人公示,以G系列为代表的国产AI服务器中标金额约为28亿元,占比约33%;中标台数约1977台,占比约47%。
硬件的持续投入,使算力中心快速铺开成为可能。
今年10月,工业和信息化部等六部门印发《算力基础设施高质量发展行动计划》,根据计划,到2025年,算力规模将超过300 EFLOPS(每秒进行百亿亿次浮点运算的能力),智能算力占比达到35%;应用赋能方面,围绕工业、金融、医疗、交通、能源、教育等重点领域,分别打造30个以上的应用标杆。
不少公司已开始布局,多家公司宣布中标算力中心项目,涉及金额在数亿元至数十亿元不等。
时值年末,AI巨头再次集中向市场发出信号――寻找商业模式。
谷歌放出“迄今为止最强大、最通用的模型”――Gemini,其多个任务性能超过GPT-4;谷歌的Pixel8 Pro成为首款兼容Gemini Nano的手机。
英特尔则在另一个层面试图引导人工智能的落地走向。这家巨头公布了一项宏大计划:2024年为全球PC制造商的230多款机型提供端侧AI特性,并在2025年交付1亿颗客户端处理器。
这轮人工智能热潮的引领者OpenAI自然不会“坐以待毙”,其不仅计划自研AI芯片,而且还计划与前苹果首席设计师Jony Ive、日本软银集团CEO孙正义合作,打造AI硬件产品。
很明显,海外巨头已纷纷将目光瞄准AI的端侧。
国内亦然。今年8月,华为开始“试水”盘古大模型端侧运行。在大模型加持下,鸿蒙4.0中的“小艺”可以基于用户图片生成图片,实现自动生成邮件邀约、会议记录等功能。
荣耀Magic 6机型也将带来荣耀自研的70亿参数规模AI模型。此外,OPPO、vivo以及小米均试图将自身打造的AI大模型植入智能手机端,成为AI端侧落地的突破口。
“过去AI大模型主要在云端运行,终端设备需要联网才能获得AI的加持。要想让AI大模型技术更加普及落地,实现人人都可以用AI,就必须有满足以上要求的硬件和设备载体。”国内主流智能手机厂商人士表示。
除了智能手机之外,PC、智能眼镜、智能音箱等终端也将成为人工智能的硬件入口。其中,作为消费电子的两大主力,智能手机和PC或将在沉寂许久后迎来久违的复苏。根据IDC预测,到2026年,中国市场近50%的终端设备处理器将应用AI技术。
AI在端侧的重塑,也将为硬件迭代创造价值。以智能手机为例,华泰证券一份研报分析称,AI大模型在手机应用方面对其BOM成本的影响主要包括:SoC方面,AI引擎升级、NPU算力提升;存储方面,手机RAM升级至24GB LPDDR5X,相较当前主流的8GB LPDDR4X,成本提升300%;电源方面,电池/电源管理芯片升级,但弹性相对较小;光学方面:AI推动屏下摄像头应用取得突破。
存储方面,推理场景下,一个100亿参数模型(FP16 精度)不考虑模型运算时的临时变量,总计需要18.6GB内存。一些厂商已陆续推出大内存配置的手机,8月,小米新发布的K60至尊版内存已提升至24GB,为AI应用发展留足空间。
推荐阅读:
爱博医疗: 公司的双焦点人工晶状体在本次国采中获得了较大的关注
专题推荐: