2024-02-26 16:02:41 作者 : 中国电子报作者:赵晨 围观 :136次
OpenAI视频模型Sora的爆火在春节后迅速引燃整个行业,一时间“史诗级”“地表最强”等溢美之词不绝于耳,甚至引发了中美大模型差距拉大的话题。诚然,Sora所展现的文生60秒一镜到底视频的能力,是生成式AI的巨大飞跃,但放大到中美大模型差距拉大也大可不必。
低头细看,国内在大模型应用上完全不输,技术上差距的一时拉大代表不了永远,也代表不了所有,与其忧心忡忡不如埋头实干。
正视差距也要正视机遇
如果单论差距,产品只是一个维度上的展现,大模型的综合实力体现在技术能力、数据、算力、人才、应用等多个方面,其中“卡脖子”的是算力和数据质量。在算力方面,我国正在努力构建自主可控的产业链。在数据质量方面,国家数据局等17个部门联合印发了《“数据要素×”三年行动计划(2024—2026年)》,指出要以推动数据要素高水平应用为主线,带动数据要素高质量供给、合规高效流通。在算力和数据质量上,国内各方都在合力追赶。
而从全球技术进步的角度来看,每一次大的技术浪潮都来自一个现象级应用。如果Sora是这个现象级应用,那么它会推动全球而不是单一国家的技术应用创新。中国在大模型技术应用和产业化方面也有着独特的优势。
实际上,如果你问ChatGPT“Sora发布是否意味着中美大模型差距拉大”这样的问题,它的回答都会相当辩证。ChatGPT表示,虽然Sora代表着美国新一代大模型取得的显著进步,但这并不能和中美大模型差距拉大画等号。ChatGPT指出,中国在数据资源方面有一定优势,并持续加大对人才的培养和引进力度。另外,在中文语境下,中国的大模型技术可能会更适用或更具竞争力。
此外,ChatGPT表示,OpenAI发布Sora在某种程度上会加剧中美大模型竞争,但也会激发中国企业加快技术创新和应用落地的步伐,推动中国的大模型技术不断向前发展。由此可见,至少在这个问题上,人工智能工具看问题要更冷静、更客观。
强化大模型应用优势
应用是中国大模型的优势环节并不是自吹自擂,国内庞大的互联网用户基数、互联网信息化普及程度、产业链配套能力、应用场景、政策支持等都给大模型落地提供了丰富的土壤。《2023AI大模型应用中美比较研究》报告指出,美国在基础模型上保持领先,而中国则在应用上更胜一筹。基于国内庞大的下游需求,国内涌现出大量大模型应用相关创业项目,以及各垂直领域成熟企业的大模型应用。
成熟商用领域大模型应用落地比较顺畅,因为场景明确、需求明确。大模型应用是基于用户真实需求推动,用户对大模型能力的感受会更直观,未来商业化空间也更大。
相比较通用大模型,有能力的垂直企业倾向于研发大模型自用。原因是通用大模型综合能力强,但未必适用于企业所在的垂直领域。比如夸克是一个比较值得观察的案例。与百度等做通用大模型的思路不同,夸克在2023年11月发布的大模型主要是为了服务自身业务,根据自身业务衍生出通识、医疗、教育等垂类模型。正是因为业务明确,在大模型发布后的不到100天里,夸克便已经发布了四款大模型产品:元知、健康助手、AI讲题助手、AI PPT。这四款产品分别在搜索、医疗健康、教育学习、职场办公业务上为用户提供服务。
用户对夸克大模型产品的反馈也比较直观。据了解,夸克健康助手发布后,用户对健康助手的回答满意度相当高,主要原因是夸克健康助手答案的准确性、逻辑性都比较高。在用户群体中有相当比例的用户是医学生,能够获得专业群体青睐,至少说明夸克在解决幻觉率上做得比较好。
准确性高的原因是因为夸克意识到,要解决大模型的应用问题,关键要保证知识的正确性。根据夸克技术负责人的表述,通过模型预训练、人类对齐、模型改进、知识增强等组合,夸克大模型将医疗健康类问答内容幻觉率降低至5%,处在业内领先水平。另外,这也涉及高质量语料库的问题。夸克自身的搜索业务、夸克文档的积累等,都给夸克训练大模型提供了天然土壤,夸克的训练语料在绝对数量上虽然不是最大的,但胜在质量比较高。
在硬件产品和工业领域,也有很多大模型落地场景在推进中。比如在传统PC基础上,联想已经发布了多款AI PC,这是将大模型能力加持到PC上的进化产物;前不久在CES 2024上吸引了诸多目光的口袋AI设备Rabbit R1,也是由中国开发者开发。在工业领域,阿里巴巴的千问大模型就被应用于工业机器人,提高了机器人的任务推理和执行能力。
所以我们缩小差距的机会有吗?答案是有,需要在优势领域扩大优势,落后领域奋起追赶。因为即使在大模型应用领域,目前所处的阶段也比较初级,离真正大规模商用还有较远距离。但整个大模型的竞争远远未到终局,这时候仰望星空是为了明确方向,更重要的是要脚踏实地。