7月7日,世界人工智能大会期间,腾讯举办以“无限可能”为主题的论坛。腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声发表《腾讯云MaaS,激活产业发展新动能》主题演讲,分享了关于大模型行业应用观点,同时介绍了腾讯云行业大模型技术解决方案的最新进展。

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算 腾讯云MaaS能力再升级 第1张

腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声

吴运声认为,产业场景已经成为大模型的最佳练兵场,但企业在应用大模型时,又会面临计算资源少、数据质量差、投入成本高、专业经验少等现实问题的挑战。

对此,腾讯云不久前公布了行业大模型技术解决方案。该方案依托腾讯云TI平台打造行业大模型精选商店,为客户提供MaaS一站式服务,客户只需要加入自己独有的场景数据,就可以快速生成专属模型,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

据吴运声介绍,继6月19日公布解决方案后,腾讯云MaaS平台能力敏捷迭代,在行业大模型技术底座、应用场景、助力科学计算等方向,均有所优化和提升。

在技术底座层面,腾讯不久前发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施;在应用创新方面,腾讯云也将行业大模型的能力,应用到金融风控、交互翻译、数智人客服等场景中,提升智能应用效率;在科学计算方面,腾讯云始终坚持“AI for Science”,今年将大模型技术,应用在天文探索、甲骨文考释等科研场景。

吴运声最后强调,AI大模型技术发展和产业探索,离不开产业链协同和生态共建,腾讯希望与行业伙伴携手,共同推进大模型在产业领域的创新和落地。

以下为吴运声主题演讲全文:

尊敬的各位嘉宾、媒体朋友们,大家下午好,欢迎来到腾讯论坛!我是腾讯的吴运声。

作为国内规格最高、影响力最大的技术盛会,世界人工智能大会已经连续举办六届,很多新的技术趋势、创新方案、产业成果在这里发布,已经成为人工智能技术发展的风向标。回顾人工智能发展历史,这项技术自诞生之初,就始终伴随人们的期待与失望,呈螺旋式上升的发展趋势。今天,大语言模型驱动“智慧涌现”,又一次将人工智能技术推到了一个新的制高点。

在过去这段时间里,我们发现大语言模型在智能问答、内容创作、智能决策、智能风控等很多业务场景,表现出令人惊艳的应用效果。尤其是广泛的产业场景,已经成为大模型的最佳练兵场。

快速了解、应用大模型能力,是新一轮人工智能技术浪潮中,保持市场核心竞争力的关键。这也成为越来越多企业家共同思考的方向,同时也存在一些焦虑。

实际上,大模型虽好,但用起来还是有很高的门槛。尤其对一些传统领域企业而言,通用大模型无法精准适配、达到降本增效的预期。企业需要的,是在实际场景中真正解决某个问题,而不是在100个场景中解决了70%-80%的问题。

相比之下,训练和部署专属行业大模型,让“通才”变“专才”,对企业来说或许是一个可行路径,但又普遍存在计算资源少、数据质量差、投入成本高、专业经验少等现实挑战。此外,安全、合规,也是企业需要考虑的关键因素。

针对这些问题,我们在6月19日推出了腾讯云MaaS一站式行业大模型解决方案:基于腾讯云TI平台,打造一站式行业大模型精选商店,TI平台内置多个行业高质量大模型,同时支持客户多模型训练任务,客户只需要加入自己独有的场景数据,就可以快速生成自己的“专属模型”,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

目前,我们已经联合金融、文旅、政务、传媒、教育等十多个行业头部客户,共同打造了超过50个行业大模型解决方案。

在金融领域,我们助力中金所技术公司,打造自有模型,降低技术开发与运营成本,支撑多部门业务。针对资源、开发等需求,基于腾讯云TI平台能力,实现资源统一调度,按需扩缩容,降低开发门槛、成本,提高模型开发效率,支持投服部等部门的舆情数据分析场景,每日调用峰值高达1亿次,整体调用成功率超过99%。

在文旅领域,我们联合一家线上旅游OTA公司,共同探索文旅行业大模型的应用。过去,传统智能客服需要人工进行对话配置:知识维护量大、耗时长,但运营人力有限、人力配置成本高,涉及订单等复杂业务场景,在无配置的情况下无法通过机器人闭环解决问题。精调后的客户专属模型,无需配置对话流程,即可实现端到端解决业务问题。提升任务完成率,降低对话构建成本。

在传媒领域,我们联合央视总台,打造了传媒大模型方案。央视总台积累了海量的音视频、图片、文稿等信息资源,但人工编目低效且成本高,传统检索方式召回率低,无法满足时效性和高质量需求。通过腾讯云智能媒体AI中台的大模型能力,央视总台实现智能标签理解、泛化能力提升,以及人脸、图像、视频和自然语言描述的精准检索,提高了资源管理效率和准确性,推动了媒体内容生产与传播的智能化进程。

腾讯云MaaS行业大模型精调解决方案,具备五大优势。基于腾讯深耕产业互联网的行业经验积累,我们在TI平台内置了高质量的行业大模型,同时我们提供完善的平台工具,成熟的流程方法,全面配套服务,领先的安全能力保障,可以为客户提供从模型选择、到落地部署的一站式服务。

同时,在过去两周多时间里,我们也在不断优化和升级腾讯云MaaS平台能力,旨在为客户提供更普惠的行业大模型解决方案。在技术底座层面,我们前几天刚刚发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施。在应用创新方面,我们也将行业大模型能力,应用到金融风控、交互翻译、数智人客服等场景中,极大提升了智能应用效率。在科学计算方向,AI for Science一直是我们关注的重要方向。今年,我们也将大模型技术,应用在天文探索、甲骨文考释等科研场景,取得了不错的成果。

首先,行业大模型加持的金融风控解决方案,相比之前有了10倍效率提升。腾讯云风控大模型融合了腾讯过去20多年黑灰产对抗经验,和上千个真实业务场景,整体反欺诈效果比传统模式有20%左右的提升。企业可以基于prompt模式,迭代风控能力,从样本收集、模型训练到部署上线,实现全流程零人工参与,建模时间也从2周减少到仅需2天。

同时,很多企业受限于积累的样本有限,或者是新品刚刚上线,面临“零样本”搭建风控体系,制定策略非常困难。我们也可以基于腾讯云风控大模型丰富的场景样本快速搭建能力,助力客户跳过“冷启动”过程。

行业大模型在交互翻译场景,也有不错的提升效果。过去的同传技术,往往需要大量样本数据进行训练,尤其涉及一些特别专业领域的翻译,也需要人工加持进行调优,才能保障翻译效果。基于行业大模型技术,不再需要百万级的训练数据,使用小样本训练便也可以获得不错的翻译结果,让每一次交互翻译,都对下一句的翻译提升发挥实时作用,目前已经在多个垂直行业落地。大家看到今天会场,以及世界人工智能大会开幕式、主论坛的同传翻译,都是由腾讯同传进行的技术支持,我们已经连续6年为大会提供同传翻译服务。

今年早些时候,我们推出了小样本数智人工厂,仅需少量数据、24小时即可复刻2D数字分身,大幅提升了生产效率。接下来,我们依托AI生成算法,提升3D形象复刻速度,推进生成式动作驱动,结合行业大模型能力,让企业获得更“个性化、专业、自然逼真”的数智员工,让“面对面”专业服务成为可能。这几天,我们在展台设置了小样本数智人体验,现场拍摄3分钟素材,24小时就可以领取专属数字分身。

与此同时,我们也看到大模型在科学计算方面,也有非常惊艳的表现。在关注AI产业落地同时,AI for Science是我们一直关注的方向。早在2021年,我们将AI技术应用在天文领域,联合国家天文台、复旦大学计算机科学技术学院,发起“探星计划”,旨在通过人工智能技术,提升天文发现和科研的效率,已经帮助Fast发现30颗脉冲星。

在今年,我们首次通过AI技术助力,从巡天观测数据中发现了2颗快速射电暴。相比脉冲星,快速射电暴因为发现时间晚、AI训练数据少、出现频率低,发现难度相比脉冲星要大很多。为此,团队通过全新设计的端到端AI算法,提升数据运算速度。引入多示例学习、注意力机制,同时结合腾讯云行业大模型辅助AI训练,通过自监督预训练+数据精调,提升模型精度,降低数据标注成本。

在文化领域,我们与内外部多个部门携手合作,首次将文字检测、摹本生成、字形匹配等多种AI算法,综合应用于甲骨文研究。截至目前,已建立覆盖143万字的全球最大甲骨文单字数据库,提升甲骨内容提取、甲骨文识别与考释等效率,探索甲骨文研究的人机协同新模式。

大模型训练,算力是基础。腾讯云在大模型算力方面拥有领先优势,今年早些时候,我们发布了面向大模型训练新一代HCC高性能计算集群,整体性能比过去提升了3倍。就在过去一周,腾讯云首次完整披露了自研星脉高性能计算网络,能提升40%的GPU利用率,节省30%~60%的模型训练成本,为AI大模型带来10倍通信性能提升。基于腾讯云新一代算力集群HCC,可支持10万卡的超大计算规模。

最新发布的AI原生向量数据库最高支持10亿级向量检索规模,延迟控制在毫秒级,相比传统单机插件式数据库检索规模提升10倍,同时具备百万级每秒查询(QPS)的峰值能力。这些技术底座能力的持续提升,将为客户的模型训练提供强大的支持和动力。

当然,AI大模型技术发展和产业探索,离不开产业链协同和生态共建,这也是腾讯在AI发展方面一直坚持的态度。为此,我们也在早些时候发布了腾讯云行业大模型共建计划。我们愿与行业伙伴携手,去探索无限的可能性。谢谢大家!

收藏(0)