发布时间:2025-12-06
浏览次数:
更要争分夺秒地捕捉、剪辑、分发精彩瞬间,让观众第一时间享受最新鲜的赛事精华。
基于腾讯云ADP(智能体开发平台)打造的「AI内容服务平台」,可以帮助编辑记者朋友们处理直播素材、整理赛事内容,辅助写新闻稿和做播客等。
这是全栈AI第一次在全运会这样的大型体育赛事直播中,系统参与内容直播制作环节。对广东台而言,也是一次融合创新尝试。整个全运会期间,AI累计辅助广东台生产了百余条爆款内容,整体效率提升40%。
传统模式下,想剪一条「苏炳添冲刺」的集锦,编辑记者需要紧盯直播流,标记、剪辑,动辄要几十分钟甚至更久。现在,基于AI内容服务平台,这一流程压缩至十分钟甚至几分钟。
平台依托腾讯云媒体处理(MPS)AI处理能力,实现直播录制、直播人物拆条、高光集锦生成三大自动化功能——
直播人物拆条:针对特定运动员,平台采用「人脸识别+人物位置追踪」组合模型,能识别「运动员身份」并锁定人物在画面中的位置。当目标人物离开画面5到10秒,平台就会自动判断片段边界,完成切片打包;
高光集锦生成:基于混元大模型的动态场景理解能力,平台能实时分析运动员动作、裁判手势以及观众反应,自动生成「扣篮」「庆祝」等精彩瞬间。编辑无需回看全部录像,即可获得标注好的精华内容。
为了防止AI判断片段起止点时出现误差(如动作截取不全),平台还设有智能容错机制,对关键动作前后预留10秒甚至更长的镜头缓冲,编辑可自行调熊猫体育直播平台整入点和出点,确保剪出来的片子有头有尾,动作完整。
腾讯云提供的「多模态内容管理」,让编辑可以按片段、场景、摘要或者语音,用自然语言进行内容检索。
这背后,是一套基于多模态大模型的「理解-记忆」机制。每一条视频进入素材库后,AI会为它建立多维度的「数字档案」:
听懂声音。视频上传后,平台进行音画分离,通过语音识别将现场解说、采访对话等语音转写为文本,并根据语义切分成片段;
看懂画面。视频素材被拆解为一个个小片段,比如一个运动员的特写就是一个片段,AI会对每个片段的景别(近景/中景/远景/特写)、内容、动作等进行描述,打上标签;
向量化存储。所有的声音文本、画面描述以及字幕信息等,都转化为方便AI理解和检索的「向量」,存入数据库。
这样一来,当编辑记者需要某个片段时,无需翻找文件夹,只需在搜索框里输入关键词,比如「扣篮得分」,AI就能理解他的意图,精准定位到相关的画面和声音片段,直接推送。
除了视频生产与检索,腾讯云还围绕编辑记者采编的全流程,配备了一系列开箱即用的AI能力——
智能写作助手:提供「新闻通讯」「赛事评论」「新媒体文案」「分镜编写」等多种风格的智能体,为稿件撰写提供灵感和初稿;
AI双人播客:基于腾讯混元播客大模型,可将一篇新闻稿一键转化为生动自然的双人对话式播客音频,快速适配视频号、APP等融媒体平台。
此前,腾讯云提供的AI技术曾为苏超赛事提供直播增强、精彩集锦生成等服务,可以自动抓取出每一次射门、扑救和红黄牌等关键瞬间。
而广东台业内首创的AI实践,正在照亮媒体融合创新的更多可能。我们很荣幸,能够参与并支持广东台完成这次创新探索。
我们更期待,将这些智能工具带给更多媒体伙伴——将繁琐交给技术,将创造力还给人,共同打造更多值得铭记的好内容。