10月25日消息,RTE2023第九届实时互联网大会上,声网创始人兼CEO赵斌宣布:“声网在RTE行业首次实现广播级4K超高清实时互动体验。”他指出,“4K不仅仅只有分辨率一个纬度,光亮强度的动态范围、色彩的真实度、饱和度,以及色彩渐变的细腻程度,都是真正超高清体验里不可或缺的一环。”
赵斌认为,虚拟人+AIGC所创造的情感和情绪价值或将在未来解决社交供需不平衡的现状,并引领交互对象发生变化。另一层面,随着AIGC能力的进一步加强,越来越多的应用型开发将被AIGC替代,API+AI的形式将大幅提高应用开发效率。
大模型在快速发展,但交互界面仍局限于文字聊天互动方式。赵斌提到,通过过去一年的投入和打磨,声网推出行业首创AIGC-RTC能力模块,可支持与任何大模型平台结合,实现更低延时、更自然、更沉浸的实时语音对话,为企业协作、社交 、直播、游戏等多种场景提供新玩法、新机会。
声网合伙人兼客户成功副总裁孙雨润介绍,“根据声网某东南亚头部泛娱乐客户数据显示,当视频从标清升级高清,停留超过30秒观众数提升19%,观众人均观看时长提升30%,同时观众打赏率大幅提升。某国内知名社交出海App,从CDN升级声网极速直播,送礼率增长12.3%。”
声网首席科学家、CTO钟声指出,回溯过去五年,最典型的事件就是大模型的突破,从2017年的Transformer,到如今的ChatGPT-4,人工智能的发展,让信息传播和消费智能化的趋势越来越明显,万事归于中心化AGI接管的趋势和威胁也越来越明显。大模型在带来发展机遇的同时,也带来了计算需求快速增长、算力受能源供给力限制、大模型数据资源不够、存储需求增长过快等问题。未来,我们除了要做负责任的AI之外,在端上和边缘上的分布式实时智能将成为价值公平分配的重要技术手段,也是减缓中心化AGI对人类威胁的有效途径,这也注定会成为一个新的技术发展趋势。
钟声认为,AGI将走进实时互动,实现人人可分身,帮助在应用场景中复制名师、网红,甚至普通人也将通过AI分身丰富体验、缓解时间稀缺的瓶颈。此外,他预测,具备端边实时智能的高清实时互动能力将成新趋势和竞争焦点。
钟声介绍到,实时高清需要许多端上实时AI,在Low Level Vision and Audio这一需求层面,声网的SDK 4.1.x, 4.2.x版本已经可以支持1080P/4K视频的例如超分、虚拟背景、感知编码、降噪、去回声等底层计算机视觉处理和高音质的计算机听觉处理能力。在High Level Vision and Audio层面,声网已经部分实现对物体、声音、场景的理解和重构能力,包括面捕、动捕、情感计算,物体识别和场景重建等,可以大力改善多种应用场景下的用户体验。(一橙)