谷歌发布跨平台空间音频SDK共振音频

旨在令移动和桌面平台上的VR和AR开发变得更加轻松。

映维网 2017年11月07日)谷歌今天发布了一款名为“Resonance Audio”的新型空间音频软件开发套件。Resonance Audio是一款基于现有VR Audio SDK技术的跨平台工具,旨在令移动和桌面平台上的VR和AR开发变得更加轻松。

谷歌对VR的空间音频支持已经非常成熟。这家科技巨头早在2016年1月便为Cardboard SDK引入了空间音频技术,然后于2016年5月把音频渲染引擎带到了主要的Google VR SDK(通过今年年初的Daydream 2.0更新得到了进一步的优化)。谷歌现有的VR SDK音频引擎已经支持多个平台,但开发者需要参阅专用于各平台的相关功能实施文档。在今年2月份,谷歌官方博客上的一篇文章清楚认识到,兼容各种音频工具是一场“混乱和耗时”的战斗,并且描述了在Unity和Unreal引擎上为多个平台开发精简的FMOD和Wwise插件。

最新的Resonance Audio SDK旨在巩固这一系列的努力,支持移动和桌面平台之间的“大范围”支持。这将简化任何VR/AR游戏或体验中的空间音频的开发工作流程。据映维网了解,新SDK支持在安卓,iOS,Windows,MacOS和Linux上运行的“最流行的游戏引擎,音频引擎和数字音频工作站”。谷歌正在为“Unity,Unreal,FMOD,Wwise和DAW”以及“C/C ++,Java,Objective-C和Web本地API”提供集成。

这种更广泛的跨平台支持意味着:开发者可以为他们的体验实施同一种声音设计,而声音设计将能够在移动和桌面平台上始终如一地执行。为了在移动设备上实现这一目标(针对音频的CPU资源一般非常有限),Resonance Audio采用“基于高阶Ambisonics的高度优化的数字信号处理算法,在不影响音频质量的情况下空间化数百个同步3D声源。”Unity中的一个新功能可以在给定的环境下对混响效果进行预计算,从而在播放过程中“显着降低”CPU使用率。

类似于现有的VR Audio SDK,Resonance Audio能够模拟复杂的声音环境,允许开发者控制来自单个声源的声波传播方向。从单点到墙壁,每个声源的宽度可以进行指定。SDK同时会自动渲染用户手臂范围内的声源的近场效果。近场音频渲染将把声学衍射考虑在内,因为声波会穿过头部。通过使用精确的HRTF,可以增加近场声源定位的准确性。谷歌团队还发布了一个“Ambisonic录制工具”,这样开发者就可以直接在Unity中捕获声音设计,并将其保存到其他位置,比如说游戏引擎或YouTube视频。

Resonance Audio文档目前已经托管至新的开发者网站(点击前往)。对PC VR用户而言,谷歌已经在Steam上发行了Audio Factory(点击前往),这样Rift和Vive用户就能尝鲜实施了新Resonance Audio SDK的体验。Daydream用户可以前往Google Play商店进行查看(点击前往)。

原文链接:https://yivian.com/news/37758.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据