首页 > 代码库 > HTML5 WebAudioAPI-实例(二)
HTML5 WebAudioAPI-实例(二)
简单播放实例1:
var url=‘../content/audio/海阔天空.mp3‘; if (!window.AudioContext) { alert(‘您的浏览器不支持AudioContext‘); } else { //创建上下文 var ctx = new AudioContext(); //使用Ajax获取音频文件 var request = new XMLHttpRequest(); request.open(‘GET‘, url, true); request.responseType = ‘arraybuffer‘;//配置数据的返回类型 //加载完成 request.onload = function () { var arraybuffer = request.response; ctx.decodeAudioData(arraybuffer, function (buffer) { //处理成功返回的数据类型为AudioBuffer console.info(buffer); //创建AudioBufferSourceNode对象 var source = ctx.createBufferSource(); source.buffer = buffer; source.connect(ctx.destination); //指定位置开始播放 source.start(0); }, function (e) { console.info(‘处理出错‘); }); } request.send(); }
实例2,带暂停:
<div class="container"> <button class="btn btn-primary" id="playBtn"> <i class="glyphicon glyphicon-pause"></i> </button> </div> <script> var url=‘../content/audio/海阔天空.mp3‘; if (!window.AudioContext) { alert(‘您的浏览器不支持AudioContext‘); } else { //创建上下文 var ctx = new AudioContext(); var source = null; //使用Ajax获取音频文件 var request = new XMLHttpRequest(); request.open(‘GET‘, url, true); request.responseType = ‘arraybuffer‘;//配置数据的返回类型 //加载完成 request.onload = function () { var arraybuffer = request.response; ctx.decodeAudioData(arraybuffer, function (buffer) { //处理成功返回的数据类型为AudioBuffer //console.info(buffer); //创建AudioBufferSourceNode对象 source = ctx.createBufferSource(); source.buffer = buffer; source.connect(ctx.destination); //指定位置开始播放 source.start(0); console.info(source); }, function (e) { console.info(‘处理出错‘); }); } request.send(); //绑定播放按钮 $(‘#playBtn‘).click(function () { var icon = $(this).find(‘i‘);; icon.toggleClass(‘glyphicon-play‘).toggleClass(‘glyphicon-pause‘); //停止播放 source.stop(); }); } </script>
说明:
WebAudio API主要是为音频文件添加音效而设计的,但是它也可以用来播放音频文件,这类似于HTML5 audio元素的功能,只是audio元素可以有控制界面,用户可以点击界面上的播放/停止按钮来控制文件的播放,也可以拖动界面上的进度条来控制播放进度。而采用WebAudio API实现的音频播放则没有控制界面,但对于移动平台Android,IOS确实非常有用的,例如在Android平台上Chrome浏览器设置了gesture-requirement-for-media-playback属性,意思是说不能通过调用audio元素的play函数实现音频文件的播放,除了调用play函数之外,还必须要求用户在屏幕上有一个手势操作,该行为和苹果的IOS上的行为一致。
使用WebAudio播放音频文件的效率问题
前面介绍了如何使用WebAudio来播放音频文件,但是需要注意的是不要轻易采用WebAudio的该功能,因为当音频文件较大时,可能会影响程序的执行效率。首先,如果我们在程序中采用XMLHttpRequest去下载文件时,这是一个比较耗时的操作,具体的时间取决于当前的网络环境和文件的大小,尽管程序中采用异步的下载方式,但是同样会让音频的播放延迟。其次,程序需要调用WebAudio的decodeAudioData函数去解码整个音频文件,这里需要注意的是它需要一次性解码整个文件后,才会触发成功的回调函数,程序才能开始播放音频文件,这又一次的增加了音频文件播放的延迟,另外,由于整个文件的一次性解码,整个解码前和解码后的文件都同时存放在内存中,这也引起了内存的巨大开销(相比采用audio元素播放时,因为audio元素是一边解码一边播放)。此时可能有朋友会质疑decodeAudioData API的实现有问题,其实该函数是为解码比较短小的声音文件而设计的,另外由于WebAudio对音频的延时性特别关注,所以为了较少声音的延时,在音效处理前要求把需要处理的音频文件装载进内存。
所以如果需要使用WebAudio播放文件,又比较关注效率问题时,建议把音频文件的大小缩小一些,或者分解成若干小的文件再分别加载解码播放。
更多:HTML5 WebAudioAPI简介(一)
HTML5 WebAudioAPI-实例(二)