
这段时间陆陆续续的在做一些关于 iOS 开发细节的东西,先是跟进了音频部分(以下简称为 Audio ),主要分为以下几大部分:
说起 iOS 中的 Audio,耳熟能详的就是 AVFoundation,毕竟它是个全能型的框架,不过的 AVFoundation 现在的地位可以类比 Javascript 现在的地位,Javascript 现在甚至都插手嵌入式开发了。
但也就是这种什么所谓的全能型选手,拥有大而全的技能,却缺少了一些底蕴。也就是在这段时间中,我才发现,居然还有专门针对 3D 音效的 openAL、擅长编解码过程的 AudioToolBox 等等一些非常优秀的音频处理框架,重点是这些框架都是 iOS SDK 中本身就提供了的。
根据网上资料,梳理了如下一张在 iOS 中的音频处理各个框架所处的位置, 
**基本操作:**播放、暂停、停止、循环等等一些基本的音频播放功能。
**控制:**可对音频进行任意时间位置播放;进度控制。
**其它:**可从文件或缓冲区播放声音;获取音视频关键参数,如音频标题、作者、功率等等。
如果我们并不想实现比如 3D 立体音效,精确的音频歌词同步等功能,那么这个框架所提供的 API 是完全足够的,但是如果我们想要的进行一些比如对音频流的捕获,捕获后还要进行一些 RTSP、RTMP 等流媒体协议的处理,再或者进行一些 RAC、PCM 或 PCM 转 MP3 等一些音频的转码方式处理,那这个框架就非常捉鸡了。但是它能够非常轻松的进行简单的音频操作,如上所示基本操作、控制等。
相对于 AVAudioPlayer 来说,其更加强大!它不仅能够完成播放音频和录制音频,还能够通过 AudioQueue 拿到音频的原始信息,想想看!我们能够拿到音频的原始信息,那就可以做比如任意的编码解码、一些特效转化如变音等等骚操作!我们还可以进行任意的应用层封装,比如说封装成适用于 RTMP、RTSP 的流媒体协议处理。
使用 Audio Queue,我们只需要进行三个步骤即可:
emmm,看到 openAL 我会想到 openGL,openGL 主要是用于处理一些 3D 的图像或变化,openAL 主要是在声源物体、音效缓冲和收听者这三者之间进行设置来实现 3D 效果,比如可以设置声源的方向、速度、状态等,所以我们可以听到声音由远及近的这种 3D 效果。
总的来说,openAL 主要有三个方面,
对音频文件的信息进行读取(注意不是对音频文件进行编解码),通过 AudioFile 框架的相关 API 对一个音频文件信息进行读取,主要有以下几大步骤:
AudioFileOpenURL。首先我们要通过一个 URL 打开音频文件。
AudioFileGetPropertyInfo。获取我们想要读取的音频文件信息类型。
AudioFileGetProperty。得到相关音频的属性 NSLog 出来即可。
AudioFileClose。关闭音频文件。(打开文件就要关闭文件)
从上我们看到基本上都是归类于 Get 方法,但是 AudioFile 也提供了一个丰富的 set 方法,可以实时的修改对应音频相关信息。
举个!!!
我们首先得引入#import <AudioToolbox/AudioToolbox.h>框架,从 Xcode 7 开始,我们就不需要手动引入 framework 了,因为当我们引入 iOS SDK 中对应的 framework 中的相关.h 文件时,Xcode 会自动帮我们导入对应的 framework。
// 首先从应用沙盒中提取音频文件路径 NSString *audioPath = [[NSBundle mainBundle] pathForResource:@"test" ofType:@"mp3"]; // 转置成 URL NSURL *audioURL = [NSURL fileURLWithPath:audioPath]; // 打开音频 // 设置音频文件标识符 AudioFileID audioFile; // 通过转置后的音频文件 URL,打开获取到的音频文件 // kAudioFileReadPermission:只读方式打开音频文件;(__bridge CFURLRef):只接受 C 语言风格类型变量,所以我们要用一个强转桥接类型转回去 AudioFileOpenURL((__bridge CFURLRef)audioURL, kAudioFileReadPermission, 0, &audioFile); // 读取 UInt32 dictiOnarySize= 0; AudioFileGetPropertyInfo(audioFile, kAudioFilePropertyInfoDictionary, &dictionarySize, 0); CFDictionaryRef dictionary; AudioFileGetProperty(audioFile, kAudioFilePropertyInfoDictionary, &dictionarySize, &dictionary); // 经过以上两步,我们就拿到了对应音频的相关信息。再强转桥接类型回去即可。 NSDictionary *audioDic = (__bridge NSDictionary *)dictionary; for (int i = 0; i < [audioDic allKeys].count; i++) { NSString *key = [[audioDic allKeys] objectAtIndex:i]; NSString *value = [audioDic valueForKey:key]; NSLog(@"%@-%@", key, value); } CFRelease(dictionary); AudioFileClose(audioFile); 运行工程后,即可看到对应的 log,
与 iOS Audio 有关的 framework 有:
| framework Name | uses | | - | -: | | MediaPlayer.framework | VC,提供一些控制类 ViewController,使用起来较为简单,致命缺点:功能单一,对底层 API 高度封装、高度集成,不利于自定义 | | AudioIUnit.framework | 底层,提供核心音频处理插件,例如音频单元类型、音频组件接口、音频输入输出单元,用于控制音频的底层交互 | | OpenAL.framework | 3D,提供 3D 音频效果 | | AVFoundation.framework | 全能型,音频的录制、播放及后期处理等(基于 C ) | | AudioToolbox.framework | 编解码,音频编解码格式转化 |
综上所述,在日常开发中我和大家也要重点关注 iOS 音频架构中的高层服务框架,这部分框架是日常开发中经常会手撸代码的地方,而在 framework 层面,我们要重点关注 AVFoundation,虽然它是一个基于 C 的 framework。,但是它却能够对音频进行精细入微的控制,当我们使用 AVFoundation 进行录音和播放时,能够拿到音频的原始 PCM 解码之后的数据,拿到这些数据能够对音频进行特效的处理。如果我们要做一个音频播放类的产品,那么用到 MediaPlayer.framework 的次数会很多。
在中层服务中,如果大家有对音频做了一些比如 RTMP、RTSP 等流媒体处理的时,可能会用到 Audio Convert Services (感觉我是用不到了)。比如这么个场景,当我们使用 RTMP 进行语音直播的时候,通过麦克风采集到的数据可能是原始的 PCM 数据,但是我们想在播放时候使用 AAC 格式进行播放,那就得把 PCM 转成 AAC,那就得用 Audio Convert Services 这个中间层服务。
当我们想做一些音频加密算法或音频的加密声波,那可能就会使用到中间层的 Audio Unit Services,它可以对硬件层进行一些精细的控制。而 Audio File Services 是对音频文件的封装和变化。因此啊,除了底层服务的相关框架外,中间层和高层服务是需要我们(尤其是我自己)去重点掌握的。
SystemSound 框架用于播放系统声音,比如某些特殊的提示音、震动等,若我们要使用该框架来播放自定义声音,要求对应的音频编码方式为 PCM 的原始音频,长度一般不超过 30 秒(你要想超过也没法,只不过不推荐)。
当我们使用该框架调用震动功能时,只能用于 iPhone 系列设备,iPod 和 iPad 系列均无效,因为只有 iPhone 系列设备的厚度能够允许塞下震动模块(而且还是改进后的 Tapic Engine )。当我们使用该框架播放系统音乐效果时,静音情况下无效;播放提示音乐效果时,无论静音与否均有效。
因此使用 SystemSound 适用于播放提示音及游戏中的特殊短音效用处会更大。
举个!
NSString *deviceType = [[UIDevice currentDevice] model]; if ([deviceType isEqualToString:@"iPhone"]) { // 调用正常的震动模块,静音后无效 AudioServicesPlaySystemSound(kSystemSoundID_Vibrate); } else { UIAlertController *alertVC = [UIAlertController alertControllerWithTitle:@"注意" message:@"您的设备不支持震动" preferredStyle:UIAlertControllerStyleAlert]; [self presentViewController:alertVC animated:true completion:^{ }]; } 以上是我们进行调用震动模块的测试代码,上文已经说明只有 iPhone 系列设备中才能体现效果,因此我们最好是加上设备类型判断(当然你可以不加),改框架也是基于 C 的(比较直接操作底层硬件),代码风格也是趋向于 C,实际上就这一句话AudioServicesPlaySystemSound(kSystemSoundID_Vibrate);,大家可以从这篇文章中找到其它 SystemSoundID,如果系统提供的音效并不适合我们,那么我们可以载入自定义音效,
NSURL *systemSoundURL = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"test" ofType:@"mp3"]]; // 创建 ID SystemSoundID systemSoundID; AudioServicesCreateSystemSoundID((CFURLRef)CFBridgingRetain(systemSoundURL), &systemSoundID); // 注册 callBack AudioServicesAddSystemSoundCompletion(systemSoundID, nil, nil, soundFinishPlaying, nil); // 播放声音 AudioServicesPlaySystemSound(systemSoundID); 分析以上测试代码发现一个有趣的现象,就算是自定义音效也是要通过 AudioServicesPlaySystemSound 去载入音频文件标识符,所以可以大胆的推测!之所以 iOS 系统占用这么大的存储空间是有相当大的一部分为系统音效音频资源。不用的音效还没法删除,估计也是怕其他 App 会用到吧。
常用的如 44100,CD 就是。还有一些其它的 32 千赫兹。采样频率越高,所能描绘的声波频率也就越高。
精度嘛,衡量一个东西的精确程度。是将模拟信号分成多个等级的量化单位。量化的精度越高,声音的振幅就越接近原音。因为我们平时听到的音乐或者声音都是模拟信号,而经过计算机处理的都是数字信号,将模拟信号转换为数字信号的这个过程我们称之为量化。而量化,我们得需要一定的信号来逼近它,这种逼近的过程,也就是量化的过程,这种逼近的精度,也就成为量化精度。所以不管我们如何逼近,那也只是逼近而已,与原来的模拟信息还是有些不同。精度越高,听起来就越细腻
数字信号每秒钟传输的信号量。
看一个综合实例,
通过使用<AVFoundation/AVFoundation.h>和<AudioToolbox/AudioToolbox.h>框架来完成这个实例,在这个实例中,讲读取一个音频文件,对其进行播放、暂停、停止等操作,并可设置是否静音、循环播放次数、调节音量、时间,并可看到当前音频播放进度。
界面的搭建非常简单,大家自定义即可,只需要拖拽出对应的相关控件属性及方法即可。
// 播放按钮点击事件 - (IBAction)playerBtnClick:(id)sender { // 设置音频资源路径 NSString *playMusicPath = [[NSBundle mainBundle] pathForResource:@"test" ofType:@"mp3"]; if (playMusicPath) { // 开启 Audio 会话实例 [[AVAudioSession sharedInstance] setCategory:AVAudioSessionCategoryPlayback error:nil]; NSURL *musicURL = [NSURL fileURLWithPath:playMusicPath]; audioPlayer = [[AVAudioPlayer alloc] initWithContentsOfURL:musicURL error:nil]; audioPlayer.delegate = self; audioPlayer.meteringEnabled = true; // 设置定时器,每隔 0.1 秒刷新音频对应文件信息(伪装成实时) timer = [NSTimer scheduledTimerWithTimeInterval:0.1 target:self selector:@selector(monitor) userInfo:nil repeats:true]; [audioPlayer play]; } } // 定时器任务 - (void)monitor { // numberOfChannels 声道数,一般都是 2 吧,代表左右双声道 NSUInteger channels = audioPlayer.numberOfChannels; NSTimeInterval duration = audioPlayer.duration; [audioPlayer updateMeters]; NSString *peakValue = [NSString stringWithFormat:@"%f, %f\n channels=%lu duration=%lu\n currentTime=%f", [audioPlayer peakPowerForChannel:0], [audioPlayer peakPowerForChannel:1], (unsigned long)channels, (unsigned long)duration, audioPlayer.currentTime]; self.audioInfo.text = peakValue; self.musicProgress.progress = audioPlayer.currentTime / audioPlayer.duration; } // 暂停按钮点击事件 - (IBAction)pauseBtnClick:(id)sender { // 再次点击暂停才会播放 if ([audioPlayer isPlaying]) { [audioPlayer pause]; } else { [audioPlayer play]; } } // 停止按钮点击事件 - (IBAction)stopBtnClick:(id)sender { self.volSlider.value = 0; self.timeSlider.value = 0; [audioPlayer stop]; } // 静音按钮点击方法 - (IBAction)muteSwitchClick:(id)sender { // 实际上音量为 0 即静音 // 刚好这还是个 Switch 开关 audioPlayer.volume = [sender isOn]; } // 调节音频时间方法( UIProgress ) - (IBAction)timeSliderClick:(id)sender { [audioPlayer pause]; // 防止归一化( Xcode 默认都是 0~1,转化为实际值) [audioPlayer setCurrentTime:(NSTimeInterval)self.timeSlider.value * audioPlayer.duration]; [audioPlayer play]; } // UIStepper 点击事件(音频循环播放) - (IBAction)cycBtnClick:(id)sender { audioPlayer.numberOfLoops = self.cyc.value; }
在 iOS 7 之后,AVFoundation 提供了语音识别功能,使用它非常的简单,
// 语音识别控制器 AVSpeechSynthesizer* speechManager = [[AVSpeechSynthesizer alloc] init]; speechManager.delegate = self; // 语音识别单元 AVSpeechUtterance* uts = [[AVSpeechUtterance alloc] initWithString:@"23333"]; uts.rate = 0.5; [speechManager speakUtterance:uts]; 需要注意,如果本机系统语言设置成了英文是不能够识别中文的喔!
最近自己在总结从大一到现在 iOS 开发经验内容,目前正在编写 UITableView、Objective-C 语言使用、iOS 与 OpenCV 结合、iOS 与 Cocos2D-X 结合等内容,因为目前只有我自己一个人在总结,后续会一块拉小伙伴们持续输出高质量总结文章哒~希望大家能够喜欢,能够帮助到大家!
欢迎 star、fork、提 PR 支持!!!