HTML5   发布时间:2022-04-27  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了iphone – iOS:音频单元RemoteIO AudioBuffer操作(即麦克风的声音效果)大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我一直在玩Apple的aurioTouch演示,这是他们的音频单元教程的示例代码.该应用程序允许从麦克风同时输入/输出.发言者.它还呈现来自麦克风的输入声音的立体图.

在这个低级进程的真正高级别,示例代码定义了一个AudioComponent(在这种情况下,RemoteIO允许同时输入/输出),并且该音频单元有一个渲染回调.在回调中,他们根据来自麦克风的AudioBuffer声音数据进行一些音频过滤(DC拒绝过滤器)和立体图的可视化.

我的最终目标是根据麦克风的输入创建我自己的自定义声音失真音频单元.我认为基于音频单元教程的正确方法是制作第二个音频单元并将它们与音频处理图连接起来.但是,我已经读过iOS不允许您注册自己的自定义音频单元.我的问题是:

>我可以对来自remoteIO音频单元的渲染回调中可访问的AudioBufferList进行直接操作(因为他们似乎已经这样做并在其上应用音频过滤器)并在那里创建我自己的自定义声音失真?
>我已经尝试将AudioBufferList数据分配给一个常量(我看到它从样本运行和记录AudioBufferList中看到的值),但它似乎什么都不做.

解决方法

你的一个问题的答案是肯定的.这通常是如何完成的.

我相信你需要直接操纵指针中的数据,而不是重新分配.您可能需要查看openframeworks中处理分配缓冲区并将其传递给回调的代码https://github.com/openframeworks/openFrameworks/blob/master/addons/ofxiPhone/src/sound/ofxiPhoneSoundStream.mm

还有其他代码,你可以看看,尼克柯林斯有一个基本的应用程序,用于从麦克风和扬声器中取出声音,在其间进行处理:http://www.cogs.susx.ac.uk/users/nc81/code.html.他还有代码,从iPod轨道获取样本缓冲区对你有用.

大佬总结

以上是大佬教程为你收集整理的iphone – iOS:音频单元RemoteIO AudioBuffer操作(即麦克风的声音效果)全部内容,希望文章能够帮你解决iphone – iOS:音频单元RemoteIO AudioBuffer操作(即麦克风的声音效果)所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。