ios – AVSpeechSynthesizer发音到音频文件

ios – AVSpeechSynthesizer发音到音频文件,第1张

概述我在我的应用程序中使用AVSpeechSynthesizer,我正在寻找将口头文本保存到音频文件或AVAsset.我经历了苹果的文档,没有看到任何东西,但是我想提出一个问题来确保.以下是我当前的代码. AVSpeechUtterance * utterance = [AVSpeechUtterance speechUtteranceWithString:textView.text];float 我在我的应用程序中使用AVSpeechSynthesizer,我正在寻找将口头文本保存到音频文件或AVAsset.我经历了苹果的文档,没有看到任何东西,但是我想提出一个问题来确保.以下是我当前的代码.
AVSpeechUtterance * utterance = [AVSpeechUtterance speechUtteranceWithString:textVIEw.text];float rate = [speedSlIDer value]/1.5;utterance.rate =  rate;[speechSynthesizer speakUtterance:utterance];
解决方法 可以记录您的应用程序生成的音频(而不是其他应用程序).虽然AVSpeech没有提供API来保存生成的音频,但Apple拥有可以完成该功能的其他API.解决方案可能不像你想要的那么干净,但它应该可以工作.

苹果提供了一个名为Audio Unit Framework的框架来管理高级音频处理和录音.这是iOS SDK中唯一可以同时播放和录制音频的框架(据我所知). Audio Unit Hosting Guide看起来很有前途,Audio Mixer Sample App也是如此.

注意:我没有尝试使用音频单元框架与AVSpeechSynthesizer(它可能或可能不工作).然而,考虑到AVSpeechSynthesizer与CoreAudio很好,那么它更有可能与AudioUnits一起工作.

如果上述解决方案不起作用,那么一个简单的解决方法就可以做到这一点. AVSpeechSynthesizer不需要任何网络连接正常工作,因此在许多情况下您可能不需要保存音频.相反,您可以保存文本以供以后使用NSfileManager:

Nsstring *textToSynthesize = @"Just what do you think you are doing,Dave?";NSError *error;NSArray *paths = NSSearchPathForDirectorIEsInDomains(NSdocumentDirectory,NSUserDomainMask,YES); Nsstring *documentsDirectory = [paths firstObject];[textToSynthesize writetofile:[documentsDirectory stringByAppendingPathComponent:@"synthText.txt"] atomically:YES enCoding:NSUTF8StringEnCoding error:&error];

当您准备好合成文本时,只需从文件中读取并将其插回AVSpeechSynthesizer.我确实意识到这种解决方案在所有情况下都不起作用或适用(例如,如果您需要将音频文件发送给某人).

这些只是解决这个问题的几个可能的解决方案,这两个解决方案都是解决方法,根据您的具体情况可能或可能无法正常工作.因人而异.祝你好运!

总结

以上是内存溢出为你收集整理的ios – AVSpeechSynthesizer发音到音频文件全部内容,希望文章能够帮你解决ios – AVSpeechSynthesizer发音到音频文件所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/web/1111832.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-29
下一篇 2022-05-29

发表评论

登录后才能评论

评论列表(0条)

保存