AVSpeechUtterance * utterance = [AVSpeechUtterance speechUtteranceWithString:textVIEw.text];float rate = [speedSlIDer value]/1.5;utterance.rate = rate;[speechSynthesizer speakUtterance:utterance];解决方法 可以记录您的应用程序生成的音频(而不是其他应用程序).虽然AVSpeech没有提供API来保存生成的音频,但Apple拥有可以完成该功能的其他API.解决方案可能不像你想要的那么干净,但它应该可以工作.
苹果提供了一个名为Audio Unit Framework的框架来管理高级音频处理和录音.这是iOS SDK中唯一可以同时播放和录制音频的框架(据我所知). Audio Unit Hosting Guide看起来很有前途,Audio Mixer Sample App也是如此.
注意:我没有尝试使用音频单元框架与AVSpeechSynthesizer(它可能或可能不工作).然而,考虑到AVSpeechSynthesizer与CoreAudio很好,那么它更有可能与AudioUnits一起工作.
如果上述解决方案不起作用,那么一个简单的解决方法就可以做到这一点. AVSpeechSynthesizer不需要任何网络连接正常工作,因此在许多情况下您可能不需要保存音频.相反,您可以保存文本以供以后使用NSfileManager:
Nsstring *textToSynthesize = @"Just what do you think you are doing,Dave?";NSError *error;NSArray *paths = NSSearchPathForDirectorIEsInDomains(NSdocumentDirectory,NSUserDomainMask,YES); Nsstring *documentsDirectory = [paths firstObject];[textToSynthesize writetofile:[documentsDirectory stringByAppendingPathComponent:@"synthText.txt"] atomically:YES enCoding:NSUTF8StringEnCoding error:&error];
当您准备好合成文本时,只需从文件中读取并将其插回AVSpeechSynthesizer.我确实意识到这种解决方案在所有情况下都不起作用或适用(例如,如果您需要将音频文件发送给某人).
这些只是解决这个问题的几个可能的解决方案,这两个解决方案都是解决方法,根据您的具体情况可能或可能无法正常工作.因人而异.祝你好运!
总结以上是内存溢出为你收集整理的ios – AVSpeechSynthesizer发音到音频文件全部内容,希望文章能够帮你解决ios – AVSpeechSynthesizer发音到音频文件所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)