做了一个android的小游戏,怎么在Activity添加游戏的音效

做了一个android的小游戏,怎么在Activity添加游戏的音效,第1张

游戏中的声音一般有两种,一种是背景音乐 时间比较长的 一般使用mediaplayer这个类加载资源文件进行播放,另外一种就是游戏的音效 比如发射子d的声音 这种短暂的一般使用souldpool 这个类加载资源文件进行播放。具体怎么使用你可以搜索一下这个类的用法。

openCORE是Android的媒体功能实现的关键 ,使开发人员能在此之上构建新的应用,它支持音视频播放、音视频录制、可视电话、博客、实时流媒体服务等。

openCORE使用了引擎驱动,节点框架(Node architecture) ,它由C++语言编写。引擎接收应用层的命令来负责管理和控制整个节点链路(Node graph) 。节点和节点链路的选取和搭建取决于播放参数(音视频剪辑的类型、 *** 作等)。

通常的节点链路的搭建为以下模式:

输入节点(Source Node) --- 多个处理节点(Decoder Node)或 Codecs ... --- 输出节点(Sink Node)

openCORE还包括一个开放源码的多媒体编解码器,视频(如MPEG- 4,H.264),音频(如MP3,AAC,MIDI), 以及语音(如AMRNB,AMR WB)等。OpenCORE 使用的OpenMAX IL 框架将编解码器整合到openCORE框架中 。 OpenMAX IL API在嵌入式移动领域非常有名,它为组件的移植提供了一个的抽象层。

将音效处理整合到Android多媒体播放器

主要的两大步骤:

1.在openCORE的后端添加对音效库的支持

2.在媒体播放器(应用层)中添加对openCORE中音效处理节点(Node)的支持

第一步、在openCORE的后端添加对音效库的支持

OpenCORE为编解码器的整合提供了多种可选方法,分别可以作为:OpenMAX编解码节点、OpenMAX IL组件、多媒体I/O 。多媒体I/O常常用在输出显示。在音效处理整合中可行的方法是将音效库“包装为”OpenMAX编解码节点 或 OpenMAX IL组件。以下分别说明这两种方式的用法。

1.OpenMAX编解码节点

这种方法要求播放器引擎支持多种音频效果。每个效果组件被实现为一个节点Node,当数据路链路创建后由引擎创建这些节点。数据流在路链的节点Node间“流动”,并有引擎进行管理和控制。同时,随着多个效果节点Node产生的线程增加,系统负荷也会增重。

2.OpenMAX IL组件

音频效果组件所处理的数据为解码组件的输出,所以最好将[音频解码]和[音效处理]组件放在同一层 。OpenCORE采用Open MAX IL为所有的Codec提供API *** 作,OpenCORE这种特性使得整合音效处理变得非常直接了当。

音效处理库被编译成为静态库 ,并用ARM的RVCT优化后,用OpenMAX IL 包装起来构成了OpenCORE组成部分。

[音频解码]和[音效处理]组件是通过API的IL层进行通信的,OMX音频解码节点Node在OpenCORE充当客户端的角色,这个Node节点负责创建、删除、数据流动 ,并将控制命令、数据Buffer传入到音频解码器中,音频解码器处理了数据Buffer后又将它们返回给Node节点。Node节点又将数据Buffer传递给[音效处理]组件。

这种方法与第一种方法相比带来系统负荷较小,但不是说它没有系统负荷。流数据要在两个组件和Node中传输两次(缺陷) ,并且需要协调组件之间的通信问题。

java控件没有自动显示动画的控件,所以都要自己实现。下面是参考链接。

http://wenku.baidu.com/link?url=bNZRyjY2RBQbIHcb1Xyw9OWnKUgU9FfLo8vthfMcNkhD9uY3oDsM_PWOIGzGYQ4z20Mu9ic28PPuIqblEY6yxEBKnK7Zn5AzK3LLQqVTxn7

添加音乐,用mMediaPlayer实现即可


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/bake/11184457.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-14
下一篇 2023-05-14

发表评论

登录后才能评论

评论列表(0条)

保存