#include "A2000.h"
#define SPEECH_1 0
#define DAC1 1
#define DAC2 2
#define Ramp_UpDn_Off 0
#define Ramp_UpDn_On 3
#define Manual 0
#define Auto 1
#define Full 1
#define Empty 2
#define Mode 1
//===============================================================================================
/颤橘/ 函数: main()
// 描述:主函数
//===============================================================================================
main()
{
extern long RES_WW_24K_SA,RES_WW_24K_EA //定义语音资源的首末地址标号
long int Addr //定义地址变量
int Ret = 0 //定义获取语音数据变量并初始化
if(Mode == 1) //采用自动方式播放
{
SACM_A2000_Initial(1)//自动方式播放初始化
SACM_A2000_Play(SPEECH_1,DAC1,Ramp_UpDn_On) //销键定义语音索引号、播放通道、允许亏洞巧音量增/减调节
while(1){
F_ClearWatchdog()
SACM_A2000_ServiceLoop()} //获取语音数据并将其填入解码队列
}
if(Mode == 0)//采用非自动方式播放
{
Addr=RES_WW_24K_SA//送入语音队列的首址
SACM_A2000_Initial(0) //非自动方式播放的初始化
SACM_A2000_InitDecoder(DAC1) //开始对A2000的语音数据以非自动方式解码
while(SACM_A2000_TestQueue()!=Full) //测试并获取语音队列的状态
{
Ret=SP_GetResource(Addr) //从资源文件里获取一个字型语音数据
SACM_A2000_FillQueue(Ret) //获取语音编码数据并填入语音队列等候解码
Addr++
}
while(1)
{
if(SACM_A2000_TestQueue()!=Full)
{
Ret =SP_GetResource(Addr)
SACM_A2000_FillQueue(Ret)
Addr++
}
if(Addr<RES_WW_24K_EA ) //如果该段语音未播完,即未到达末地址时
SACM_A2000_Decoder() //获取资源并进行解码,再通过中断服务子程序送入DAC通道播放
else
SACM_A2000_Stop() //否则,停止播放
F_ClearWatchdog()//清看门狗
}
}
}
你把我写的这个程序运行散岩租试试,我调试通过了:%% 该代码为基于带动量项的BP神经网络冲兆语音识别
%% 清空环境变量
clc
clear
%% 训练数据预测数据提取及归一化
%下载四类语音信号
load data1 c1
load data2 c2
load data3 c3
load data4 c4
%四个特征信号矩阵合成一个矩阵
data(1:500,:)=c1(1:500,:)
data(501:1000,:)=c2(1:500,:)
data(1001:1500,:)=c3(1:500,:)
data(1501:2000,:)=c4(1:500,:)
%从1到2000间随机排序
k=rand(1,2000)
[m,n]=sort(k)
%输入输出数据
input=data(:,2:25)
output1 =data(:,1)
%把输出从1维变成4维
for i=1:2000
switch output1(i)
case 1
output(i,:)=[1 0 0 0]
case 2
output(i,:)=[0 1 0 0]
case 3
output(i,:)=[0 0 1 0]
case 4
output(i,:)=[0 0 0 1]
end
end
%随机提取1500个样本为训练样本,500个样本为预测样本
input_train=input(n(1:1500),:)'
output_train=output(n(1:1500),:)'
input_test=input(n(1501:2000),:)'
output_test=output(n(1501:2000),:)'
%输入数据归一化
[inputn,inputps]=mapminmax(input_train)
%% 网络枣清结构初始化
innum=24
midnum=25
outnum=4
%权值初始化
w1=rands(midnum,innum)
b1=rands(midnum,1)
w2=rands(midnum,outnum)
b2=rands(outnum,1)
w2_1=w2w2_2=w2_1
w1_1=w1w1_2=w1_1
b1_1=b1b1_2=b1_1
b2_1=b2b2_2=b2_1
%学习率
xite=0.1
alfa=0.01
%% 网络训练
for ii=1:10
E(ii)=0
for i=1:1:1500
%% 网络预测输出
x=inputn(:,i)
% 隐含层输出
for j=1:1:midnum
I(j)=inputn(:,i)'*w1(j,:)'+b1(j)
Iout(j)=1/(1+exp(-I(j)))
end
% 输出层输出
yn=w2'*Iout'+b2
%% 权值阀值修正
%计算误差
e=output_train(:,i)-yn
E(ii)=E(ii)+sum(abs(e))
%计算权值变化率
dw2=e*Iout
db2=e'
for j=1:1:midnum
S=1/(1+exp(-I(j)))
FI(j)=S*(1-S)
end
for k=1:1:innum
for j=1:1:midnum
dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4))
db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4))
end
end
w1=w1_1+xite*dw1'+alfa*(w1_1-w1_2)
b1=b1_1+xite*db1'+alfa*(b1_1-b1_2)
w2=w2_1+xite*dw2'+alfa*(w2_1-w2_2)
b2=b2_1+xite*db2'+alfa*(b2_1-b2_2)
w1_2=w1_1w1_1=w1
w2_2=w2_1w2_1=w2
b1_2=b1_1b1_1=b1
b2_2=b2_1b2_1=b2
end
end
%% 语音特征信号分类
inputn_test=mapminmax('apply',input_test,inputps)
for ii=1:1
for i=1:500%1500
%隐含层输出
for j=1:1:midnum
I(j)=inputn_test(:,i)'*w1(j,:)'+b1(j)
Iout(j)=1/(1+exp(-I(j)))
end
fore(:,i)=w2'*Iout'+b2
end
end
%% 结果分析
%根据网络输出找出数据属于哪类
for i=1:500
output_fore(i)=find(fore(:,i)==max(fore(:,i)))
end
%BP网络预测误差
error=output_fore-output1(n(1501:2000))'
%画出预测语音种类和实际语音种类的分类图
figure(1)
plot(output_fore,'r')
hold on
plot(output1(n(1501:2000))','b')
legend('预测语音类别','实际语音类别')
%画出误差图
figure(2)
plot(error)
title('BP网络分类误差','fontsize',12)
xlabel('语音信号','fontsize',12)
ylabel('分类误差','fontsize',12)
%print -dtiff -r600 1-4
k=zeros(1,4)
%找出判断错误的分类属于哪一类
for i=1:500
if error(i)~=0
[b,c]=max(output_test(:,i))
switch c
case 1
k(1)=k(1)+1
case 2
k(2)=k(2)+1
case 3
k(3)=k(3)+1
case 4
k(4)=k(4)+1
end
end
end
%找出每类的个体和
kk=zeros(1,4)
for i=1:500
[b,c]=max(output_test(:,i))
switch c
case 1
kk(1)=kk(1)+1
case 2
kk(2)=kk(2)+1
case 3
kk(3)=kk(3)+1
case 4
kk(4)=kk(4)+1
end
end
%正确率
rightridio=(kk-k)./kk
语音识别原理
语音识别系统的本质就是一种模式识别卜竖渗系统,它也包括特征提取、模式匹配、参型脊考模式库等基本单元。由于语音信号是一种典型的非平稳信号,加之呼吸气流、外部噪音、电流干扰等使得语音信号不能直接用于提取特征,而要进行前期的预处理。预处理过程包括预滤波、采样和量化、分帧、加窗、预加重、端点检测等。经过预处理的语音数据就可以进行特征参数提取。在训练阶段,将特征参数进行一定的处理之后,为每个词条得到一个模型,保存为模板库。在识别阶段,语音信号经过相同的通道得到语音参数,生成测试模板,与参考模板进行匹配,将匹配分数最高的参考模板作为识别结果。后续的处理过程还可能包括更高层次的词法、句法和文法处理等,从而最终将输入的语音信号转变成文本或命令。
DTW算法原理
DTW是把时间规整和距离测度计算结合起来的一种非线性规整技术,它寻找一个规整函数im=Ф(in) ,将测试矢量的时间轴n非线性地映射到参考模板的时间轴m上,并使该函数满足:
D就是处于最优时间规整情况下两矢量的距离。由于DTW不断地计算两矢量的距离以寻找最优的匹配路径,所以得到的是两矢量匹配时累积距离最小所对应的规整函数,这就保证了它们之间存在的最大声学相似性。
DTW算法的实质就是运用动态规划的思想,利用局部最佳化的处理来自动寻找一条路径,沿着这条路径,纤告两个特征矢量之间的累积失真量最小,从而避免由于时长不同而可能引入的误差。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)