如何利用统计模型预测股票市场的价格动态?

如何利用统计模型预测股票市场的价格动态?,第1张

利用统计模型预测股票市场的价格动态是一种常见的方法,以下是一些常见的统计模型:

ARIMA模型:ARIMA模型是一种时间序列分析模型,常用于分析股票价格的变化趋势和周期性。ARIMA模型可以捕捉到时间序列的自回归和滞后因素,可以用来预测股票价格的未来变化。

GARCH模型:GARCH模型是一种波动率模型,用于预测股票价格的波动率。GARCH模型可以捕捉到股票价格波动的自回归和滞后因素,用于预测未来的股票价格波动。

回归模型:回归模型是一种广义线性模型,用于预测股票价格与宏观经济因素之间的关系。回归模型可以捕捉到股票价格与利率、通货膨胀等宏观经济变量之间的关系,用于预测未来的股票价格走势。

神经网络模型:神经网络模型是一种非线性模型,常用于预测股票价格的变化趋势。神经网络模型可以学习到股票价格变化的复杂模式,包括非线性关系和噪声。

支持向量机模型:支持向量机模型是一种机器学习模型,用于预测股票价格的变化趋势。支持向量机模型可以捕捉到股票价格变化的复杂关系,包括非线性关系和噪声。

在实际应用中,选择合适的统计模型需要考虑多方面因素,如数据的时间跨度、变化趋势、噪声程度、数据采集频率等。同时,在使用统计模型进行预测时,需要注意模型的有效性和可靠性,以避免过度拟合和欠拟合等问题。

(1)结构:许多树突(dendrite)用于输入,一个轴突 (axon)用于输出。

(2)特性:兴奋性和传导性。兴奋性是指当信号量超过某个阈值时,细胞体就会被激活,产生电脉冲。传导性是指电脉冲沿着轴突并通过突触传递到其它神经元。

(3)有两种状态的机器:激活时为“是”,不激活时为“否”。神经细胞的状态取决于从其他神经细胞接收到的信号量,以及突触的性质(抑制或加强)。

(1)神经元——不重要

① 神经元是包含权重和偏置项的 函数 :接收数据后,执行一些计算,然后使用激活函数将数据限制在一个范围内(多数情况下)。

② 单个神经元:线性可分的情况下,本质是一条直线, ,这条直线将数据划分为两类。而线性分类器本身就是一个单层神经网络。

③ 神经网络:非线性可分的情况下,神经网络通过多个隐层的方法来实现非线性的函数。

(2)权重/参数/连接(Weight)——最重要

每一个连接上都有一个权重。一个神经网络的训练算法就是让权重的值调整到最佳,以使得整个网络的预测效果最好。

(3)偏置项(Bias Units)——必须

① 如果没有偏置项,所有的函数都会经过原点。

② 正则化偏置会导致欠拟合:若对偏置正则化,会导致激活变得更加简单,偏差就会上升,学习的能力就会下降。

③ 偏置的大小度量了神经元产生激励(激活)的难易程度。

(1)定义:也称为转换函数,是一种将输入 (input) 转成输出 (output) 的函数。

(2)作用:一般直线拟合的精确度要比曲线差很多,引入激活函数能给神经网络 增加一些非线性 的特性。

(3)性质:

① 非线性:导数不是常数,否则就退化成直线。对于一些画一条直线仍然无法分开的问题,非线性可以把直线变弯,就能包罗万象;

② 可微性:当优化方法是基于梯度的时候,处处可导为后向传播算法提供了核心条件;

③ 输出范围:一般限定在[0,1],使得神经元对一些比较大的输入会比较稳定;

④ 非饱和性:饱和就是指,当输入比较大的时候输出几乎没变化,会导致梯度消失;

⑤ 单调性:导数符号不变,输出不会上蹿下跳,让神经网络训练容易收敛。

(1)线性函数 (linear function)—— purelin()

(2)符号函数 (sign function)—— hardlim() 

① 如果z值高于阈值,则激活设置为1或yes,神经元将被激活。

② 如果z值低于阈值,则激活设置为0或no,神经元不会被激活。

(3)对率函数 (sigmoid function)—— logsig()

① 优点:光滑S型曲线连续可导,函数阈值有上限。

② 缺点:❶ 函数饱和使梯度消失,两端梯度几乎为0,更新困难,做不深;

                ❷ 输出不是0中心,将影响梯度下降的运作,收敛异常慢;

                ❸ 幂运算相对来讲比较耗时

(4)双曲正切函数(hyperbolic tangent function)—— tansig()

① 优点:取值范围0中心化,防止了梯度偏差

② 缺点:梯度消失现象依然存在,但相对于sigmoid函数问题较轻

(5)整流线性单元 ReLU 函数(rectified linear unit)

① 优点:❶ 分段线性函数,它的非线性性很弱,因此网络做得很深;

                ❷ 由于它的线性、非饱和性, 对于随机梯度下降的收敛有巨大的加速作用;

② 缺点:❶ 当x<0,梯度都变成0,参数无法更新,也导致了数据多样化的丢失;

                ❷ 输出不是0中心

(6)渗漏型整流线性单元激活函数 Leaky ReLU 函数

① 优点:❶ 是为解决“ReLU死亡”问题的尝试,在计算导数时允许较小的梯度;

                ❷ 非饱和的公式,不包含指数运算,计算速度快。

② 缺点:❶ 无法避免梯度爆炸问题; (没有体现优于ReLU)

                ❷ 神经网络不学习 α 值。

(7)指数线性单元 ELU (Exponential Linear Units)

① 优点:❶ 能避免“死亡 ReLU” 问题;

                ❷ 能得到负值输出,这能帮助网络向正确的方向推动权重和偏置变化;

                ❸ 在计算梯度时能得到激活,而不是让它们等于 0。

② 缺点:❶ 由于包含指数运算,所以计算时间更长;

                ❷ 无法避免梯度爆炸问题; (没有体现优于ReLU)

                ❸ 神经网络不学习 α 值。

(8)Maxout(对 ReLU 和 Leaky ReLU的一般化归纳)

① 优点:❶ 拥有ReLU的所有优点(线性和不饱和)

                ❷ 没有ReLU的缺点(死亡的ReLU单元)

                ❸ 可以拟合任意凸函数

② 缺点 :参数数量增加了一倍。难训练,容易过拟合

(9)Swish

① 优点:❶ 在负半轴也有一定的不饱和区,参数的利用率更大

                ❷ 无上界有下界、平滑、非单调

                ❸ 在深层模型上的效果优于 ReLU

每个层都包含一定数量的单元(units)。增加层可增加神经网络输出的非线性。

(1)输入层:就是接收原始数据,然后往隐层送

(2)输出层:神经网络的决策输出

(3)隐藏层:神经网络的关键。把前一层的向量变成新的向量,让数据变得线性可分。

(1)结构:仅包含输入层和输出层,直接相连。

(2)作用:仅能表示 线性可分 函数或决策,且一定可以在有限的迭代次数中收敛。

(3)局限:可以建立与门、或门、非门等,但无法建立更为复杂的异或门(XOR),即两个输入相同时输出1,否则输出0。 (“AI winter”)

(1)目的:拟合某个函数      (两层神经网络可以逼近任意连续函数)

(2)结构:包含输入层、隐藏层和输出层 ,由于从输入到输出的过程中不存在与模型自身的反馈连接,因此被称为“前馈”。    (层与层之间全连接)

(3)作用: 非线性 分类、聚类、预测等,通过训练,可以学习到数据中隐含的知识。

(4)局限:计算复杂、计算速度慢、容易陷入局部最优解,通常要将它们与其他网络结合形成新的网络。

(5)前向传播算法(Forward Propagation)

① 方法:从左至右逐级依赖的算法模型,即网络如何根据输入X得到输出Y,最终的输出值和样本值作比较, 计算出误差 。

② 目的:完成了一次正反向传播,就完成了一次神经网络的训练迭代。通过输出层的误差,快速求解对每个ω、b的偏导,利用梯度下降法,使Loss越来越小。

② 局限:为使最终的误差达到最小,要不断修改参数值,但神经网络的每条连接线上都有不同权重参数,修改这些参数变得棘手。

(6)误差反向传播(Back Propagation)

① 原理:梯度下降法求局部极值

② 方法:从后往前,从输出层开始计算 L 对当前层的微分,获得各层的误差信号,此误差信号即作为修正单元权值的依据。计算结束以后,所要的两个参数矩阵的 梯度 就都有了。

③ 局限:如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用 交叉熵函数 作为损失函数。

(1)原理:随着网络的层数增加,每一层对于前一层次的抽象表示更深入。在神经网络中,每一层神经元学习到的是前一层神经元值的更抽象的表示。通过抽取更抽象的特征来对事物进行区分,从而获得更好的区分与分类能力。

(2)方法:ReLU函数在训练多层神经网络时,更容易收敛,并且预测性能更好。

(3)优点:① 易于构建,表达能力强,基本单元便可扩展为复杂的非线性函数

                      ② 并行性号,有利于在分布是系统上应用

(4)局限:① 优化算法只能获得局部极值,性能与初始值相关

                      ② 调参理论性缺乏

                      ③ 不可解释,与实际任务关联性模糊

(1)原理:由手工设计卷积核变成自动学习卷积核

(2)卷积(Convolutional layer): 输入与卷积核相乘再累加 (内积、加权叠加)

① 公式:

② 目的:提取输入的不同特征,得到维度很大的 特征图(feature map)

③ 卷积核:需要训练的参数。一般为奇数维,有中心像素点,便于定位卷积核

④ 特点:局部感知、参数变少、权重共享、分层提取

(3)池化(Pooling Layer):用更高层的抽象表达来表示主要特征,又称“降采样”

① 分类: 最大 (出现与否)、平均(保留整体)、随机(避免过拟合)

② 目的:降维,不需要训练参数,得到新的、维度较小的特征

(4)步长(stride):若假设输入大小是n∗n,卷积核的大小是f∗f,步长是s,则最后的feature map的大小为o∗o,其中

(5)填充(zero-padding)

① Full模式:即从卷积核(fileter)和输入刚相交开始做卷积,没有元素的部分做补0 *** 作。

② Valid模式:卷积核和输入完全相交开始做卷积,这种模式不需要补0。

③ Same模式:当卷积核的中心C和输入开始相交时做卷积。没有元素的部分做补0 *** 作。

(7)激活函数:加入非线性特征

(8)全连接层(Fully-connected layer)

如果说卷积层、池化层和激活函数层等是将原始数据映射到隐层特征空间(决定计算速度),全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用(决定参数个数)。

参考:

[1]  神经网络(入门最详细)_ruthy的博客-CSDN博客_神经网络算法入门

[2]  神经网络(容易被忽视的基础知识) - Evan的文章 - 知乎

[3]  人工神经网络——王的机器

[4]  如何简单形象又有趣地讲解神经网络是什么? - 舒小曼的回答 - 知乎

[5]  神经网络15分钟入门!足够通俗易懂了吧 - Mr括号的文章 - 知乎

[6]  神经网络——最易懂最清晰的一篇文章_illikang的博客-CSDN博客_神经网络

[7]  直觉化深度学习教程——什么是前向传播——CSDN

[8]  “反向传播算法”过程及公式推导(超直观好懂的Backpropagation)_aift的专栏-CSDN

[9]  卷积、反卷积、池化、反池化——CSDN

[10]  浙大机器学习课程- bilibilicom

人工智能时代已经悄然来临,在计算机技术高速发展的未来,机器是否能代替人脑?也许有些读者会说,永远不可能,因为人脑的思考包含感性逻辑。事实上,神经网络算法正是在模仿人脑的思考方式。想不想知道神经网络是如何“思考”的呢?下面我向大家简单介绍一下神经网络的原理及使用方法。

所谓人工智能,就是让机器具备人的思维和意识。人工智能主要有三个学派——行为主义、符号主义和连接主义。

行为主义是基于控制论,是在构建感知动作的控制系统。理解行为主义有个很好的例子,就是让机器人单脚站立,通过感知要摔倒的方向控制两只手的动作,保持身体的平衡,这就构建了一个感知动作控制系统。

符号主义是基于算数逻辑和表达式。求解问题时,先把问题描述为表达式,再求解表达式。如果你在求解某个问题时,可以用if case这样的条件语句,和若干计算公式描述出来,这就使用了符号主义的方法,比如“专家系统”。符号主义可以认为是用公式描述的人工智能,它让计算机具备了理性思维。但是人类不仅具备理性思维,还具备无法用公式描述的感性思维。比如,如果你看过这篇推送,下回再见到“符号主义”几个字,你会觉得眼熟,会想到这是人工智能相关的知识,这是人的直觉,是感性的。

连接主义就是在模拟人的这种感性思维,是在仿造人脑内的神经元连接关系。这张图给出了人脑中的一根神经元,左侧是神经元的输入,“轴突”部分是神经元的输出。人脑就是由860亿个这样的神经元首尾相接组成的网络。

神经网络可以让计算机具备感性思维。我们首先理解一下基于连接主义的神经网络设计过程。这张图给出了人类从出生到24个月神经网络的变化:

随着我们的成长,大量的数据通过视觉、听觉涌入大脑,使我们的神经网络连接,也就是这些神经元连线上的权重发生了变化,有些线上的权重增强了,有些线上的权重减弱了。

我们要用计算机仿出这些神经网络连接关系,让计算机具备感性思维。

首先需要准备数据,数据量越大越好,以构成特征和标签对。如果想识别猫,就要有大量猫的和这张是猫的标签构成特征标签对,然后搭建神经网络的网络结构,再通过反向传播优化连接的权重,直到模型的识别准确率达到要求,得到最优的连线权重,把这个模型保存起来。最后用保存的模型输入从未见过的新数据,它会通过前向传播输出概率值,概率值最大的一个就是分类和预测的结果。

我们举个例子来感受一下神经网络的设计过程。鸢尾花可以分为三类:狗尾鸢尾、杂色鸢尾和佛吉尼亚鸢尾。我们拿出一张图,需要让计算机判断这是哪类鸢尾花。人们通过经验总结出了规律:通过测量花的花萼长、花萼宽、花瓣长、花瓣宽分辨出鸢尾花的类别,比如花萼长>花萼宽,并且花瓣长/花瓣宽>2,则可以判定为这是第一种,杂色鸢尾。看到这里,也许有些读者已经想到用if、case这样的条件语句来实现鸢尾花的分类。没错,条件语句根据这些信息可以判断鸢尾花分类,这是一个非常典型的专家系统,这个过程是理性计算。只要有了这些数据,就可以通过条件判定公式计算出是哪类鸢尾花。但是我们发现鸢尾花的种植者在识别鸢尾花的时候并不需要这么理性的计算,因为他们见识了太多的鸢尾花,一看就知道是哪种,而且随着经验的增加,识别的准确率会提高。这就是直觉,是感性思维,也是我们这篇文章想要和大家分享的神经网络方法。

这种神经网络设计过程首先需要采集大量的花萼长、花萼宽、花瓣长、花瓣宽,和它们所对应的是哪种鸢尾花。花萼长、花萼宽、花瓣长、花瓣宽叫做输入特征,它们对应的分类叫做标签。大量的输入特征和标签对构建出数据集,再把这个数据集喂入搭建好的神经网络结构,网络通过反向传播优化参数,得到模型。当有新的、从未见过的输入特征,送入神经网络时,神经网络会输出识别的结果。

展望21世纪初,在近十年神经网络理论研究趋向的背景下,神经网络理论的主要前沿领域包括:

一、对智能和机器关系问题的认识进一步增长。

研究人类智力一直是科学发展中最有意义,也是空前困难的挑战性问题。人脑是我们所知道的唯一智能系统,具有感知识别、学习、联想、记忆、推理等智能。我们通过不断 探索 人类智能的本质以及联结机制,并用人工系统复现或部分复现,制造各种智能机器,这样可使人类有更多的时间和机会从事更为复杂、更富创造性的工作。

神经网络是由大量处理单元组成的非线性、自适应、自组织系统,是在现代神经科学研究成果的基础上提出的,试图模拟神经网络加工、记忆信息的方式,设计一种新的机器,使之具有人脑风格的信息处理能力。智能理论所面对的课题来自“环境——问题——目的”,有极大的诱惑力与压力,它的发展方向将是把基于连接主义的神经网络理论、基于符号主义的人工智能专家系统理论和基于进化论的人工生命这三大研究领域,在共同追求的总目标下,自发而有机地结合起来。

二、神经计算和进化计算的重大发展。

计算和算法是人类自古以来十分重视的研究领域,本世纪30年代,符号逻辑方面的研究非常活跃。近年来,神经计算和进化计算领域很活跃,有新的发展动向,在从系统层次向细胞层次转化里,正在建立数学理论基础。随着人们不断 探索 新的计算和算法,将推动计算理论向计算智能化方向发展,在21世纪人类将全面进入信息 社会 ,对信息的获取、处理和传输问题,对网络路由优化问题,对数据安全和保密问题等等将有新的要求,这些将成为 社会 运行的首要任务。因此,神经计算和进化计算与高速信息网络理论联系将更加密切,并在计算机网络领域中发挥巨大的作用,例如大范围计算机网络的自组织功能实现就要进行进化计算。

人类的思维方式正在转变,从线性思维转到非线性思维神经元,神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特性。我们在计算智能的层次上研究非线性动力系统、混沌神经网络以及对神经网络的数理研究,进一步研究自适应性子波、非线性神经场的兴奋模式、神经集团的宏观力学等。因为,非线性问题的研究是神经网络理论发展的一个最大动力,也是它面临的最大挑战。

以上就是有关神经网络的相关内容,希望能为读者带来帮助。

以上内容由苏州空天信息研究院谢雨宏提供。

样本变量不需要那么多,因为神经网络的信息存储能力有限,过多的样本会造成一些有用的信息被丢弃。如果样本数量过多,应增加隐层节点数或隐层数目,才能增强学习能力。一、隐层数一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性或非线性(取决于输出层采用线性或非线性转换函数型式)回归模型。因此,一般认为,应将不含隐层的网络模型归入回归分析中,技术已很成熟,没有必要在神经网络理论中再讨论之。二、隐层节点数在BP 网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。 目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时相差几倍甚至上百倍。为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。研究表明,隐层节点数不仅与输入/输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。

针对你前两个问题:

在系统建模、辨识和预测中,对于线性系统,在频域,传递函数矩阵可以很好地表达系统的黑箱式输入输出模型;在时域,Box-Jenkins方法、回归分析方法、ARMA模型等,通过各种参数估计方法也可以给出描述。对于非线性时间序列预测系统,双线性模型、门限自回归模型、ARCH模型都需要在对数据的内在规律知道不多的情况下对序列间关系进行假定。

可以说传统的非线性系统预测,在理论研究和实际应用方面,都存在极大的困难。相比之下,神经网络可以在不了解输入或输出变量间关系的前提下完成非线性建模。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特性,与各种预测方法有机结合具有很好的发展前景,也给预测系统带来了新的方向与突破。建模算法和预测系统的稳定性、动态性等研究成为当今热点问题。目前在系统建模与预测中,应用最多的是静态的多层前向神经网络,这主要是因为这种网络具有通过学习逼近任意非线性映射的能力。利用静态的多层前向神经网络建立系统的输入/输出模型,本质上就是基于网络逼近能力,通过学习获知系统差分方程中的非线性函数。但在实际应用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必须事先给定模型的阶次,即预先确定系统的模型。

针对你第三个问题:

预测是利用数理统计的原理作出假设,给出预测区间,准不准也只是从统计的角度来讲,也就是说准确度实际上是相对的,预测区间越不精确可信度就越大,预测区间越精确可信度就越小,也就是说你想要精确一点的话,就要牺牲一点可信度

目前为止,我们已经学习了2个机器学习模型。线性回归一般用来处理线性问题,逻辑回归用来处理2分类问题。虽然逻辑回归也可以处理非线性的分类问题,但是当我们有非常多的特征时,例如大于100个变量,将会有数量非常惊人的特征组合。这对于一般的逻辑回归来说需要计算的特征太多了,负荷太大。而神经网络既可以解决复杂的非线性分类问题,又可以避免庞大的计算量。

人工神经网络是由很多神经元(激活单元)构成的,神经元是神经网络的基本元素。

实际上,可以这样理解神经元工作过程,当将输入送进神经元后,神经元将输入与权值线性组合(实际上就是θ T X)输出一个线性表达式,再将这个表达式送入激活函数中,便得到了神经元的真实输出。

神经网络由好多个激活单元构成,如下图所示:

激活函数的选择是构建神经网络过程中的重要环节,下面简要介绍常用的激活函数。

(1) 线性函数( Liner Function )

(2) 斜面函数( Ramp Function )

(3) 阈值函数( Threshold Function )

以上3个激活函数都属于线性函数,下面介绍两个常用的非线性激活函数。

(4) S形函数( Sigmoid Function )

 S形函数与双极S形函数的图像如下:

双极S形函数与S形函数主要区别在于函数的值域,双极S形函数值域是(-1,1),而S形函数值域是(0,1)。由于S形函数与双极S形函数都是 可导的 (导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)

人工神经网络中,最常用的激活函数就是sigmoid函数

神经网络是由大量的神经元互联而构成的网络。根据网络中神经元的互联方式,常见网络结构主要可以分为下面3类:

前馈网络也称前向网络,是最常见的神经网络,前文提到的都是前馈网络。称之为前馈是因为它在输出和模型本身之间没有反馈,数据只能向前传送,直到到达输出层,层间没有向后的反馈信号。

反馈型神经网络是一种从输出到输入具有反馈连接的神经网络,其结构比前馈网络要复杂得多。

自组织神经网络是一种无监督学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

神经网络输出层采用非线性函数和线性函数是有区别的。对于非线性问题应用非线性函数来处理,而对于线性问题应用线性函数处理,也可以用非线性函数处理。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/12178589.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存