逻辑回归的准确率为71.4%.在下面的例子中,我刚刚为’X’和结果’y’数组创建了数字.当结果等于’1’时,我故意使’X’的数字更高,以便线性分类器可以具有一定的准确性.
import numpy as npfrom sklearn.linear_model import LogisticRegressionX = np.array([[200,100],[320,90],[150,60],[170,20],[169,75],[190,65],[212,132]])y = np.array([[1],[1],[0],[1]])clf = LogisticRegression()clf.fit(X,y)clf.score(X,y) ##This results in a 71.4% accuracy score for logistic regression
然而,当我实现一个没有隐藏层的神经网络时,只需对单节点输出层使用sigmoID激活函数(因此总共有两层,输入和输出层).我的准确率分数约为42.9%?为什么这与逻辑回归准确度得分显着不同?为什么这么低?
import kerasfrom keras.models import Sequentialfrom keras.utils.np_utils import to_categoricalfrom keras.layers import Dense,Dropout,Activationmodel = Sequential()#Create a neural network with 2 input nodes for the input layer and one node for the output layer. Using the sigmoID activation functionmodel.add(Dense(units=1,activation='sigmoID',input_dim=2))model.summary()model.compile(loss="binary_crossentropy",optimizer="adam",metrics = ['accuracy'])model.fit(X,y,epochs=12)model.evaluate(X,y) #The accuracy score will Now show 42.9% for the neural network解决方法 你不是在比较同样的事情. Sklearn的 LogisticRegression设置了许多你在Keras实现中没有使用的默认值.在考虑到这些差异时,我实际上得到的精度在1e-8之内,主要是:
迭代次数
在Keras中,这是在fit()期间传递的时期.您将其设置为12.在Sklearn中,这是在LogisticRegression的__init __()期间传递的max_iter.它默认为100.
优化
您在Keras中使用adam优化器,而LogisticRegression默认使用liblinear优化器. Sklearn称之为解算器.
正则
Sklearn的LogisticRegression默认使用L2正则化,而您在Keras中没有进行任何权重正则化.在Sklearn这是惩罚,在Keras你可以用每个层的kernel_regularizer来规范权重.
这些实现都达到了0.5714%的准确度:
import numpy as npX = np.array([ [200,132]])y = np.array([[1],[1]])
Logistic回归
from sklearn.linear_model import LogisticRegression# 'sag' is stochastic average gradIEnt descentlr = LogisticRegression(penalty='l2',solver='sag',max_iter=100)lr.fit(X,y)lr.score(X,y)# 0.5714285714285714
神经网络
from keras.models import Sequentialfrom keras.layers import Densefrom keras.regularizers import l2model = Sequential([ Dense(units=1,kernel_regularizer=l2(0.),input_shape=(2,))])model.compile(loss='binary_crossentropy',optimizer='sgd',metrics=['accuracy'])model.fit(X,epochs=100)model.evaluate(X,y)# 0.57142859697341919总结
以上是内存溢出为你收集整理的python – 神经网络(没有隐藏层)与Logistic回归?全部内容,希望文章能够帮你解决python – 神经网络(没有隐藏层)与Logistic回归?所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)