这个number生成之后,可以写入本地文件中,用另外一个程序读取这个文件就行了呀。
简单写个猜迷的代码,如下:
import randomwhile True:
with open('atxt','w') as f:
num=randomrandint(1,10)
fwrite(str(num))
while True:
guess=raw_input('Please input a number:\n')
if guess=='q':
print 'Quit Now!'
exit()
elif int(guess)==num:
print 'You Win!'
break
else:
print 'Try again!'
补充(高级库Numpy和Pandas中):
查看数据格式是字符串还是数字格式
这里需要区分一下Numpy和Pandas的查看方式略有不同,一个是dtype,一个是dtypes
简介
本例子是通过对一组逻辑回归映射进行输出,使得网络的权重和偏置达到最理想状态,最后再进行预测。其中,使用GD算法对参数进行更新,损耗函数采取交叉商来表示,一共训练10000次。
2python代码
#!/usr/bin/python
import numpy
import theano
import theanotensor as T
rng=numpyrandom
N=400
feats=784
# D[0]:generate rand numbers of size N,element between (0,1)
# D[1]:generate rand int number of size N,0 or 1
D=(rngrandn(N,feats),rngrandint(size=N,low=0,high=2))
training_steps=10000
# declare symbolic variables
x=Tmatrix('x')
y=Tvector('y')
w=theanoshared(rngrandn(feats),name='w') # w is shared for every input
b=theanoshared(0,name='b') # b is shared too
print('Initial model:')
print(wget_value())
print(bget_value())
# construct theano expressions,symbolic
p_1=1/(1+Texp(-Tdot(x,w)-b)) # sigmoid function,probability of target being 1
prediction=p_1>05
xent=-yTlog(p_1)-(1-y)Tlog(1-p_1) # cross entropy
cost=xentmean()+001(w2)sum() # cost function to update parameters
gw,gb=Tgrad(cost,[w,b]) # stochastic gradient descending algorithm
#compile
train=theanofunction(inputs=[x,y],outputs=[prediction,xent],updates=((w,w-01gw),(b,b-01gb)))
predict=theanofunction(inputs=[x],outputs=prediction)
# train
for i in range(training_steps):
pred,err=train(D[0],D[1])
print('Final model:')
print(wget_value())
print(bget_value())
print('target values for D:')
print(D[1])
print('prediction on D:')
print(predict(D[0]))
print('newly generated data for test:')
test_input=rngrandn(30,feats)
print('result:')
print(predict(test_input))
3程序解读
如上面所示,首先导入所需的库,theano是一个用于科学计算的库。然后这里我们随机产生一个输入矩阵,大小为400784的随机数,随机产生一个输出向量大小为400,输出向量为二值的。因此,称为逻辑回归。
然后初始化权重和偏置,它们均为共享变量(shared),其中权重初始化为较小的数,偏置初始化为0,并且打印它们。
这里我们只构建一层网络结构,使用的激活函数为logistic sigmoid function,对输入量乘以权重并考虑偏置以后就可以算出输入的激活值,该值在(0,1)之间,以05为界限进行二值化,然后算出交叉商和损耗函数,其中交叉商是代表了我们的激活值与实际理论值的偏离程度。接着我们使用cost分别对w,b进行求解偏导,以上均为符号表达式运算。
接着我们使用theanofunction进行编译优化,提高计算效率。得到train函数和predict函数,分别进行训练和预测。
接着,我们对数据进行10000次的训练,每次训练都会按照GD算法进行更新参数,最后我们得到了想要的模型,产生一组新的输入,即可进行预测。
python中读取数据的时候有几种方法,无非是read,readline,readlings和xreadlines几种方法,在几种方法中,read和xreadlines可以作为迭代器使用,从而在读取大数据的时候比较有效果
在测试中,先创建一个大文件,大概1GB左右,使用的程序如下:
[python] view plaincopyprint
import ospath
import time
while ospathgetsize('messages') <1000000000:
f = open('messages','a')
fwrite('this is a file/n')
fclose()
print 'file create complted'
在这里使用循环判断文件的大小,如果大小在1GB左右,那么结束创建文件。--需要花费好几分钟的时间。
测试代码如下:
[python] view plaincopyprint
#22s
start_time = timetime()
f = open('messages','r')
for i in f:
end_time = timetime()
print end_time - start_time
break
fclose()
#22s
start_time = timetime()
f = open('messages','r')
for i in fxreadlines():
end_time = timetime()
print end_time - start_time
break
fclose()
start_time = timetime()
f = open('messages','r')
k= freadlines()
fclose()
end_time = timetime()
print end_time - start_time
使用迭代器的时候,两者的时间是差不多的,内存消耗也不是很多,使用的时间大概在22秒作用
在使用完全读取文件的时候,使用的时间在40s,并且内存消耗相当严重,大概使用了1G的内存。。
其实,在使用跌倒器的时候,如果进行连续 *** 作,进行print或者其他的 *** 作,内存消耗还是不可避免的,但是内存在那个时候是可以释放的,从而使用迭代器可以节省内存,主要是可以释放。
而在使用直接读取所有数据的时候,数据会保留在内存中,是无法释放这个内存的,从而内存卡死也是有可能的。
在使用的时候,最好是直接使用for i in f的方式来使用,在读取的时候,f本身就是一个迭代器,其实也就是fread方法
以上就是关于如何在Python 正在运行的程序中读取数据全部的内容,包括:如何在Python 正在运行的程序中读取数据、Python查看数据类型的几种方式、python做逻辑回归 怎么把导入的数据分成x,y等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)