如何在Python 正在运行的程序中读取数据

如何在Python 正在运行的程序中读取数据,第1张

这个number生成之后,可以写入本地文件中,用另外一个程序读取这个文件就行了呀。

简单写个猜迷的代码,如下:

import random

while True:

    with open('atxt','w') as f:

        num=randomrandint(1,10)

        fwrite(str(num))

    while True:

        guess=raw_input('Please input a number:\n')

        if guess=='q':

            print 'Quit Now!'

            exit()

        elif int(guess)==num:

            print 'You Win!'

            break

        else:

            print 'Try again!'

补充(高级库Numpy和Pandas中):

查看数据格式是字符串还是数字格式

这里需要区分一下Numpy和Pandas的查看方式略有不同,一个是dtype,一个是dtypes

简介

本例子是通过对一组逻辑回归映射进行输出,使得网络的权重和偏置达到最理想状态,最后再进行预测。其中,使用GD算法对参数进行更新,损耗函数采取交叉商来表示,一共训练10000次。

2python代码

#!/usr/bin/python

import numpy

import theano

import theanotensor as T

rng=numpyrandom

N=400

feats=784

# D[0]:generate rand numbers of size N,element between (0,1)

# D[1]:generate rand int number of size N,0 or 1

D=(rngrandn(N,feats),rngrandint(size=N,low=0,high=2))

training_steps=10000

# declare symbolic variables

x=Tmatrix('x')

y=Tvector('y')

w=theanoshared(rngrandn(feats),name='w') # w is shared for every input

b=theanoshared(0,name='b') # b is shared too

print('Initial model:')

print(wget_value())

print(bget_value())

# construct theano expressions,symbolic

p_1=1/(1+Texp(-Tdot(x,w)-b)) # sigmoid function,probability of target being 1

prediction=p_1>05

xent=-yTlog(p_1)-(1-y)Tlog(1-p_1) # cross entropy

cost=xentmean()+001(w2)sum() # cost function to update parameters

gw,gb=Tgrad(cost,[w,b]) # stochastic gradient descending algorithm

#compile

train=theanofunction(inputs=[x,y],outputs=[prediction,xent],updates=((w,w-01gw),(b,b-01gb)))

predict=theanofunction(inputs=[x],outputs=prediction)

# train

for i in range(training_steps):

pred,err=train(D[0],D[1])

print('Final model:')

print(wget_value())

print(bget_value())

print('target values for D:')

print(D[1])

print('prediction on D:')

print(predict(D[0]))

print('newly generated data for test:')

test_input=rngrandn(30,feats)

print('result:')

print(predict(test_input))

3程序解读

如上面所示,首先导入所需的库,theano是一个用于科学计算的库。然后这里我们随机产生一个输入矩阵,大小为400784的随机数,随机产生一个输出向量大小为400,输出向量为二值的。因此,称为逻辑回归。

然后初始化权重和偏置,它们均为共享变量(shared),其中权重初始化为较小的数,偏置初始化为0,并且打印它们。

这里我们只构建一层网络结构,使用的激活函数为logistic sigmoid function,对输入量乘以权重并考虑偏置以后就可以算出输入的激活值,该值在(0,1)之间,以05为界限进行二值化,然后算出交叉商和损耗函数,其中交叉商是代表了我们的激活值与实际理论值的偏离程度。接着我们使用cost分别对w,b进行求解偏导,以上均为符号表达式运算。

接着我们使用theanofunction进行编译优化,提高计算效率。得到train函数和predict函数,分别进行训练和预测。

接着,我们对数据进行10000次的训练,每次训练都会按照GD算法进行更新参数,最后我们得到了想要的模型,产生一组新的输入,即可进行预测。

python中读取数据的时候有几种方法,无非是read,readline,readlings和xreadlines几种方法,在几种方法中,read和xreadlines可以作为迭代器使用,从而在读取大数据的时候比较有效果

在测试中,先创建一个大文件,大概1GB左右,使用的程序如下:

[python] view plaincopyprint

import ospath

import time

while ospathgetsize('messages') <1000000000:

f = open('messages','a')

fwrite('this is a file/n')

fclose()

print 'file create complted'

在这里使用循环判断文件的大小,如果大小在1GB左右,那么结束创建文件。--需要花费好几分钟的时间。

测试代码如下:

[python] view plaincopyprint

#22s

start_time = timetime()

f = open('messages','r')

for i in f:

end_time = timetime()

print end_time - start_time

break

fclose()

#22s

start_time = timetime()

f = open('messages','r')

for i in fxreadlines():

end_time = timetime()

print end_time - start_time

break

fclose()

start_time = timetime()

f = open('messages','r')

k= freadlines()

fclose()

end_time = timetime()

print end_time - start_time

使用迭代器的时候,两者的时间是差不多的,内存消耗也不是很多,使用的时间大概在22秒作用

在使用完全读取文件的时候,使用的时间在40s,并且内存消耗相当严重,大概使用了1G的内存。。

其实,在使用跌倒器的时候,如果进行连续 *** 作,进行print或者其他的 *** 作,内存消耗还是不可避免的,但是内存在那个时候是可以释放的,从而使用迭代器可以节省内存,主要是可以释放。

而在使用直接读取所有数据的时候,数据会保留在内存中,是无法释放这个内存的,从而内存卡死也是有可能的。

在使用的时候,最好是直接使用for i in f的方式来使用,在读取的时候,f本身就是一个迭代器,其实也就是fread方法

以上就是关于如何在Python 正在运行的程序中读取数据全部的内容,包括:如何在Python 正在运行的程序中读取数据、Python查看数据类型的几种方式、python做逻辑回归 怎么把导入的数据分成x,y等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/9654355.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-30
下一篇 2023-04-30

发表评论

登录后才能评论

评论列表(0条)

保存