基本使用使用TensorFlow,你必须明白TensorFlow:使用图(graph)来表示计算任务.在被称之为会话(Session)的上下文(context)中执行图.使用tensor表示数据.通过
变量(Variable)维护状态.使用feed和fetch可以为任意的
*** 作(arbitraryoperation)赋值或者从其中获取数据.综述TensorFlow是一个编程系统,使用图来表示计算任务.图中的节点被称之为op(operation的缩写).一个op获得0个或多个Tensor,执行计算,产生0个或多个Tensor.每个Tensor是一个类型化的多维数组.例如,你可以将一小组图像集表示为一个四维浮点数数组,这四个维度分别是[batch,height,width,channels].一个TensorFlow图描述了计算的过程.为了进行计算,图必须在会话里被启动.会话将图的op分发到诸如CPU或GPU之类的设备上,同时提供执行op的方法.这些方法执行后,将产生的tensor返回.在Python语言中,返回的tensor是numpyndarray对象在C和C++语言中,返回的tensor是tensorflow::Tensor实例.计算图TensorFlow程序通常被组织成一个构建阶段和一个执行阶段.在构建阶段,op的执行步骤被描述成一个图.在执行阶段,使用会话执行执行图中的op.例如,通常在构建阶段创建一个图来表示和训练神经网络,然后在执行阶段反复执行图中的训练op.TensorFlow支持C,C++,Python编程语言.目前,TensorFlow的Python库更加易用,它提供了大量的辅助函数来简化构建图的工作,这些函数尚未被C和C++库支持.三种语言的会话库(sessionlibraries)是一致的.构建图构建图的第一步,是创建源op(sourceop).源op不需要任何输入,例如常量(Constant).源op的输出被传递给其它op做运算.Python库中,op构造器的返回值代表被构造出的op的输出,这些返回值可以传递给其它op构造器作为输入.TensorFlowPython库有一个默认图(defaultgraph),op构造器可以为其增加节点.这个默认图对许多程序来说已经足够用了.阅读Graph类文档来了解如何管理多个图.importtensorflowastf#创建一个常量op,产生一个1x2
矩阵.这个op被作为一个节点#加到默认图中.##构造器的返回值代表该常量op的返回值.matrix1=tf.constant([[3.,3.]])#创建另外一个常量op,产生一个2x1矩阵.matrix2=tf.constant([[2.],[2.]])#创建一个矩阵乘法matmulop,把'matrix1'和'matrix2'作为输入.#返回值'product'代表矩阵乘法的结果.product=tf.matmul(matrix1,matrix2)默认图现在有三个节点,两个constant()op,和一个matmul()op.为了真正进行矩阵相乘运算,并得到矩阵乘法的结果,你必须在会话里启动这个图.在一个会话中启动图构造阶段完成后,才能启动图.启动图的第一步是创建一个Session对象,如果无任何创建参数,会话构造器将启动默认图.欲了解完整的会话API,请阅读Session类.#启动默认图.sess=tf.Session()#调用sess的'run()'方法来执行矩阵乘法op,传入'product'作为该方法的参数.#上面提到,'product'代表了矩阵乘法op的输出,传入它是向方法表明,我们希望取回#矩阵乘法op的输出.##整个执行过程是自动化的,会话负责传递op所需的全部输入.op通常是并发执行的.##函数调用'run(product)'触发了图中三个op(两个常量op和一个矩阵乘法op)的执行.##返回值'result'是一个numpy`ndarray`对象.result=sess.run(product)printresult#==>[[12.]]#任务完成,关闭会话.sess.close()Session对象在使用完后需要关闭以释放资源.除了显式调用close外,也可以使用"with"代码块来自动完成关闭动作.withtf.Session()assess:result=sess.run([product])printresult在实现上,TensorFlow将图形定义转换成分布式执行的 *** 作,以充分利用可用的计算资源(如CPU或GPU).一般你不需要显式指定使用CPU还是GPU,TensorFlow能自动检测.如果检测到GPU,TensorFlow会尽可能地利用找到的第一个GPU来执行 *** 作.如果机器上有超过一个可用的GPU,除第一个外的其它GPU默认是不参与计算的.为了让TensorFlow使用这些GPU,你必须将op明确指派给它们执行.withDevice语句用来指派特定的CPU或GPU执行 *** 作:withtf.Session()assess:withtf.device("/gpu:1"):matrix1=tf.constant([[3.,3.]])matrix2=tf.constant([[2.],[2.]])product=tf.matmul(matrix1,matrix2)设备用字符串进行标识.目前支持的设备包括:"/cpu:0":机器的CPU."/gpu:0":机器的第一个GPU,如果有的话."/gpu:1":机器的第二个GPU,以此类推.阅读使用GPU章节,了解TensorFlowGPU使用的信息.交互式使用文档中的Python示例使用一个会话Session来启动图,并调用Session.run()方法执行 *** 作.为了便于使用诸如IPython之类的Python交互环境,可以使用InteractiveSession代替Session类,使用Tensor.eval()和Operation.run()方法代替Session.run().这样可以避免使用一个变量来持有会话.#进入一个交互式TensorFlow会话.importtensorflowastfsess=tf.InteractiveSession()x=tf.Variable([1.0,2.0])a=tf.constant([3.0,3.0])#使用初始化器initializerop的run()方法初始化'x'x.initializer.run()#增加一个减法subop,从'x'减去'a'.运行减法op,输出结果sub=tf.sub(x,a)printsub.eval()#==>[-2.-1.]TensorTensorFlow程序使用tensor数据结构来代表所有的数据,计算图中, *** 作间传递的数据都是tensor.你可以把TensorFlowtensor看作是一个n维的数组或列表.一个tensor包含一个静态类型rank,和一个shape.想了解TensorFlow是如何处理这些概念的,参见Rank,Shape,和Type.变量Variablesformoredetails.变量维护图执行过程中的状态信息.下面的例子演示了如何使用变量实现一个简单的计数器.参见变量章节了解细节.#创建一个变量,初始化为标量0.state=tf.Variable(0,name="counter")#创建一个op,其作用是使state增加1one=tf.constant(1)new_value=tf.add(state,one)update=tf.assign(state,new_value)#启动图后,变量必须先经过`初始化`(init)op初始化,#首先必须增加一个`初始化`op到图中.init_op=tf.initialize_all_variables()#启动图,运行opwithtf.Session()assess:#运行'init'opsess.run(init_op)#打印'state'的初始值printsess.run(state)#运行op,更新'state',并打印'state'for_inrange(3):sess.run(update)printsess.run(state)#输出:#0#1#2#3代码中assign() *** 作是图所描绘的表达式的一部分,正如add() *** 作一样.所以在调用run()执行表达式之前,它并不会真正执行赋值 *** 作.通常会将一个统计模型中的参数表示为一组变量.例如,你可以将一个神经网络的权重作为某个变量存储在一个tensor中.在训练过程中,通过重复运行训练图,更新这个tensor.Fetch为了取回 *** 作的输出内容,可以在使用Session对象的run()调用执行图时,传入一些tensor,这些tensor会帮助你取回结果.在之前的例子里,我们只取回了单个节点state,但是你也可以取回多个tensor:input1=tf.constant(3.0)input2=tf.constant(2.0)input3=tf.constant(5.0)intermed=tf.add(input2,input3)mul=tf.mul(input1,intermed)withtf.Session()assess:result=sess.run([mul,intermed])printresult#输出:#[array([21.],dtype=float32),array([7.],dtype=float32)]需要获取的多个tensor值,在op的一次运行中一起获得(而不是逐个去获取tensor)。Feed上述示例在计算图中引入了tensor,以常量或变量的形式存储.TensorFlow还提供了feed机制,该机制可以临时替代图中的任意 *** 作中的tensor可以对图中任何 *** 作提交补丁,直接插入一个tensor.feed使用一个tensor值临时替换一个 *** 作的输出结果.你可以提供feed数据作为run()调用的参数.feed只在调用它的方法内有效,方法结束,feed就会消失.最常见的用例是将某些特殊的 *** 作指定为"feed" *** 作,标记的方法是使用tf.placeholder()为这些 *** 作创建占位符.input1=tf.placeholder(tf.float32)input2=tf.placeholder(tf.float32)output=tf.mul(input1,input2)withtf.Session()assess:printsess.run([output],feed_dict={input1:[7.],input2:[2.]})#输出:#[array([14.],dtype=float32)]foralarger-scaleexampleoffeeds.如果没有正确提供feed,placeholder() *** 作将会产生错误.MNIST全连通feed教程(sourcecode)给出了一个更大规模的使用feed的例子.
既然你问到了这个问题,说明你已经打开了Spyder
1.安装tensorflow,这个可以在官网上查找,我不能放链接,说是违反知道规章. 注意你要下载的版本,是GPU还是CPU的
2.剩下的就简单了:
import tensorflow as tf #导入tensorflow模块
3.学习教程推荐极客学院的tensorflo中文版,简单易懂.
还有什么不会的尽管问我.我现在就在用Spyder,下面是我的Spyder运行的tensorflow程序界面:
不懂得可以追问!
调用时,代码如下:
y即为输出的结果。
github传送门:SymphonyPy/Valified_Code_Classify
一个识别非常简单的验证码的程序
保存训练好的模型的代码如下:
训练完一个模型后,为了以后重复使用,通常我们需要对模型的结果进行保存。如果用Tensorflow去实现神经网络,所要保存的就是神经网络中的各项权重值。建议可以使用Saver类保存和加载模型的结果。
1、使用tf.train.Saver.save()方法保存模型
tf.train.Saver.save(sess, save_path, global_step=None, latest_filename=None, meta_graph_suffix='meta', write_meta_graph=True, write_state=True)
sess: 用于保存变量 *** 作的会话。
save_path: String类型,用于指定训练结果的保存路径。
global_step: 如果提供的话,这个数字会添加到save_path后面,用于构建checkpoint文件。这个参数有助于我们区分不同训练阶段的结果。
2、使用tf.train.Saver.restore方法价值模型
tf.train.Saver.restore(sess, save_path)
sess: 用于加载变量 *** 作的会话。
save_path: 同保存模型是用到的的save_path参数。
评论列表(0条)