您可以通过多种方式在TensorFlow中使用预训练的嵌入。假设您将NemPy数组嵌入到
embedding具有
vocab_size行和
embedding_dim列的NumPy数组中,并且想要创建一个
W可用于调用的张量
tf.nn.embedding_lookup()。
- 只需创建
W
一个tf.constant()
是需要embedding
为它的价值:W = tf.constant(embedding, name="W")
这是最简单的方法,但是由于a的值
tf.constant()多次存储在内存中,因此内存使用效率不高。由于
embedding可能很大,因此只应将这种方法用于玩具示例。
创建
W
为a,tf.Variable
并通过NumPy数组对其进行初始化tf.placeholder()
:W = tf.Variable(tf.constant(0.0, shape=[vocab_size, embedding_dim]), trainable=False, name="W")
embedding_placeholder = tf.placeholder(tf.float32, [vocab_size, embedding_dim])
…
embedding_init = W.assign(embedding_placeholder)sess = tf.Session()
sess.run(embedding_init, feed_dict={embedding_placeholder: embedding})
这样可以避免
embedding在图表中存储的副本,但确实需要足够的内存才能一次在内存中保留矩阵的两个副本(一个用于NumPy数组,一个用于
tf.Variable)。请注意,我假设您想在训练期间保持嵌入矩阵不变,因此
W是使用创建的
trainable=False。
如果将嵌入训练为另一个TensorFlow模型的一部分,则可以使用
tf.train.Saver
从另一个模型的检查点文件中加载值。这意味着嵌入矩阵可以完全绕过Python。W
按照选项2创建,然后执行以下 *** 作:W = tf.Variable(...)
embedding_saver = tf.train.Saver({“name_of_variable_in_other_model”: W})
…sess = tf.Session()
embedding_saver.restore(sess, “checkpoint_filename.ckpt”)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)