最简单的方法是使用以下方法将其腌制
to_pickle:
df.to_pickle(file_name) # where to save it, usually as a .pkl
然后,您可以使用以下方法将其加载回:
df = pd.read_pickle(file_name)
注意:在0.11.1save
和之前,load
这样做是唯一的方法(现在已不赞成使用,to_pickle
而推荐使用和read_pickle
)。
另一个流行的选择是使用HDF5(pytables),它为大型数据集提供了非常快速的访问时间:
import pandas as pdstore = pd.HDFStore('store.h5')store['df'] = df # save itstore['df'] # load it
食谱 中讨论了更高级的策略。
从0.13开始,还有msgpack,它可能对于互 *** 作性更好,作为JSON的更快替代品,或者如果您有python对象/文本繁重的数据(请参阅此问题)。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)