Inception (GoogLeNet)是Google 2014年发布的Deep Convolutional Neural Network,其它几个流行的CNN网络还有QuocNet、AlexNet、BN-Inception-v2、VGG、ResNet等等。
Inception V3模型源码定义:tensorflow/contrib/slim/python/slim/nets/inception_v3py
训练大的网络模型很耗资源,幸亏TensorFlow支持分布式:
把计算任务Distribution到服务器集群
把计算任务Distribution到多个GPU
TensorBoard可视化Inception V3模型
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
import tensorflow as tf
import os
import tarfile
import requests
inception_pretrain_model_url = '>
# 下载inception pretrain模型
inception_pretrain_model_dir = "inception_pretrain"
if not ospathexists(inception_pretrain_model_dir):
osmakedirs(inception_pretrain_model_dir)
filename = inception_pretrain_model_urlsplit('/')[-1]
filepath = ospathjoin(inception_pretrain_model_dir, filename)
if not ospathexists(filepath):
print("开始下载: ", filename)
r = requestsget(inception_pretrain_model_url, stream=True)
with open(filepath, 'wb') as f:
for chunk in riter_content(chunk_size=1024):
if chunk:
fwrite(chunk)
print("下载完成, 开始解压: ", filename)
tarfileopen(filepath, 'r:gz')extractall(inception_pretrain_model_dir)
# TensorBoard log目录
log_dir = 'inception_log'
if not ospathexists(log_dir):
osmakedirs(log_dir)
# 加载inception graph
inception_graph_def_file = ospathjoin(inception_pretrain_model_dir, 'classify_image_graph_defpb')
with tfSession() as sess:
with tfgfileFastGFile(inception_graph_def_file, 'rb') as f:
graph_def = tfGraphDef()
graph_defParseFromString(fread())
tfimport_graph_def(graph_def, name='')
writer = tftrainSummaryWriter(log_dir, sessgraph)
writerclose()
使用TensorBoard查看Graph:
1
$ tensorboard --logdir inception_log
浏览器访问:>
如要转载,请保持本文完整,并注明作者@斗大的熊猫和本文原始地址: >
Torchserve 是 AWS 和 Facebook 推出的 pytorch 模型服务库,整体架构如下
特点
适用性
torchserve镜像
接口地址: >
主要是看运行什么软件和数据量,训练数值大小,这里要强调一下,数值大小和数据量是不一样的。
深度学习服务器的核心部件还是CPU、硬盘、内存、GPU,特别是很多深度学习依靠GPU的大规模数据处理能力,这就要强调CPU的计算能力和数量,同时不同的数据对GPU的显存要求也不一样。
当下大部分都在用RTX3090做深度学习,最新RTX4090已经上市,单精度计算能力是RTX3090的2倍,这两个GPU都是24G显存;像A100强调双精度计算能力,显存有40G和80G两个版本,而A6000单精度计算能和RTX3090差不多,显存是48G,可以参考选择。
当然,最重要的还是口袋里的银子,A6000市场价大概是RTX的2倍还要多,A100最近更是要上十万了,估计也快买不到了,价高缺货;RTX3090/4090的价位低,性价比高,这也是为什么大部分人都选择它们做深度学习了,这是市场的选择。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)