谷歌的inception模型是怎么训练的

谷歌的inception模型是怎么训练的,第1张

Inception (GoogLeNet)是Google 2014年发布的Deep Convolutional Neural Network,其它几个流行的CNN网络还有QuocNet、AlexNet、BN-Inception-v2、VGG、ResNet等等。

Inception V3模型源码定义:tensorflow/contrib/slim/python/slim/nets/inception_v3py

训练大的网络模型很耗资源,幸亏TensorFlow支持分布式:

把计算任务Distribution到服务器集群

把计算任务Distribution到多个GPU

TensorBoard可视化Inception V3模型

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

   

import tensorflow as tf

import os

import tarfile

import requests

inception_pretrain_model_url = '>

# 下载inception pretrain模型

inception_pretrain_model_dir = "inception_pretrain"

if not ospathexists(inception_pretrain_model_dir):

osmakedirs(inception_pretrain_model_dir)

filename = inception_pretrain_model_urlsplit('/')[-1]

filepath = ospathjoin(inception_pretrain_model_dir, filename)

if not ospathexists(filepath):

print("开始下载: ", filename)

r = requestsget(inception_pretrain_model_url, stream=True)

with open(filepath, 'wb') as f:

for chunk in riter_content(chunk_size=1024):

if chunk:

fwrite(chunk)

print("下载完成, 开始解压: ", filename)

tarfileopen(filepath, 'r:gz')extractall(inception_pretrain_model_dir)

# TensorBoard log目录

log_dir = 'inception_log'

if not ospathexists(log_dir):

osmakedirs(log_dir)

# 加载inception graph

inception_graph_def_file = ospathjoin(inception_pretrain_model_dir, 'classify_image_graph_defpb')

with tfSession() as sess:

with tfgfileFastGFile(inception_graph_def_file, 'rb') as f:

graph_def = tfGraphDef()

graph_defParseFromString(fread())

tfimport_graph_def(graph_def, name='')

writer = tftrainSummaryWriter(log_dir, sessgraph)

writerclose()

   

使用TensorBoard查看Graph:

1

   

$ tensorboard --logdir inception_log

   

浏览器访问:>

如要转载,请保持本文完整,并注明作者@斗大的熊猫和本文原始地址: >

Torchserve 是 AWS 和 Facebook 推出的 pytorch 模型服务库,整体架构如下

特点

适用性

torchserve镜像

接口地址: >

主要是看运行什么软件和数据量,训练数值大小,这里要强调一下,数值大小和数据量是不一样的。

深度学习服务器的核心部件还是CPU、硬盘、内存、GPU,特别是很多深度学习依靠GPU的大规模数据处理能力,这就要强调CPU的计算能力和数量,同时不同的数据对GPU的显存要求也不一样。

当下大部分都在用RTX3090做深度学习,最新RTX4090已经上市,单精度计算能力是RTX3090的2倍,这两个GPU都是24G显存;像A100强调双精度计算能力,显存有40G和80G两个版本,而A6000单精度计算能和RTX3090差不多,显存是48G,可以参考选择。

当然,最重要的还是口袋里的银子,A6000市场价大概是RTX的2倍还要多,A100最近更是要上十万了,估计也快买不到了,价高缺货;RTX3090/4090的价位低,性价比高,这也是为什么大部分人都选择它们做深度学习了,这是市场的选择。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13500393.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-19
下一篇 2023-08-19

发表评论

登录后才能评论

评论列表(0条)

保存