虚拟现实技术在近年来有了长足的进步,许多读者对于这一行业的发展持乐观态度,但是也有读者反馈对于业内的一些专业术语和明星产品缺乏系统地了解。这里整理了一些相关的专业术语介绍,方便大家学习和了解。
1头戴显示器—Head mounted display(HMD)
HMD可能是虚拟现实领域出现频率最高的词语。这是因为,HMD是当下最普遍最直接的方法给用户提供VR体验。典型的头戴式显示器是一个护目镜或者头盔式的设备,使用者通过内置的显示器来从视觉上实现VR的效果。有一些设备带有追踪头部的传感器。
2头部追踪-Head tracking
说起头部追踪,这个词所讲的是利用传感器时刻追踪使用者头部的运动,然后根据头部的姿势移动所显示的内容。简而言之,如果你戴上一台Oculus Rift,看看上下左右,那么虚拟世界的一部分就呈现在相应的位置上。
3眼球追踪-Eye tracking
眼球追踪类似于头部追踪,但是图像的呈现取决于使用者眼睛所看的方向。例如,有一种叫做FOVE的HMD(这个词应该还没忘吧)设备集成了眼球追踪技术。在他们的展示中,使用者可以用“眼神”完成一种镭射q的瞄准(像超人、Cyclops Scott、或者恐龙勇士那样?)。还有一款叫做Rocket Toss的游戏也通过头部和眼球的移动来瞄准。
4视野-Field of view
视野指眼睛可以看到影像的角度。视野对于VR体验来说尤为重要,因为更广阔的视角能让使用者更有身临其境的感受。一个健康的人的视野为200度左右,所以在不失真的前提下,VR设备提供的视角越大,就越能给使用者一种沉浸式的体验。
5延迟-Latency
也许你已经体验过了VR而且发现了当转动头部的时候,看到的图像并不会随着视线立即移动,这就是延迟。这种延迟严重影响VR的使用体验,因为它是在现实世界中完全不存在的。图像的延迟是使用者们经常抱怨的一点,也是对VR技术的一个衡量标准。
6模拟器眩晕症–Simulator sickness
模拟器眩晕症是VR设备带来的副作用之一,它由大脑和身体处理信息的不一致引起。人体由眼睛和内耳平衡器官来判定是否在运动中,正常情况下,二者传送给大脑的信息是统一的。但是在VR中,眼睛所见到的景象告诉大脑“我在运动”,但是内耳器官却传递给大脑静止的状态信息。Science杂志表明(Science Magazine),大脑对这种差异的解释是:“我中毒了,这都是幻觉!”而人体会本能地产生反应来将“毒素”排出体外,也就导致了呕吐。对于很多人来说,使用VR设备时,想要跳跃或者飞其实都不是好的想法。但是这种症状也因人而异。每个人的承受能力都不同,所以并不是所有人都会眩晕呕吐。模拟器眩晕症对于开发者来说也是难题之一,他们要找到方法使人们玩儿得开心而又不会引起眩晕。
7抖动–Judder
抖动可以理解为颤抖或者摇晃。但是对于VR来说,Oculus的CTO Michael Abrash,于2013当他还在Valve Software工作时写过一篇博客(链接)对这种抖动的定义是”在VR/AR头戴式设备上尤为显著的涂抹和脉冲的结合“。
8刷新率–Refreshrate
当你正在使用VR设备或者在看电视的时候,实际上是在看很多连续的图像,刷新率就是这新图像更新的速率。更高的刷新率会降低延迟,而低延迟意味着引起眩晕的机会更小。它也代表着更快速相应的使用体验。就任何现实设备而言,我们当然希望获得60帧每秒以上的刷新率。
9触觉技术–Haptics
这是另外一个并不是VR特有的名词。但是就VR而言,它表示触觉反馈。它的意思是,使用者能感觉到正在触摸一个东西,但是那个东西并不真实存在。今年六月,Oculus发布了一款触控 *** 作设备——Half Moon原型机,触控技术正是这款设备的主要特点之一。
10环境表现–Presence
虚拟现实技术致力于带领使用者沉浸到一个新的环境中,”环境表现“就是在这方面所实现的程度。换句话说,无论使用者身处何地,都能在感官上认为置身于虚拟的世界中。
11虚拟空间–Metaverse
对于这个词而言,现阶段并没有严格意义上的定义。大体上说,这是虚拟现实的哲学根基。Forbes将其定义为一种“总体虚拟现实“。然而对于虚拟空间并没有大量的讨论,无论是如何应用它还是如何定义它。不过我们能从尼尔·史蒂芬森1992年的科幻小说《雪崩》(Snow Crash)中找到他关于虚拟空间的设想。
****:0755-81699111
课程网址:>
VR到底是什么?
我们先来看看百度百科上面的官方版本是如何解读的?
VR(Virtual Reality)即虚拟现实,是由美国VPL公司创始人拉尼尔在20世纪80年代初提出的。具体内涵是:综合利用计算机图形系统和各种显示及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。其中,计算机生成的、可交互的三维环境成为虚拟环境(即Virtual Environment,简称VE)。虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到该环境中。
下面是说人话版本:
体验过VR设备的小伙伴们都会理解,VR观感是很难用语言所描述的,我们试图从上述描述中提取出三个关键词,即可交互的、三维(3D)的、沉浸的,围绕这三点来解释:
1、VR虚拟现实场景是可交互的而非单向的。通过人机界面、控制设备等实现人机交互这一点不难理解,比如我们通过触控 *** 作实现了与智能手机的交互,通过鼠标键盘实现了与PC的交互,VR设备目前比较常见的交互主要有以下几种:
手势控制:带上副手套就能在VR场景中看到自己的手啦;
头部追踪:场景跟随头部视角移动所变换;
触觉反馈:穿上一件VR护具,它会帮你实现VR场景中的触觉反馈哦,比如在你玩射击游戏的时候会模拟出中d的感觉。
其他如动作捕捉、眼球追踪以及各类传感器技术目前都正在完善,未来也逐渐会推出更多的消费级产品。
2、视觉效果是3D的,但又和3D**不是一个概念。人眼在固定视角下的视角范围通常为120度,这个视角范围也通常是我们在**院观影时的最佳范围,那么超过这个范围呢,你抬头可能看到的是天花板,低头可能是鞋,简单说除了你面对的荧幕部分实现了3D,只要一低头就“一秒出戏”。
而VR与3D最直观的区别就在于VR实现了720度全景无死角3D沉浸观感。720度全景,即指在水平360度的基础上,增加垂直360度的范围,能看到“天”和“地”的全景。这样一来,配合VR头盔的陀螺仪传感器,当你的头部转动时,所观看到的画面也会同步切换场景,这就是所谓融入虚拟场景的“沉浸感”。
3、沉浸感,渐渐让你分不清虚拟与现实。沉浸感是衡量一台VR设备优劣的重要指标,沉浸感越强的设备,用户就越相信自己所处的虚拟场景为真实的,理论上来讲,当达到完全沉浸时,用户便无法区分自己处于虚拟世界还是现实世界。当然以目前的技术想要达到完全沉浸还为时尚早,真正的完全沉浸不只是视觉与听觉、包括触觉甚至嗅觉、味觉五感都实现与虚拟场景的交互。
这一点如果不容易理解可以脑补一下自己做过的最真实的梦,在梦境中,你以第一人称视角观察到的一切都是“真实的”,同理,VR的完全沉浸也是这种体验。
如何通过外观区分一台硬件设备究竟是VR还是AR?
很多人容易将VR与AR的概念弄混,以为二者是一码事,但实际上目前看来AR与VR除了都属于前沿科技外,无论在技术还是应用上都并无任何关系。
VR设备:
目前的VR设备通常比较“笨重”,有以下几个特点:需要像头盔一样罩在头上;全封闭,与面部接触部位有橡胶或海绵制品使脸部与设备紧密贴合以防漏光;眼部镜片通常为圆形凸透镜。
AR设备:
AR设备就相对来说较为“轻便”(关于AR领域硬件设备实际较为宽泛,本文仅就可穿戴设备举例。)AR设备通常以眼镜的形式呈现,比如Google glass,眼部镜片通常为方形棱镜,用户佩戴AR眼镜后,图像就通过镜框中的微型投影仪投射在棱镜上,再通过棱镜反射近人眼,人眼透过棱镜,就观看到了叠加在现实场景之上的显示内容。
有别于VR虚拟现实的沉浸感,AR(Augmented Reality)增强现实,顾名思义,即通过设备增强了现实世界的观感体验,使用者是处于现实世界,所观察到的内容是叠加在现实世界之上的。
为什么VR视频都是“弯”的?
我们经常看到这样的,中使用者观看的视频/游戏是“弯曲”的。实际上视频本来不是弯的,是我们故意让他变弯的。为什么要这么做呢?
前面提到我们的VR设备采用的是两个圆形的凸透镜,这样当我们的眼球透过透镜看后面的显示屏时,视频边缘就会发生不同程度的“枕形畸变”,这个时候为了防止畸变导致观感体验的下降,我们就事先把原视频先做一次“桶形畸变”,这样二者一抵消,我们看到的视频就是正常的了,是不是很好理解。
通过以上内容,相信你已经对VR有了一定初步的认知,不过认识VR的最有效方式终究还是需要亲自去体验一番。
>
前不久的OC3大会上,Oculus发布了Touch手柄和room-scale(房间级)空间定位方案,算上早就发布了Lighthouse系统的HTC VIVE以及带上PS camera就能玩空间定位的PSVR,虚拟现实头显三巨头都算是进入了光学追踪定位的VR交互新时代。
说到底,光学空间定位到底是如何实现?三大头显厂商的定位方案又有何优劣?未来VR交互又会向什么样的方向发展?
青亭网采访了专注于红外光学追踪研发的青瞳视觉,他们的CEO张海威向我们介绍了目前市场上主要的定位技术的优劣,并用自家产品演示了光学定位的工作原理。
三种交互方案,为什么最看好outside-in?
目前市场上主流的VR交互有三种:inside-in、outside-in以及inside-out,对于这三种方式的优劣,张海威谈了谈自己的看法。
张海威先用一个比喻形象的说明了一下VR交互的命名方式。他把inside形容为“猎手”,比如记录光学信息的摄像头或者记录惯性信息的陀螺仪;out则被他看作“捕猎目标”,比如光学mark点。而in和out则表示“猎手”和“目标”是否在定位对象(比如人或者VR头显)上面。
Inside-out方案是把相机这样的传感器放在身上,用来感知外界的环境,这种方案广泛应用于机器人的机械视觉以及Hololens等手势识别上。包括SLAM等公司,把相机装在机器人身上,对机器人周边的光学环境进行采集、处理,再与机器人的实际位置联系起来实现自主导航。
这种方案的好处是不需要在外界设置摄像头,可以减少场景的限制。但是由于只能识别头部动作,加上体积、续航等领域存在问题,因此它更适合于移动VR这种轻交互场合。
Inside-in就是指传感器和定位点都在目标身上,最典型的就是惯性动捕:让人穿上惯性捕捉设备来记录人体的移动,或者移动VR中头显、手机里的陀螺仪设备记录头部的六自由度移动。
这种方式的好处是不依赖于外界的设备,更加自由,但坏处就是没有位置信息,只能记录移动的轨迹,而目前所有的陀螺仪设备都有累积误差,会导致人在VR中移动的时候“走偏”。
Outside-in则是包括青瞳MC1300、optitrack系列这样,相机放在外头,mark点在人体或者头显上面。这种方式精确度更高,但坏处是一方面要借助外面的摄像头,对空间要求更大,另一方面则是相对成本更高。
在张海威看来,目前的技术都不完美,他认为对于固定场景的VR,outside-in类型的方案目前看起来相对成熟,而随着市场的发展,困扰这套方案最大的问题,摄像头的成本也会逐渐降低,所以张海威也选择用这种方案切入VR市场。
产品体验:精度高延迟低,小问题瑕不掩瑜
在位于上海大学校园内的青瞳视觉总部,青亭网体验了青瞳视觉的光学追踪产品。
进入青瞳视觉的实验室,在工作人员的帮助下,笔者戴上了上面粘着数个反光球的Oculus Rift头显,以及同样粘着数个反光球的手套和一个q型手柄。
接下来,工作人员启动了一个青瞳自制的demo游戏——笔者进入到一个机械空间之中,游戏本身很简单,就是用手中的激光q和巨大的机甲战斗。
游戏中,整个空间的稳定性,在空间中行走、躲避的实时反馈都非常精确,包括用q射击的时候准星也非常稳定。唯一美中不足的是,在游戏的时候,游戏中的手部有的时候会突然地丢失。
对此张海威介绍,这是因为手套的mark点都集中在手背部,翻掌或者被遮挡的情况下,摄像头捕捉不到mark点就会丢失,在实际的商业应用中,mark点覆盖手的两面,就可以解决这个问题。
降低延迟,二代产品的功夫在“机内”
对于VR来说,交互系统的延迟对人们的VR体验有着决定性的作用,对于降低光学交互系统的延迟,张海威表示其实最重要的功夫是在机内的芯片算法里。
青瞳视觉之前推出了一代产品MC300 tracker,而经过一年多的研发,这次推出的二代产品MC1300 tracker,如上图所示,在硬件和性能上都有了很大的进步。以FPGA为核心的带有1GB DDR3内存的拇指大小的微型电脑,处理速度及刷新率大大的提升,降低了延迟,提升了帧率,使得二代产品可以更好的捕捉高速运动中的物体。
当然这并不代表青瞳的水平已经超过Optitrack这样的国际一流大厂,笔者调查后发现optitrack的产品线中也有Prime 13W这样的广角摄像头方案。Prime13W的水平视角为82度,与MC1300的视场角相近。
实现Lighthouse并不困难,算法里面的门道才是壁垒
对于自家的产品,张海威有一个非常形象的介绍:如果说虚拟现实是PC之后下一代的计算平台,那么光学追踪系统就鼠标、键盘一样,用来让人和虚拟现实的世界进行交互。
青瞳自家的红外光学方案主要分为三个部分,摄像头、标记点以及处理系统。摄像头上感光镜头周围有一圈小的led灯泡,发出的光线照射到反光球上,经过反射被摄像头里的感光芯片捕捉,通过内置芯片的计算,最终得出反光球在空间中的位置信息。
只要空间中能有两个摄像头同时捕捉到这个反光球,就可以通过算法计算出这个反光球在空间中的三维位置。
张海威介绍,在摄像头的“眼”中,每个小球就像是一个发亮的点。通过在一个现实中的物体上(比如VR头显)固定住数个不等的小球,记录下这些小球的移动信息,再通过小球间的位置关系确定头显在虚拟空间中的姿态和移动,从而计算出头显在一定场景中六自由度的运动信息。
以头显为例,假设一个人在戴上头显之后想看旁边的柱子,转头的时候会被光学追踪系统记录下来传输给电脑,电脑的CPU计算出人应该看到的画面是柱子,GPU会渲染出相应的画面并显示在头显的屏幕。
张海威表示,青瞳也研究过Steam的Lighthouse系统,并且称它实现起来“并不困难”,真正的技术含量是在软件层——两个基站即便是被遮蔽一个也能正常工作,这一点是其他包括青瞳在内的算法做不到的。
至于Oculus的追踪系统,张海威称二者原理类似,但他更看好Lighthouse,因为相比Oculus的系统,前者对硬件的要求更低,成本更低,稳定性也更好。
VR定位技术主要有三种:激光定位、红外光学定位和可见光定位
VR的激光定位技术是通过在空间内安装多个激光发射器,从而对整个空间进行覆盖。被定位的物体表面则安装了反射点,激光发射器发出的激光再经反射,随后捕捉到这些经反射的激光,配合多个摄像头工作再通过后续程序计算后便能得到被定位物体的空间坐标。
VR的红外光学定位技术的基本原理是通过在空间内安装多个红外发射摄像头,从而对整个空间进行覆盖拍摄。被定位的物体表面则安装了红外反光点,摄像头发出的红外光再经反射,随后捕捉到这些经反射的红外光,配合多个摄像头工作再通过后续程序计算后便能得到被定位物体的空间坐标。
可见光定位技术的原理和红外光学定位技术类似,同样采用摄像头捕捉被追踪物体的位置信息,只是其不再利用红外光,而是直接利用可见光。
近年来,随着计算机硬件设备性能的不断提高以及三维软件技术的蓬勃发展,三维数据的生成与处理难度已经大幅度下降,与此同时,人们对于三维数据的兴趣也开始日益增加。三维数据,相比于文本、图像、视频等其它数字媒体媒介,具有更加丰富的立体呈现,与三维世界更为贴合。在多种三维数据中,三维人体与服装是最常见的三维数据,也一直是计算机图形学领域的重点研究对象,目前已被广泛用于**、游戏、服装设计、虚拟试衣等领域。
三维人体与服装在影视中的应用
从第一部三维动画长片《玩具总动员》(1995)(如图1(a))诞生起,三维人体与服装建模已经在三维**领域中发展了近三十年,期间不断发挥着重要的作用。去年,一部CG(ComputerGraphic,计算机图形)与真人结合的三维**《阿丽塔:战斗天使》为观众带来了震撼的视觉体验。该**使用了大量的三维建模技术。**的主角是一个名为阿丽塔(如图1(c))的虚拟角色,但是该角色精细的人物细节几乎使人难以区分这是真人还是CG模型。这背后是维塔工作室顶级的人体建模技术。为了真实地表现阿丽塔的眼睛,制作团队使用了多达830万个多边形来建模眼睛虹膜。此外,逼真的三维服装则进一步提升了虚拟角色的真实感与视觉效果。在动画**《冰雪奇缘》中,主人公穿着的民俗服装别具北国特色,其中最惊艳当属女主的魔法长裙,以其灵动飘逸的模拟效果为观众带来了一场特别的视觉盛宴,如图1(c)所示。
建立角色的三维模型是第一步,只有让三维模型动起来才能够真正为角色赋予生命。早期的角色动画依赖于动画师使用Maya等三维动画软件为角色手动设计动作,虽然耗费了大量精力,但是仍然无法真实而又自然地重现角色动作。动作捕捉技术的出现大大改变了这一现状。当前,动画制作公司广泛采用动作捕捉技术来捕捉并数字化真实演员的动作(包括角色表情),随后将这些动作迁移给虚拟角色,从而为这些虚拟角色赋予十分丰富、真实而又细腻的动作表演,如图1(d)所示。
三维人体与服装在游戏中的应用
由于游戏的交互性需求,游戏中的人物需要快速变形至特定姿态,同时需要实时的服装模拟。但是受限于客户端的硬件性能,三维游戏通常优先选择游戏体验感,而非画面真实感,例如早期的三维游戏《反恐精英》(图2(a)),基本忽略了角色服装的褶皱细节与动态模拟效果。近年来,随着硬件性能的不断提高以及三维技术的发展,出现了许多追求高质量画面的游戏,例如2020年的《赛博朋克2077》(图2(b))。除了传统的三维游戏,体感游戏的出现则为玩家带来了新的游戏体验。他们依靠传感器(如Kinect)感知人体的三维肢体动作,进而来控制游戏中的虚拟人物运动,例如舞蹈类游戏《JustDance》(图2(c))。
三维人体与服装在服装辅助设计中的应用
在服装设计领域中,早期的服装设计需要设计师具备多项专业技能,比如制版、放码、缝合等。服装设计师需要手工设计并裁剪服装裁片,最后将其缝合成成衣。该过程不仅制作周期较长,同时在成衣制作完成之前,设计师都难以看到服装缝合后的整体样式。
三维服装辅助设计的出现则改变了这一现状。对于一般的虚拟服装设计制作流程,首先设计二维服装裁片并进行网格化,随后将其缝合并试穿到标准姿态的虚拟人体身上,并对服装进行布料物理模拟,生成真实的服装悬垂状态与褶皱细节,最后经过渲染呈现出试穿后的效果。目前已成功商用的三维服装设计软件包括OptiTex(图3(a))、日本DigitalFashion公司的DressingSim以及韩国推出的MarvelousDesigner(图3(b))、CLO3D等。
除了静态的服装设计,这些三维服装设计软件能够支持人体运动数据导入,从而展示角色的动态着装效果。相比于传统的服装设计,三维服装设计软件能够为设计师节省大量人力与时间成本,并且缩短了服装从设计到成衣展示的周期。但是在实际 *** 作时,仍然需要大量的手动交互。例如设计一件T-shirt的原型,即使是最简单的样式,通常也需要耗费至少30分钟至1小时。另外,对虚拟服装的复用成本也相对较高,例如服装模型的缝制一般都是在特定姿态、体型的人体模型(一般为T-Pose的标准人体)进行,当将服装试穿到其它人体模型进行个性化服装定制时,又需要设计师的大量手工调整工作。
三维人体与服装在虚拟试衣中的应用
在网络购物迅猛发展的今天,用户只要动动手指就可完成购物 *** 作。一方面,网络购物可以随时随地 *** 作,不受营业时间限制,另一方面,网络购物平台的运营成本较低,使得商品价格更具有竞争优势。在所有的网购商品中,服装类商品占有较大比例。但是由于服装类商品的特殊性,在大量服装类商品订单的背后,是居高不下的退货率。
以国内的天猫商城为例,服装类商品的30天平均退货率高达1507%。除去商品本身的质量问题,究其原因主要有两点:第一,网购的服装与购买者的身材不符合,目前购买者只能通过简单的身材-尺寸对照表来选择服装尺码。虽然对照表中给出了其它的人体身材参数,但是购买者基本仅关注于“身高”这一指标。第二,购买者在试穿完网购服装后,发觉着装的视觉效果远远低于预期。高水平线的退货率不但无故增加了商家的人力成本,也消耗了消费者的精力,更是造成社会物流资源的极大浪费。而虚拟试衣目前看来是解决服装类商品高退货率的一个极具吸引力的解决方案。
业内从很早开始就对虚拟试衣应用进行了探索。德国弗劳恩霍夫学会开发出一套“网上试衣间”系统。他们首先利用手持式三维激光扫描仪对顾客体型进行扫描,随即利用扫描数据生成用户的虚拟三维人体。用户可将服装厂商提供的服装模型试穿到该虚拟人体身上。此外,用户还可通过鼠标 *** 作交互式地调整人体姿态,方便查看服装是否合身。
著名的在线试衣网站My Virtual Model(MVM)也开发了一套在线试衣系统,用户通过输入身高、体重、三维等信息生成一个虚拟的人体模特,接着将预先设置的三维服装试穿到该人体上展示着装效果。与此同时,通过对人体与服装尺寸的分析,该网站能够显示出当前服装是否合身的二值判断。这一模式也被后续的很多服装品牌厂商所沿用,例如优衣库推出的4D试衣间(如图4(a))以及瑞典的H&M公司推出的在线试衣间等等。
除了数字化的虚拟试衣,国内创业公司好买衣则推出了自家的试衣机器人,用户通过输入人体关键部位的参数,试衣机器人便能够通过变形来拟合用户的身材曲线,随后可以将真实服装试穿到试衣机器人来模拟实际的试穿效果,该方案避免了对三维服装进行模拟,但是由于其硬件设计的限制,目前的试衣机器人对于体型模拟效果较差、精度较低,同时实体机器人的造价较高,并不利于大规模推广。
和炫试衣系统是国内为数不多的三维试衣软件。该系统通过加载不同的人体模型,并将预先设置好的三维服装试穿到人体模型上。用户可输入一些参数,如腰围、胸围等人体模型进行调整。
其它国内的虚拟试衣平台还包括淘宝试衣间、天猫魔塔、深圳云之梦的虚拟试衣间(如图4(b))等等。但是这些虚拟试衣平台或多或少存在着诸如真实感模拟效果差,交互体验感不佳等问题。
综上所示,虽然三维人体与服装建模已经发展了很多年,但是仍然可以感受到业内对于三维人体与服装建模进一步发展的迫切需求。特别是在服装设计和虚拟试衣应用中,其中涉及到的相关技术仍有巨大的提升空间与研究价值,值得进一步挖掘与探索。列举出三个具体的研究热点与技术难点:1)快速、低成本以及准确的三维人体模型重建方法研究,包括三维姿态与人体几何形状模型;2)虚拟服装试穿,即快速、稳定地将服装试穿到不同体型、姿态的人体身上;3)真实感的动态试穿效果呈现,包括快速、低成本的人体运动捕捉以及高效的着装模拟技术
以上就是关于vr虚拟现实中11个专业术语全部的内容,包括:vr虚拟现实中11个专业术语、VR全景是属于什么技术啊、vr技术如何使用的最新相关信息等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)