如何计算一个算法的时间复杂度

如何计算一个算法的时间复杂度,第1张

我们可以通过这样的方法来求解算法时间复杂度:

⑴ 找出算法中的基本语句。

⑵ 计算基本语句的执行次数的数量级。

⑶ 用大Ο记号表示算法的时间性能。

具体步骤是:

第一、找出算法中的基本语句;

算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。

第二、计算基本语句的执行次数的数量级;

只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。

第三、用大Ο记号表示算法的时间性能。

将基本语句执行次数的数量级放入大Ο记号中。

如果算法中包含嵌套的循环,则基本语句通常是最内层的循环体,如果算法中包含并列的循环,则将并列循环的时间复杂度相加。例如:

for (i=1; i<=n; i++)

x++;

for (i=1; i<=n; i++)

for (j=1; j<=n; j++)

x++;

第一个for循环的时间复杂度为Ο(n),第二个for循环的时间复杂度为Ο(n2),则整个算法的时间复杂度为Ο(n+n2)=Ο(n2)。

常见的算法时间复杂度由小到大依次为:

Ο(1)<Ο(log2n)<Ο(n)<Ο(nlog2n)<Ο(n2)<Ο(n3)<…<Ο(2n)<Ο(n!)

Ο(1)表示基本语句的执行次数是一个常数,一般来说,只要算法中不存在循环语句,其时间复杂度就是Ο(1)。Ο(log2n)、Ο(n)、Ο(nlog2n)、Ο(n2)和Ο(n3)称为多项式时间,而Ο(2n)和Ο(n!)称为指数时间。计算机科学家普遍认为前者是有效算法,把这类问题称为P类问题,而把后者称为NP问题。

这只能基本的计算时间复杂度,具体的运行还会与硬件有关。

sum=0;for(inti=l;i<=n;i++)for(intj=l;i<=n;j++)sum++;

程序执行的频次为:

1+2++n=n(n+1)/2

时间复杂度为:O(n^2)

算法的复杂性

算法的复杂性是算法效率的度量,是评价算法优劣的重要依据。一个算法的复杂性的高低体现在运行该算法所需要的计算机资源的多少上面,所需的资源越多,我们就说该算法的复杂性越高;反之,所需的资源越低,则该算法的复杂性越低。

计算机的资源,最重要的是时间和空间(即存储器)资源。因而,算法的复杂性有时间复杂性和空间复杂性之分。

不言而喻,对于任意给定的问题,设计出复杂性尽可能低的算法是我们在设计算法时追求的一个重要目标;另一方面,当给定的问题已有多种算法时,选择其中复杂性最低者,是我们在选用算法适应遵循的一个重要准则。因此,算法的复杂性分析对算法的设计或选用有着重要的指导意义和实用价值。

简言之,在算法学习过程中,我们必须首先学会对算法的分析,以确定或判断算法的优劣。

1时间复杂性:

例1:设一程序段如下(为讨论方便,每行前加一行号)

(1) for i:=1 to n do

(2) for j:=1 to n do

(3) x:=x+1

试问在程序运行中各步执行的次数各为多少?

解答:

行号 次数(频度)

(1) n+1

(2) n(n+1)

(3) nn

可见,这段程序总的执行次数是:f(n)=2n2+2n+1。在这里,n可以表示问题的规模,当n趋向无穷大时,如果 f(n)的值很小,则算法优。作为初学者,我们可以用f(n)的数量级O来粗略地判断算法的时间复杂性,如上例中的时间复杂性可粗略地表示为T(n)=O(n2)。

2空间复杂性:

例2:将一一维数组的数据(n个)逆序存放到原数组中,下面是实现该问题的两种算法:

算法1:for i:=1 to n do

b[i]:=a[n-i+1];

for i:=1 to n do

a[i]:=b[i];

算法2:for i:=1 to n div 2 do

begin

t:=a[i];a[i]:=a[n-i-1];a[n-i-1]:=t

end;

算法1的时间复杂度为2n,空间复杂度为2n

算法2的时间复杂度为3n/2,空间复杂度为n+1

显然算法2比算法1优,这两种算法的空间复杂度可粗略地表示为S(n)=O(n)

信息学比赛中,经常是:只要不超过内存,尽可能用空间换时间。

外层循环范围为i从1到n - 1

内层循环范围为j 从1 到i- 1

这样可以计算出循环执行的次数为:(n-2)(n-1)/2

当n趋于无穷大时,这个次数的无穷大阶次等于n的平方,也就是说,时间复杂度问为O(n^2)

时间复杂度就是用来方便开发者估算出程序的运行时间

我们该如何估计程序运行时间呢,我们通常会估计算法的 *** 作单元数量,来代表程序消耗的时间, 这里我们默认CPU的每个单元运行消耗的时间都是相同的。

假设算法的问题规模为n,那么 *** 作单元数量便用函数f(n)来表示

随着数据规模n的增大,算法执行时间的增长率和f(n)的增长率相同,这称作为算法的渐近时间复杂度,简称时间复杂度,记为 O(f(n))

这里就要说一下这个大O,什么是大O呢,很多同学说时间复杂度的时候都知道O(n),O(n^2),但说不清什么是大O

算法导论给出的解释: 大O用来表示上界的 ,当用它作为算法的最坏情况运行时间的上界,就是对任意数据输入的运行时间的上界。

同样算法导论给出了例子:拿插入排序来说,插入排序的时间复杂度我们都说是O(n^2)

但是在数据本来有序的情况下时间复杂度是O(n),也就对于所有输入情况来说,最坏是O(n^2) 的时间复杂度,所以称插入排序的时间复杂度为O(n^2)

同样的同理我们在看一下快速排序,都知道快速排序是O(nlogn),但是当数据已经有序情况下,快速排序的时间复杂度是O(n^2) 的,严格从大O的定义来讲,快速排序的时间复杂度应该是O(n^2)

但是我们依然说快速排序是O(nlogn)的时间复杂度,这个就是业内的一个默认规定,我们这里说的O 代表的就是一般情况,不是严格的上界

所以这里大家知道这么一回事就好了

面试中面试官绝对不会针对快速排序的时间复杂度问题来讨论O的定义, 大家知道讨论的时间复杂度就是指一般情况下的时间复杂度就好了。

大家要对算法的时间复杂度有这样的一个概念

就是同一个算法的时间复杂度不是一成不变的,和输入的数据形式依然有关系

我们主要关心的还是一般情况下的数据形式

面试中说道算法的时间复杂度是多少指的都是一般情况

但是如果面试官和我们深入探讨一个算法的实现以及性能的时候 我们就要时刻想着 数据用例的不一样 时间复杂度也是不同的,这一点同学们要注意

这个图中我们可以看出 不同算法的时间复杂度 在不同数据输入规模下的差异

我们在决定使用那些算法的时候 ,不是时间复杂越低的越好,要考虑数据规模,如果数据规模很小 甚至可以用O(n^2)的算法比 O(n)的更合适

就像上图中图中 O(5n^2) 和 O(100n) 在n为20之前 很明显 O(5n^2)是更优的,所花费的时间也是最少的。

那我们为什么在计算时间复杂度的时候要忽略常数项系数呢,也就说O(100n) 就是O(n)的时间复杂度,O(5n^2) 就是O(n^2)的时间复杂度

而且要默认O(n) 优于O(n^2) 呢 ?

这里就又涉及到大O的定义

因为 大O其实就是数据量级突破一个点且数据量级非常大的情况下所表现出的时间复杂度 ,这个点也就是 常数项系数已经不起决定性作用的点。

例如上图中 20 就是那个点 ,n只要大于20 常数项系数已经不起决定性作用了。

所以我们说的时间复杂度都是省略常数项系数的,是因为一般情况下我们都是默认数据规模足够的大,基于这样的事实 我们给出的算法时间复杂的的一个排行如下所示:

O(1)常数阶 < O(logn)对数阶 < O(n)线性阶 < O(n^2)平方阶 < O(n^3)(立方阶) < O(2^n) (指数阶)

我们平时说这个 算法的时间复杂度是logn的,一定是log 以2为底n的对数么?

其实不然,也可以是以10为底n的对数,也可以是以20为底n的对数,但我们统一说 logn,也就是忽略底数的描述。

为什么可以这么做呢?

如下图所示

假如我们有两个算法的时间复杂度 分别是log以2为底n的对数 和 log 以10为底n的对数

那么这里如果大家还记得我们高中数学的话, 应该不能理解 以2为底n的对数 = 以2为底10的对数 乘以 以10为底n的对数

那这里以2为底10的对数 是一个常数,而我在上面已经讲述了我们计算时间复杂度是忽略常数项系数的

抽象一下 log 以i为底n的对数 等于 log 以j为底n的对数,所以我们忽略了i,直接说是logn,正式因为logij 是就一个常数

所以,这样就应该不难理解了 我们为什么忽略底数了

有时候,我们去计算时间复杂度的时候 发现不是一个 简单的O(n) 或者O(n^2), 而是一个复杂的表达式,例如:

O(2n^2 + 10n + 1000)

那这里我们通常如何描述这个算法的时间复杂度呢,一种方法就是简化法

去掉运行时间中的加法常数项 (因为常数项并不会因为n的增大而增加计算机的 *** 作次数)

O(2n^2 + 10n)

去掉常数系数 (我们刚刚已经详细讲过为什么可以去掉常数项的原因了)

O(n^2 + n)

只保留保留最高项 去掉数量级小一级的n (因为n^2 的数据规模远大于 n),最终简化为:

O(n^2)

如果这一步同学们理解有困难,那也可以做提取n的 *** 作,变成 O(n(n+1)) ,省略加法常数项后 也别变成了

O(n^2)

所以最后我们说:我们这个算法的算法时间复杂度是 O(n^2)

也可以用另一种简化的思路,当n大于40的时候 , 这个复杂度 会一直小于 O(3n^2)

O(2n^2 + 10n + 1000) < O(3n^2)

所以说 最后我们省略掉常数项系数最终时间复杂度也是 O(n^2)

我们通过一道题目,来看一下具体时间复杂度应该怎么算

题目描述:找出n个字符串中相同的两个字符串(假设这里只有两个相同的字符串)

一些同学可能以为解决这道题目可以采用枚举遍历的解法,时间复杂度是 O(n^2)

这个时间复杂度其实是不对的。

这里 一些同学忽略了字符串比较的时间消耗,这里并不像int 型数字做比较那么简单

除了n^2 次的遍历次数外, 字符串比较依然要消耗m次 *** 作(m也就是字母串的长度),所以时间复杂度是 O(mnn)

那么我们再想一下其他解题思路

我们先排对n个字符串按字典序来排序,排序后n个字符串就是有序的,意味着两个相同的字符串就是挨在一起

然后在遍历一遍n个字符串,这样就找到两个相同的字符串了

那我们来看看这种算法的时间复杂度

快速排序时间复杂度 为O(nlogn),依然要考虑字符串的长度是m,那么快速排序每次的比较都要有m次的字符比较的 *** 作,就是 O(mnlogn)

之后我们还要遍历一遍这n个字符串找出两个相同的字符串,别忘了遍历的时候依然要比较字符串,所以总共的时间复杂度是 O(mnlogn + nm)

我们对 O(mnlogn + nm) 进行简化 *** 作,把 mn 提取出来变成 O(mn(logn + 1)) ,

在省略常数项最后的时间复杂度是 O(mnlogn) , 那我们比较一下时间效率 O(mnlogn) 是不是比第一种方法 O(mnn) 更快一些呢

很明显 O(mnlogn) 要优于 O(mnn)

所以 先把字符串集合排序在遍历一遍找到两个相同字符串的方式要比直接暴力枚举的方式更快

通过这个例子 希望大家对时间复杂的是怎么算的有一个初步的理解和认识。

时间复杂度计算

学习数据结构时,觉得时间复杂度计算很复杂,怎么也看不懂,差不多三年之后,还是不懂,马上就要找工作了,赶紧恶补一下吧:

首先了解一下几个概念。一个是时间复杂度,一个是渐近时间复杂度。前者是某个算法的时间耗费,它是该算法所求解问题规模n 的函数,而后者是指当问题规模趋向无穷大时,该算法时间复杂度的数量级。

当我们评价一个算法的时间性能时,主要标准就是算法的渐近时间复杂度,因此,在算法分析时,往往对两者不予区分,经常是将渐近时间复杂度T(n)=O(f(n))简称为时间复杂度,其中的f(n)一般是算法中频度最大的语句频度。

此外,算法中语句的频度不仅与问题规模有关,还与输入实例中各元素的取值相关。但是我们总是考虑在最坏的情况下的时间复杂度。以保证算法的运行时间不会比它更长。

常见的时间复杂度,按数量级递增排列依次为:常数阶O(1)、对数阶O(log2n)、线性阶O(n)、线性对数阶O(nlog2n)、平方阶O(n^2)、立方阶O(n^3)、k 次方阶O(n^k)、指数阶O(2^n)。

1 大O 表示法

定义

设一个程序的时间复杂度用一个函数 T(n) 来表示,对于一个查找算法,如下:

int seqsearch( int a[], const int n, const int x)

{

int i = 0;

for (; a[i] != x && i

if ( i == n) return -1;

else return i;

}

这个程序是将输入的数值顺序地与数组中地元素逐个比较,找出与之相等地元素。

在第一个元素就找到需要比较一次,在第二个元素找到需要比较2次,„„ ,在第n 个元素找到需要比较n 次。对于有n 个元素的数组,如果每个元素被找到的概率相等,那么查找成功的平均比较次数为:

f(n) = 1/n (n + (n-1) + (n-2) + + 1) = (n+1)/2 = O(n)

这就是传说中的大O 函数的原始定义。

用大O 来表述

要全面分析一个算法,需要考虑算法在最坏和最好的情况下的时间代价,和在平均情况下的时间代价。对于最坏情况,采用大O 表示法的一般提法(注意,这里用的是“一般提法”)是:当且仅当存在正整数c 和n0, 使得 T(n) = n0 都成立。则称该算法的渐进时间复杂度为T(n) = O(f(n))。这个应该是高等数学里面的第一章极限里面的知识。这里f(n) = (n+1)/2, 那么c f(n)也就是一个一次函数。就是在图象上看就是如果这个函数在cf(n)的下面,就是复杂度为T(n) = O(f(n))。

对于对数级,我们用大O 记法记为O(log2N)就可以了。

规则

1) 加法规则

T(n,m) = T1(n) + T2(n) = O ( max (f(n), g(m) )

2) 乘法规则

T(n,m) = T1(n) T2(m) = O (f(n) g(m))

3) 一个特例

在大O 表示法里面有一个特例,如果T1(n) = O, c是一个与n 无关的任意常数,T2(n) = O ( f(n) ) 则有

T(n) = T1(n) T2(n) = O ( cf(n) ) = O( f(n) )

也就是说,在大O 表示法中,任何非0正常数都属于同一数量级,记为O(1)。

4) 一个经验规则

有如下复杂度关系

c

其中c 是一个常量,如果一个算法的复杂度为c 、 log2N 、n 、 nlog2N , 那么这个算法时间效率比较高 ,如果是 2^n , 3^n ,n!, 那么稍微大一些的n 就会令这个算法不能动了,居于中间的几个则差强人意

1)基本知识点:没有循环的一段程序的复杂度是常数,一层循环的复杂度是O(n),两层循环的复杂度是O(n^2) (我用^2表示平方,同理 ^3表示立方);

2)二维矩阵的标准差,残差,信息熵,fft2,dwt2,dct2的时间复杂度: 标准差和残差可能O(n),FFT2是O(nlog(n)),DWT2可能也是O(nlog(n));信息熵要求概率,而dct 的过程和jpeg 一样。因为和jpeg 一样, 对二难矩阵处理了Y=TXT",Z=YMask,这样子, 还有分成88子图像了;

3)example :

1、设三个函数f,g,h 分别为 f(n)=100n^3+n^2+1000 , g(n)=25n^3+5000n^2 , h(n)=n^15+5000nlgn

请判断下列关系是否成立:

(1) f(n)=O(g(n))

(2) g(n)=O(f(n))

(3) h(n)=O(n^15)

(4) h(n)=O(nlgn)

这里我们复习一下渐近时间复杂度的表示法T(n)=O(f(n)),这里的"O" 是数学符号,它的严格定义是" 若T(n)和f(n)是定义在正整数集合上的两个函数,则T(n)=O(f(n))表示存在正的常数C 和n0 ,使得当n≥n0时都满足

0≤T(n)≤Cf(n)。" 用容易理解的话说就是这两个函数当整型自变量n 趋向于无穷大时,两者的比值是一个不等于0的常数。这么一来,就好计算了吧。

◆ (1)成立。题中由于两个函数的最高次项都是n^3,因此当n→∞时,两个函数的比值是一个常数,所以这个关系式是成立的。

◆ (2)成立。与上同理。

◆ (3)成立。与上同理。

◆ (4)不成立。由于当n→∞时n^15比nlgn 递增的快,所以h(n)与nlgn 的比值不是常数,故不成立。

2、设n 为正整数,利用大"O" 记号,将下列程序段的执行时间表示为n 的函数。

(1) i=1; k=0

while(i

{ k=k+10i;i++;

}

解答:T(n)=n-1, T(n)=O(n), 这个函数是按线性阶递增的。

(2) x=n; // n>1

while (x>=(y+1)(y+1))

y++;

解答:T(n)=n1/2 ,T(n)=O(n1/2),最坏的情况是y=0,那么循环的次数是n1/2

次,这是一个按平方根阶递增的函数。

(3) x=91; y=100;

while(y>0)

if(x>100)

{x=x-10;y--;}

else x++;

解答: T(n)=O(1),这个程序看起来有点吓人,总共循环运行了1000次,但是我们看到n 没有 没。这段程序的运行是和n 无关的,就算它再循环一万年,我们也不管他,只是一个常数阶的函数。

同一问题可用不同算法解决,而一个算法的质量优劣将影响到算法乃至程序的效率。算法分析的目的在于选择合适算法和改进算法。一个算法的评价主要从时间复杂度和空间复杂度来考虑。

1、时间复杂度

(1)时间频度

一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。

(2)时间复杂度

在刚才提到的时间频度中,n 称为问题的规模,当n 不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律。为此,我们引入时间复杂度概念。

一般情况下,算法中基本 *** 作重复执行的次数是问题规模n 的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n 趋近于无穷大时,T (n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数。记作T(n)=O(f(n)),称O(f(n)) 为算法的渐进时间复杂度,简称时间复杂度。

在各种不同算法中,若算法中语句执行次数为一个常数,则时间复杂度为O(1),另外,在时间频度不相同时,时间复杂度有可能相同,如T(n)=n2+3n+4与T(n)=4n2+2n+1它们的频度不同,但时间复杂度相同,都为O(n2)。

按数量级递增排列,常见的时间复杂度有:

常数阶O(1),对数阶O(log2n),线性阶O(n),

线性对数阶O(nlog2n),平方阶O(n2),立方阶O(n3),,

k 次方阶O(nk),指数阶O(2n)。随着问题规模n 的不断增大,上述时间复杂度不断增大,算法的执行效率越低。

2、空间复杂度

与时间复杂度类似,空间复杂度是指算法在计算机内执行时所需存储空间的度量。记作:

S(n)=O(f(n))

我们一般所讨论的是除正常占用内存开销外的辅助存储单元规模。讨论方法与时间复杂度类似,不再赘述。

(3)渐进时间复杂度评价算法时间性能

主要用算法时间复杂度的数量级(即算法的渐近时间复杂度) 评价一个算法的时间性能。

例3.7有两个算法A1和A2求解同一问题,时间复杂度分别是

T1(n)=100n2,T2(n)=5n3。

(1)当输入量n <20时,有T1(n)>T2(n),后者花费的时间较少。

(2)随着问题规模n 的增大,两个算法的时间开销之比5n3/100n2=n/20亦随着增大。即当问题规模较大时,算法A1比算法A2要有效地多。 它们的渐近时间复杂度O(n2)和O(n3)从宏观上评价了这两个算法在时间方面的质量。在算法分析时,往往对算法的时间复杂度和渐近时间复杂度不予区分,而经常是将渐近时间复杂度T(n)=O(f(n))简称为时间复杂度,其中的f(n)一般是算法中频度最大的语句频度。

例3.8算法MatrixMultiply 的时间复杂度一般为T(n)=O(n3),f(n)=n3是该算法中语句(5)的频度。下面再举例说明如何求算法的时间复杂度。

例3.9交换i 和j 的内容。

Temp=i;

i=j;

j=temp;

以上三条单个语句的频度均为1,该程序段的执行时间是一个与问题规模n 无关的常数。算法的时间复杂度为常数阶,记作T(n)=O(1)。

如果算法的执行时间不随着问题规模n 的增加而增长,即使算法中有上千条语句,其执行时间也不过是一个较大的常数。此类算法的时间复杂度是O(1)。

例3.10变量计数之一。

(1) x=0;y=0;

(2) for(k-1;k

(3) x++;

(4) for(i=1;i

(5) for(j=1;j

(6) y++;

一般情况下,对步进循环语句只需考虑循环体中语句的执行次数,忽略该语句中步长加1、终值判别、控制转移等成分。因此,以上程序段中频度最大的语句是(6),其频度为f(n)=n2,所以该程序段的时间复杂度为T(n)=O(n2)。

当有若干个循环语句时,算法的时间复杂度是由嵌套层数最多的循环语句中最内层语句的频度f(n)决定的。

例3.11变量计数之二。

(1) x=1;

(2) for(i=1;i

(3) for(j=1;j

(4) for(k=1;k

(5) x++;

该程序段中频度最大的语句是(5),内循环的执行次数虽然与问题规模n 没有直接关系,但是却与外层循环的变量取值有关,而最外层循环的次数直接与n 有关,因此可以从内层循环向外层分析语句(5)的执行次数:

则该程序段的时间复杂度为T(n)=O(n3/6+低次项)=O(n3)。

(4)算法的时间复杂度不仅仅依赖于问题的规模,还与输入实例的初始状态有关。

例3.12在数值A[0n-1]中查找给定值K 的算法大致如下:

(1)i=n-1;

(2)while(i>=0&&(A[i]!=k))

(3) i--;

(4)return i;

此算法中的语句(3)的频度不仅与问题规模n 有关,还与输入实例中A 的各元素取值及K 的取值有关:

①若A 中没有与K 相等的元素,则语句(3)的频度f(n)=n;

②若A 的最后一个元素等于K, 则语句(3)的频度f(n)是常数0。

(5)最坏时间复杂度和平均时间复杂度

最坏情况下的时间复杂度称最坏时间复杂度。一般不特别说明,讨论的时间复杂度均是最坏情况下的时间复杂度。

这样做的原因是:最坏情况下的时间复杂度是算法在任何输入实例上运行时间的上界,这就保证了算法的运行时间不会比任何更长。

例3.19查找算法例1·8在最坏情况下的时间复杂度为T(n)=0(n),它表示对于任何输入实例, 该算法的运行时间不可能大于0(n)。

平均时间复杂度是指所有可能的输入实例均以等概率出现的情况下,算法的期望运行时间。

常见的时间复杂度按数量级递增排列依次为:常数0(1)、对数阶0(log2n)、线形阶0(n)、线形对数阶0(nlog2n)、平方阶0(n2)立方阶0(n3)、„、k 次方阶0(nk)、指数阶0(2n)。显然,时间复杂度为指数阶0(2n)的算法效率极低,当n 值稍大时就无法应用。

类似于时间复杂度的讨论,一个算法的空间复杂度(Space

Complexity)S(n)定义为该算法所耗费的存储空间,它也是问题规模n 的函数。渐近空间复杂度也常常简称为空间复杂度。算法的时间复杂度和空间复杂度合称为算法的复杂度。

以上就是关于如何计算一个算法的时间复杂度全部的内容,包括:如何计算一个算法的时间复杂度、1.求以下程序段的时间复杂度。(写出必要的计算步骤)sum、在一个具体的程序中,程序的复杂度是如何计算的等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/9464412.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-28
下一篇 2023-04-28

发表评论

登录后才能评论

评论列表(0条)

保存