这类问题我一般用VBA解决,按ALT+F11打开VBA界面,插入模块,粘贴程序代码:
Option Explicit
Sub 宏1()
Dim arr1, arr2(1 To 10000, 1 To 3), i&, n&, t
n = 1
arr2(n, 1) = "班级"
arr2(n, 2) = "人员"
arr2(n, 3) = "不及格次数"
arr1 = ActiveSheetUsedRange
For i = 2 To UBound(arr1)
If arr1(i, 1) <> "" Then
For Each t In Split(arr1(i, 2), ",")
n = n + 1
arr2(n, 1) = arr1(i, 1)
arr2(n, 2) = t
arr2(n, 3) = arr1(i, 3)
Next t
End If
Next i
Range("f1")Resize(n, 3) = arr2
End Sub
程序代码以下图为准,浏览器有可能偷吃:
下面是运行代码前的测试数据:
运行程序后的效果如下图:
巨大数据瞬间处理。
我试了下 104万行,需要大概 5分钟就算到了3万多行,如果几万行,应该时间不会那么长:
第一个直接
=COUNTIF($B$2:B2,B2)
第二个函数换成 countifs 就行了。
数据科学和机器学习是该时代最需求的技术,这一需求促使每个人都学习不同的库和软件包以实现它们。这篇博客文章将重点介绍用于数据科学和机器学习的Python库。这些是您掌握市场上最被炒作的两项技能的库。
以下是此博客中将涉及的主题列表:
数据科学与机器学习导论为什么要使用Python进行数据科学和机器学习?用于数据科学和机器学习的Python库用于统计的Python库用于可视化的Python库用于机器学习的Python库深度学习的Python库用于自然语言处理的Python库数据科学与机器学习导论
当我开始研究数据科学和机器学习时,总是有这个问题困扰我最大。是什么导致围绕这两个话题的热门话题?
嗡嗡声与我们生成的数据量有很大关系。数据是驱动ML模型所需的燃料,并且由于我们处在大数据时代,因此很清楚为什么将数据科学视为该时代最有希望的工作角色!
我会说数据科学和机器学习是技能,而不仅仅是技术。它们是从数据中获得有用的见解并通过建立预测模型解决问题所需的技能。
从形式上来讲,这就是两者的定义方式。
数据科学是从数据中提取有用信息以解决实际问题的过程。
机器学习是使机器学习如何通过提供大量数据来解决问题的过程。
这两个域是高度互连的。
机器学习是数据科学的一部分,它利用ML算法和其他统计技术来了解数据如何影响和发展业务。
为什么要使用Python?
Python在用于实现机器学习和数据科学的最流行的编程语言中排名第一。让我们了解为什么。
易于学习: Python使用非常简单的语法,可用于实现简单的计算,例如将两个字符串添加到复杂的过程中,例如构建复杂的ML模型。更少的代码:实施数据科学和机器学习涉及无数的算法。得益于Python对预定义包的支持,我们不必编写算法。为了使事情变得更容易,Python提供了一种“在编码时检查”的方法,从而减轻了测试代码的负担。预建库: Python有100多个预建库,用于实现各种ML和深度学习算法。因此,每次您要在数据集上运行算法时,只需要做的就是用单个命令安装和加载必要的程序包。预先构建的库的示例包括NumPy,Keras,Tensorflow,Pytorch等。与平台无关: Python可以在多个平台上运行,包括Windows,macOS,Linux,Unix等。在将代码从一个平台转移到另一个平台时,您可以使用诸如PyInstaller之类的软件包,该软件包将解决所有依赖性问题。大量的社区支持:除拥有大量支持者外,Python还拥有多个社区,团体和论坛,程序员可以在其中发布他们的错误并互相帮助。Python库
Python在AI和ML领域普及的唯一最重要的原因是,Python提供了数千个内置库,这些库具有内置功能和方法,可以轻松地进行数据分析,处理,处理,建模等。 。在下一节中,我们将讨论以下任务的库:
统计分析数据可视化数据建模与机器学习深度学习自然语言处理(NLP)统计分析
统计是数据科学和机器学习的最基本基础之一。所有ML和DL算法,技术等均基于统计的基本原理和概念。
Python附带了大量的库,仅用于统计分析。在此博客中,我们将重点介绍提供内置函数以执行最复杂的统计计算的顶级统计软件包。
这是用于统计分析的顶级Python库的列表:
NumPySciPyPandas统计模型NumPy
NumPy或数值Python是最常用的Python库之一。该库的主要功能是它支持用于数学和逻辑运算的多维数组。NumPy提供的功能可用于索引,分类,整形和传输图像和声波,这些图像和声波是多维实数数组。
以下是NumPy的功能列表:
执行简单到复杂的数学和科学计算对多维数组对象的强大支持以及用于处理数组元素的函数和方法的集合傅里叶变换和数据处理例程执行线性代数计算,这对于机器学习算法(例如线性回归,逻辑回归,朴素贝叶斯等)是必需的。SciPy
SciPy库建立在NumPy之上,是一组子软件包的集合,可帮助解决与统计分析有关的最基本问题。SciPy库用于处理使用NumPy库定义的数组元素,因此它通常用于计算使用NumPy无法完成的数学方程式。
这是SciPy的功能列表:
它与NumPy数组一起使用,提供了一个平台,提供了许多数学方法,例如数值积分和优化。它具有可用于矢量量化,傅立叶变换,积分,插值等子包的集合。提供完整的线性代数函数堆栈,这些函数可用于更高级的计算,例如使用k-means算法的聚类等。提供对信号处理,数据结构和数值算法,创建稀疏矩阵等的支持。Pandas
Pandas是另一个重要的统计库,主要用于统计,金融,经济学,数据分析等广泛领域。该库依赖于NumPy数组来处理Pandas数据对象。NumPy,Pandas和SciPy在执行科学计算,数据处理等方面都严重依赖彼此。
我经常被要求在Pandas,NumPy和SciPy中选择最好的,但是,我更喜欢使用它们,因为它们彼此之间非常依赖。Pandas是处理大量数据的最佳库之一,而NumPy对多维数组具有出色的支持,另一方面,Scipy提供了一组执行大多数统计分析任务的子包。
以下是Pandas的功能列表:
使用预定义和自定义索引创建快速有效的DataFrame对象。它可用于处理大型数据集并执行子集,数据切片,索引等。提供用于创建Excel图表和执行复杂数据分析任务的内置功能,例如描述性统计分析,数据整理,转换, *** 作,可视化等。提供对处理时间序列数据的支持统计模型
StatsModels Python软件包建立在NumPy和SciPy之上,是创建统计模型,数据处理和模型评估的最佳选择。除了使用SciPy库中的NumPy数组和科学模型外,它还与Pandas集成以进行有效的数据处理。该库以统计计算,统计测试和数据探索而闻名。
以下是StatsModels的功能列表:
NumPy和SciPy库中找不到的执行统计检验和假设检验的最佳库。提供R样式公式的实现,以实现更好的统计分析。它更隶属于统计人员经常使用的R语言。由于它广泛支持统计计算,因此通常用于实现广义线性模型(GLM)和普通最小二乘线性回归(OLM)模型。包括假设检验(零理论)在内的统计检验是使用StatsModels库完成的。因此,它们是用于统计分析的最常用和最有效的Python库。现在让我们进入数据科学和机器学习中的数据可视化部分。
数据可视化
说出一千多个单词。我们都听说过关于艺术方面的引用,但是,对于数据科学和机器学习也是如此。
数据可视化就是通过图形表示有效地表达来自数据的关键见解。它包括图形,图表,思维导图,热图,直方图,密度图等的实现,以研究各种数据变量之间的相关性。
在本博客中,我们将重点介绍最好的Python数据可视化软件包,这些软件包提供内置函数来研究各种数据功能之间的依赖关系。
这是用于数据可视化的顶级Python库的列表:
MatplotlibMatplotlibPlotyBokehMatplotlib
Matplotlib是Python中最基本的数据可视化软件包。它支持各种图形,例如直方图,条形图,功率谱,误差图等。它是一个二维图形库,可生成清晰明了的图形,这对于探索性数据分析(EDA)至关重要。
这是Matplotlib的功能列表:
Matplotlib通过提供选择合适的线条样式,字体样式,格式化轴等功能,使绘制图形变得极为容易。创建的图形可帮助您清楚地了解趋势,模式并进行关联。它们通常是推理定量信息的工具。它包含Pyplot模块,该模块提供了与MATLAB用户界面非常相似的界面。这是Matplotlib软件包的最佳功能之一。提供面向对象的API模块,以使用GUI工具(例如Tkinter,wxPython,Qt等)将图形集成到应用程序中。Matplotlib
Matplotlib库构成了Seaborn库的基础。与Matplotlib相比,Seaborn可用于创建更具吸引力和描述性的统计图。除了对数据可视化的广泛支持外,Seaborn还附带一个面向数据集的内置API,用于研究多个变量之间的关系。
以下是Seaborn的功能列表:
提供用于分析和可视化单变量和双变量数据点以及将数据与其他数据子集进行比较的选项。支持针对各种目标变量的线性回归模型的自动统计估计和图形表示。通过提供执行高级抽象的功能,构建用于构造多图网格的复杂可视化。带有许多内置主题,可用于样式设置和创建matplotlib图Ploty
Ploty是最知名的图形Python库之一。它提供了交互式图形,以了解目标变量和预测变量之间的依赖性。它可以用于分析和可视化统计,财务,商业和科学数据,以生成清晰明了的图形,子图,热图,3D图表等。
这是使Ploty成为最佳可视化库之一的功能列表:
它具有30多种图表类型,包括3D图表,科学和统计图,SVG地图等,以实现清晰的可视化。借助Ploty的Python API,您可以创建由图表,图形,文本和Web图像组成的公共/私有仪表板。使用Ploty创建的可视化以JSON格式序列化,因此您可以在R,MATLAB,Julia等不同平台上轻松访问它们。它带有一个称为Plotly Grid的内置API,该API可让您直接将数据导入Ploty环境。Bokeh
Bokeh是Python中交互性最强的库之一,可用于为Web浏览器构建描述性的图形表示形式。它可以轻松处理庞大的数据集并构建通用图,从而有助于执行广泛的EDA。Bokeh提供定义最完善的功能,以构建交互式绘图,仪表板和数据应用程序。
这是Bokeh的功能列表:
使用简单的命令帮助您快速创建复杂的统计图支持HTML,笔记本和服务器形式的输出。它还支持多种语言绑定,包括R,Python,lua,Julia等。Flask和django也与Bokeh集成在一起,因此您也可以在这些应用程序上表达可视化效果它提供了对转换为其他库(如matplotlib,seaborn,ggplot等)中编写的可视化文件的支持因此,这些是用于数据可视化的最有用的Python库。现在,让我们讨论用于实现整个机器学习过程的顶级Python库。
机器学习
创建可以准确预测结果或解决特定问题的机器学习模型是任何数据科学项目中最重要的部分。
实施ML,DL等涉及对数千行代码进行编码,当您要创建通过神经网络解决复杂问题的模型时,这可能变得更加麻烦。但值得庆幸的是,我们无需编写任何算法,因为Python随附了多个软件包,仅用于实现机器学习技术和算法。
在此博客中,我们将重点介绍提供内置函数以实现所有ML算法的顶级ML软件包。
以下是用于机器学习的顶级Python库的列表:
Scikit-learnXGBoostElI5Scikit-learn
Scikit-learn是最有用的Python库之一,是用于数据建模和模型评估的最佳库。它附带了无数功能,其唯一目的是创建模型。它包含所有有监督的和无监督的机器学习算法,并且还具有用于集合学习和促进机器学习的定义明确的功能。
以下是Scikit学习的功能列表:
提供一组标准数据集,以帮助您开始使用机器学习。例如,著名的Iris数据集和Boston House Price数据集是Scikit-learn库的一部分。用于执行有监督和无监督机器学习的内置方法。这包括解决,聚类,分类,回归和异常检测问题。带有用于特征提取和特征选择的内置功能,可帮助识别数据中的重要属性。它提供了执行交叉验证以评估模型性能的方法,还提供了用于优化模型性能的参数调整功能。XGBoost
XGBoost代表“极端梯度增强”,它是执行Boosting Machine Learning的最佳Python软件包之一。诸如LightGBM和CatBoost之类的库也同样配备了定义明确的功能和方法。建立该库的主要目的是实现梯度提升机,该梯度提升机用于提高机器学习模型的性能和准确性。
以下是其一些主要功能:
该库最初是用C ++编写的,被认为是提高机器学习模型性能的最快,有效的库之一。核心的XGBoost算法是可并行化的,并且可以有效地利用多核计算机的功能。这也使该库足够强大,可以处理大量数据集并跨数据集网络工作。提供用于执行交叉验证,参数调整,正则化,处理缺失值的内部参数,还提供scikit-learn兼容的API。该库经常在顶级的数据科学和机器学习竞赛中使用,因为它一直被证明优于其他算法。ElI5
ELI5是另一个Python库,主要致力于改善机器学习模型的性能。该库相对较新,通常与XGBoost,LightGBM,CatBoost等一起使用,以提高机器学习模型的准确性。
以下是其一些主要功能:
提供与Scikit-learn软件包的集成,以表达功能重要性并解释决策树和基于树的集成的预测。它分析并解释了XGBClassifier,XGBRegressor,LGBMClassifier,LGBMRegressor,CatBoostClassifier,CatBoostRegressor和catboost所做的预测。它提供了对实现多种算法的支持,以便检查黑盒模型,其中包括TextExplainer模块,该模块可让您解释由文本分类器做出的预测。它有助于分析包括线性回归器和分类器在内的scikit学习通用线性模型(GLM)的权重和预测。深度学习
机器学习和人工智能的最大进步是通过深度学习。随着深度学习的介绍,现在可以构建复杂的模型并处理庞大的数据集。幸运的是,Python提供了最好的深度学习软件包,可帮助构建有效的神经网络。
在此博客中,我们将专注于提供用于实现复杂的神经网络的内置功能的顶级深度学习软件包。
以下是用于深度学习的顶级Python库的列表:
TensorFlowPytorchKerasTensorFlow
TensorFlow是用于深度学习的最佳Python库之一,是一个用于跨各种任务进行数据流编程的开源库。它是一个符号数学库,用于构建强大而精确的神经网络。它提供了直观的多平台编程界面,可在广阔的领域中实现高度扩展。
以下是TensorFlow的一些关键功能:
它允许您构建和训练多个神经网络,以帮助适应大型项目和数据集。除支持神经网络外,它还提供执行统计分析的功能和方法。例如,它带有用于创建概率模型和贝叶斯网络(例如伯努利,Chi2,Uniform,Gamma等)的内置功能。该库提供了分层的组件,这些组件可以对权重和偏差执行分层的 *** 作,并且还可以通过实施正则化技术(例如批标准化,丢包等)来提高模型的性能。它带有一个称为TensorBoard的可视化程序,该可视化程序创建交互式图形和可视化图形以了解数据功能的依赖性。Pytorch
Pytorch是一个基于Python的开源科学计算软件包,用于在大型数据集上实施深度学习技术和神经网络。Facebook积极地使用此库来开发神经网络,以帮助完成各种任务,例如面部识别和自动标记。
以下是Pytorch的一些主要功能:
提供易于使用的API与其他数据科学和机器学习框架集成。与NumPy一样,Pytorch提供了称为Tensors的多维数组,与NumPy不同,它甚至可以在GPU上使用。它不仅可以用于对大型神经网络进行建模,而且还提供了一个界面,具有200多种用于统计分析的数学运算。创建动态计算图,以在代码执行的每个点建立动态图。这些图有助于时间序列分析,同时实时预测销售量。Keras
Keras被认为是Python中最好的深度学习库之一。它为构建,分析,评估和改进神经网络提供全面支持。Keras基于Theano和TensorFlow Python库构建,该库提供了用于构建复杂的大规模深度学习模型的附加功能。
以下是Keras的一些关键功能:
为构建所有类型的神经网络提供支持,即完全连接,卷积,池化,循环,嵌入等。对于大型数据集和问题,可以将这些模型进一步组合以创建完整的神经网络它具有执行神经网络计算的内置功能,例如定义层,目标,激活功能,优化器和大量工具,使处理图像和文本数据更加容易。它带有一些预处理的数据集和经过训练的模型,包括MNIST,VGG,Inception,SqueezeNet,ResNet等。它易于扩展,并支持添加包括功能和方法的新模块。自然语言处理
您是否曾经想过Google如何恰当地预测您要搜索的内容?Alexa,Siri和其他聊天机器人背后的技术是自然语言处理。NLP在设计基于AI的系统中发挥了巨大作用,该系统有助于描述人类语言与计算机之间的交互。
在此博客中,我们将重点介绍提供内置功能以实现基于高级AI的系统的顶级自然语言处理包。
这是用于自然语言处理的顶级Python库的列表:
NLTKspaCyGensimNLTK(自然语言工具包)
NLTK被认为是分析人类语言和行为的最佳Python软件包。NLTK库是大多数数据科学家的首选,它提供易于使用的界面,其中包含50多种语料库和词汇资源,有助于描述人与人之间的互动以及构建基于AI的系统(例如推荐引擎)。
这是NLTK库的一些关键功能:
提供一套数据和文本处理方法,用于文本分析的分类,标记化,词干,标记,解析和语义推理。包含用于工业级NLP库的包装器,以构建复杂的系统,以帮助进行文本分类并查找人类语音的行为趋势和模式它带有描述计算语言学实现的综合指南和完整的API文档指南,可帮助所有新手开始使用NLP。它拥有庞大的用户和专业人员社区,它们提供全面的教程和快速指南,以学习如何使用Python进行计算语言学。spaCy
spaCy是一个免费的开源Python库,用于实现高级自然语言处理(NLP)技术。当您处理大量文本时,重要的是要了解文本的形态学意义以及如何将其分类以理解人类语言。通过spaCY可以轻松实现这些任务。
这是spaCY库的一些关键功能:
除了语言计算外,spaCy还提供了单独的模块来构建,训练和测试统计模型,从而更好地帮助您理解单词的含义。带有各种内置的语言注释,可帮助您分析句子的语法结构。这不仅有助于理解测试,还有助于查找句子中不同单词之间的关系。它可用于对包含缩写和多个标点符号的复杂嵌套令牌应用令牌化。除了非常强大和快速之外,spaCy还提供对51种以上语言的支持。Gensim
Gensim是另一个开源Python软件包,其建模旨在从大型文档和文本中提取语义主题,以通过统计模型和语言计算来处理,分析和预测人类行为。无论数据是原始数据还是非结构化数据,它都有能力处理庞大的数据。
以下是Genism的一些主要功能:
它可用于构建可通过理解每个单词的统计语义来有效分类文档的模型。它带有诸如Word2Vec,FastText,潜在语义分析之类的文本处理算法,这些算法研究文档中的统计共现模式,以过滤掉不必要的单词并构建仅具有重要功能的模型。提供可以导入并支持各种数据格式的I / O包装器和读取器。它具有简单直观的界面,可供初学者轻松使用。API学习曲线也很低,这解释了为什么许多开发人员喜欢此库。
Windows XP中磁盘碎片整理
WindowsXP中自带的磁盘碎片整理程序能够对计算机硬盘中的碎片进行有效的整理,其整理碎片的过程大致分为碎片分析和碎片整理两步。
*** 作思路
(1)运行磁盘碎片整理程序。
(2)选择D盘进行碎片分析,如果磁盘碎片整理程序建议需要进行磁盘碎片整理,则按照提示进行整理。
本案例主要是让读者掌握使用WindowsXP自带的磁盘碎片整理程序对计算机进行磁盘碎片整理的方法,以便在今后使用计算机时定期进行磁盘碎片整理。对经常存储数据的硬盘分区应该每周进行一次碎片整理。
program dataread
implicit none
integer::I,J,K
integer::Mx1,Mx2,N1,N2
character(len=20)::file1,file2,file3
character ans
real,dimension(:),allocatable::data1,data2
file1="1txt"
file2="2txt"
file3="3txt"
open(11,file= trim(file1),status="old",err=998)
open(12,file= trim(file2),status="old",err=998)
open(13,file= trim(file3))
Mx1=0
N1=0
do
read(11,,end=22)I
write(,)"1",I
if (Mx1<I) Mx1=I
N1=N1+1
enddo
22 Mx2=0
N2=0
do
read(12,,end=23)I
write(,)"2",I
if (Mx2<I) Mx2=I
N2=N2+1
enddo
if(N1neN2) then
write(,)"Data Numbers in two files are not the same, do you still wanna continue(Y/N)"
read(,)ans
if(anseq"N") stop " Sorry, merge data can not be finished"
endif
23 allocate(data1(N1),data2(N2))
rewind 11
rewind 12
do I=1,min(N1,N2)
read(11,)J,data1(I)
read(12,)K,data2(I)
if(JneK) then
write(,) "Warning, numbers are not the same in two files"
endif
write(13,"(2F103)")data1(I),data2(I)
enddo
goto 999
998 stop "File can not be found!"
999 stop "Normal End"
end
由于不是很了解数据到底是什么样的,所以在写程序的时候并没有前面编号不一致的情况,但是扩展性还是留下了,那个Mx1和Mx2目的就是为了防止楼主万一要拓展,要求用编号控制对应的数字或者编号不是按照对应顺序的。反正这个代码是基本能实现楼主的要求了。如果1和2文件中的数字个数不一致的话,程序会提醒并询问是否继续,要是继续的话就按照个数最小的那个文件个数来排序。
服务介绍
数据搬迁的目标是在最少存储中断服务时间内完成数据在两个存储设备之间快速有序迁移,并保证数据的完整性、可用性、一致性。
客户面临的挑战
主要使用场景有:根据正式系统搭建测试环境、从内网复制到外网、数据库服务器硬件升级等。根据需要迁移的数据量大小、系统架构,可采取不同的迁移方法。
数据搬迁服务特点
数据核对
数据核对采用数据分级过滤的方式,数据分级过滤就是把数据按照不同的数据级别进行分类整理进入不同的中间数据库中。本系统中我们把数据分为三个级别:废弃数据、待调整数据、可转换数据。废弃数据就是该部分数据的存在对系统资源造成浪费的数据,并且会影响以后系统的运行,比如重复的个人基本信息、重复的帐户信息、重复缴费信息。待调整数据就是该部分数据严重影响新系统的运行,必须进行人工调整后,方可进行数据转换。可转换数据就是该部分数据不需做任何处理,基本满足数据转换的要求或者是该部分数据新系统建议调整,但是不影响系统的运行,可以等新系统运行后再调整,这样可以为数据转换工作节省很多时间。
数据整理
数据整理就是将原系统数据整理为系统转换程序能够识别的数据。数据整理大致分为两个阶段:第一阶段就是将不同类型来源数据采集备份到统一的数据库中;第二阶段就是将原始数据进行整理,按照要求分类进入不同的中间数据库,为数据转换提供中间数据。
确保原始数据的完整性
在进行数据整理之间,我们先需要对原始采集数据进行备份。备份的目的有两个:一个是统一数据库,便于数据转换,另一个就是为以后数据追根溯源提供参考依据。
借助数据整理相关工具
数据整理非常艰巨,涉及的数据量很大,通过人工检查是不可能完成的,因此必须编写相关的数据整理工具完成数据整理。包括数据整理工具和数据纠错工具。数据整理工具负责将原始备份数据库中的数据进行分类进入不同的中间数据库;数据纠错工具负责提供友好、方便的工具界面供用户方相关人员完善和纠正错误数据。
利用中间库作为桥梁
由于原系统和新系统的数据库结构可能不一样,所以采用中间库作为衔接新旧系统数据的重要桥梁,对于建立新旧系统的对照关系很重要。一旦业务人员对新系统中某项转换数据存在疑问的情况下,就可以通过中间库的关联,顺利找出原数据。
UCACHE灾备云是一种能帮您轻松实现服务器数据迁移的云服务产品,能满足您要求的所有应用场景,满足公有云、虚拟环境、物理环境以及私有云和混合云状态下的数据级、应用级的定时备份、差异化备份、可选择性内容恢复的任务。
UCache灾备云复杂的IT环境应用,比如:支持SAP HANA、Hadoop、KVM、Mysql、VMware、IBM DP2、Oracle等场景的数据备份/恢复、及数据迁移使用。支持海量核心业务数据的闪电恢复,极大缩短恢复所需时间,保障用户可用性数据达到秒级RTO、分钟级RTO体验。(目前UCache云灾备100G免费使用,数据压缩、重删比例:可达到7:1,实际700G的数据意思是经过加密切块压缩,及并行重删备份后实际在UCache灾备云平台上显示的占用容易仅为100G。)
以上就是关于如何把用逗号隔开的数据变成一列且匹配后面单元格的数字如图全部的内容,包括:如何把用逗号隔开的数据变成一列且匹配后面单元格的数字如图、EXCEL整理数据的问题(可能要VBA程序)、有了处理excel数据的R语言代码如何应用等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)