你都用Python 来做什么

你都用Python 来做什么,第1张

当我知道可以做这些之后,我特别想会。因为论文查阅、答案确认查询;想知道豆瓣8分以上**,或者穿越类的**、处理工资数据考核表等。

可以干什么

1、上学吧答案神器 主要实现的是无限制获取上学吧网站上的题目答案(绕过 IP 限制),并实现了自动识别验证码,只用输入某个题目的网址,即可一键获取答案,速度非常快。「想要哈哈,自己或者给孩子辅导作业必备啊?」

2、抓取某系统内全部学生姓名学号及选课信息

3、扫描研究生系统上的弱密码用户、模拟登录图书馆系统并自动续借

4、给钓鱼网站批量提交垃圾信息 经常会收到含有钓鱼网站链接的短信的,一般都是** QQ 密码的偏多,其实可以使用 Python 来批量给对方的服务器提交垃圾数据(需要先抓包),这样骗子看到信息之后就不知道哪些是真的哪些是假的了,说不定可以解救一部分填了密码的同学。

5、网易云音乐批量下载 可以批量下载网易云音乐热歌榜的歌曲,可以自己设定数量,速度非常快。

6、批量下载读者杂志某一期的全部文章

7、 获取城市PM25浓度和排名

8、爬取某网商品价格信息

你都用 Python 来做什么?

那Python 作为一种功能强大的编程语言,因其简单易学而受到很多开发者的青睐。那么,Python 的应用领域有哪些呢?

Python 的应用领域非常广泛,几乎所有大中型互联网企业都在使用 Python 完成各种各样的任务,例如国外的 Google、Youtube、Dropbox,国内的百度、新浪、搜狐、腾讯、阿里、网易、淘宝、知乎、豆瓣、汽车之家、美团等等。概括起来,Python 的应用领域主要有如下几个。

Web应用开发

Python 经常被用于 Web 开发,尽管目前 PHP、JS 依然是 Web 开发的主流语言,但 Python 上升势头更劲。尤其随着 Python 的 Web 开发框架逐渐成熟(比如 Django、flask、TurboGears、web2py 等等),程序员可以更轻松地开发和管理复杂的 Web 程序。例如,通过 mod_wsgi 模块,Apache 可以运行用 Python 编写的 Web 程序。Python 定义了 WSGI 标准应用接口来协调 >

图1用Python实现的豆瓣网

不仅如此,全球最大的视频网站 Youtube 以及 Dropbox(一款网络文件同步工具)也都是用 Python 开发的。

自动化运维

很多 *** 作系统中,Python 是标准的系统组件,大多数 Linux 发行版以及 NetBSD、OpenBSD 和 Mac OS X 都集成了 Python,可以在终端下直接运行 Python。有一些 Linux 发行版的安装器使用 Python 语言编写,例如 Ubuntu 的 Ubiquity 安装器、Red Hat Linux 和 Fedora 的 Anaconda 安装器等等。另外,Python 标准库中包含了多个可用来调用 *** 作系统功能的库。例如,通过 pywin32 这个软件包,我们能访问 Windows 的 COM 服务以及其他 Windows API;使用 IronPython,我们能够直接调用 Net Framework。通常情况下,Python 编写的系统管理脚本,无论是可读性,还是性能、代码重用度以及扩展性方面,都优于普通的 shell 脚本。

人工智能领域

人工智能是项目非常火的一个研究方向,如果要评选当前最热、工资最高的 IT 职位,那么人工智能领域的工程师最有话语权。而 Python 在人工智能领域内的机器学习、神经网络、深度学习等方面,都是主流的编程语言。可以这么说,基于大数据分析和深度学习发展而来的人工智能,其本质上已经无法离开 Python 的支持了,原因至少有以下几点:

目前世界上优秀的人工智能学习框架,比如 Google 的 TransorFlow(神经网络框架)、FaceBook 的 PyTorch(神经网络框架)以及开源社区的 Karas 神经网络库等,都是用 Python 实现的;微软的 CNTK(认知工具包)也完全支持 Python,并且该公司开发的 VS Code,也已经把 Python 作为第一级语言进行支持。Python 擅长进行科学计算和数据分析,支持各种数学运算,可以绘制出更高质量的 2D 和 3D 图像。总之,AI 时代的来临,使得 Python 从众多编程语言中脱颖而出,Python 作为 AI 时代头牌语言的位置,基本无人可撼动!最后,如果你的时间不是很紧张,并且又想快速的提高,最重要的是不怕吃苦,建议你可以价位@762459510 ,那个真的很不错,很多人进步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~

网路爬虫

Python 语言很早就用来编写网络爬虫。Google 等搜索引擎公司大量地使用 Python 语言编写网络爬虫。从技术层面上将,Python 提供有很多服务于编写网络爬虫的工具,例如 urllib、Selenium 和 BeautifulSoup 等,还提供了一个网络爬虫框架 Scrapy。

科学计算

自 1997 年,NASA 就大量使用 Python 进行各种复杂的科学运算。并且,和其它解释型语言(如 shell、js、PHP)相比,Python 在数据分析、可视化方面有相当完善和优秀的库,例如 NumPy、SciPy、Matplotlib、pandas 等,这可以满足 Python 程序员编写科学计算程序。

游戏开发

很多游戏使用 C++ 编写图形显示等高性能模块,而使用 Python 或 Lua 编写游戏的逻辑。和 Python 相比,Lua 的功能更简单,体积更小;而 Python 则支持更多的特性和数据类型。比如说,国际上指明的游戏 Sid Meier's Civilization(文明,如图 2 所示)就是使用 Python 实现的。

图2Python开发的游戏

除此之外,Python 可以直接调用 Open GL 实现 3D 绘制,这是高性能游戏引擎的技术基础。事实上,有很多 Python 语言实现的游戏引擎,例如 Pygame、Pyglet 以及 Cocos 2d 等。以上也仅是介绍了 Python 应用领域的“冰山一角”,例如,还可以利用 Pygame 进行游戏编程;用 PIL 和其他的一些工具进行图像处理;用 PyRo 工具包进行机器人控制编程,等等。有兴趣的读者,可自行搜索资料进行详细了解。

一、问题:

公共样式文件中,使用/deep/,在mainjs中引用,chrome89版本以下生效,chrome89 /deep/选择器失效,导致样式错乱,覆盖的样式失效

二、覆盖element-ui 样式的方法

针对chrome89以下版本,6种方式均生效,chrome89 以后,第3种方式样式覆盖失效。

原因是:chrome63 已经删除 ::shadow 和 /deep/,但89版本之前还可以使用,因为在chrome89版本中才彻底移除Shadow DOM V0,导致/deep/失效 。

三、写在公共样式中的/deep/,在mainjs中引入和在vue文件中scoped内使用/deep/有什么区别

1、公共样式中使用/deep/,mainjs中引入,无任何解析,直接输出/deep/,也就是chrome自身去解析/deep/,chrome的/deep/是对shadow-dom的深度穿透

2、vue文件scoped中使用/deep/,选择器会被加上hash值,如下图:

Machine Learning的前景怎么样?

Machine Learning作为统计学的一个分支,最近好像特别吃香,请大神们解疑,Machine Learning具体是干什么的,前景什么样?

正好刚回答过类似的问题,直接引用下吧

Machine Learning现在是一个很火的研究方向。机器学习是研究计算机怎么模拟人类的学习行为,并且能组织已有的知识构架使之不断完善的性能的学科。 是人工智能的核心,是使计算机具有智能的根本途径。 与其说是统计学的分支,不如说是统计学,计算机科学,信息科学的交叉分科。其涉及的知识面很广,涵盖了工智能、哲学、信息论、生物学、认知科学、计算复杂性等众多领域的专业知识。现在存在的一些计算器系统是没有学习的能力的(或者是有的已有了特别局限的学习能力?),因而是不能满足生产的需求的。随意随着科技的发展,machine Learning肯定会得到长足的发展的。只是,machine Learning也有许多发展方向,不是每个方向都发展的起来。

附上这篇文章的链接吧:

数据挖掘和深度学习(deep learning)哪个更有发展前景?

我再补充下Machine Learning的研究目标吧:

认知模型——即是3M认知模型,是人类对真实世界进行认知的过程模型。认知是个系统的过程,其中包含感知,记忆,判断与学习。因而完成这个认知过程,是个一及其艰难和浩大的工程。

通用学习算法——像是大家熟知deep Learning就是Machine Learning中的一种比较深的算法。 其实很多ML算法都是非逻辑性的,输入的信息数据通过数学模型而得出一个新的工具,其实可以说是建立一个人工识别号的数据库。

构造学习系统的方法(面向任务的)——其实就是研究如何通过 环境向系统的学习环节提供某些信息。

先说这么多吧,有空的话做个图解释下ML的方法论,觉得还是解释比较抽象,多多包涵吧。

Machine Learning是一门多领域的交叉学科,除了像最常见的统计学、逼近论、算法复杂度分析理论等,也包括一些与生物领域的科学相关的问题,比如说最常见的人工神经网络中的各类神经元与链接方式都是仿照人脑进行 *** 作的、以及遗传算法中模拟基因突变的过程等。

机器学习主要就是研究计算机如何模型或实现像人一样的思维方式去学习知识,通过对新问题的反馈机制,修改或优化自己已经学习到的知识。其是人工智能的核心,也就是说,人工智能非常依赖机器学习的好坏与优良程度。

机器学习的方法以及其效果的好坏对于人类未来的发展至关重要,如果效果很高的话,至少可以替代人工做的一些重复的体力劳动,并可以根据特殊情况进行一定的反映。因此,就前景而言还是很好的,尤其是在现在这个大数据时代,越来越多的人类行为相关数据被记录在案,为机器学习提供了基础内容。此外,机器学习所产生的一些成果,已经应用于许多领域,包括数据挖掘、自然语言处理等等。

虽然机器学习已经取得了一定的突破,但是还是没有达到人工智能的程度,因此有许多问题是需要研究和发展的,因此,未来的发展也是充满机遇与挑战的。Machine Learning是个不错的领域,如果想要进入的话,建议多学习一些基础思想和编程。

机器学习已经越来越平民化了(democratizing),数学和算法并非一定要很深厚功力,大多通用算法都是现成的,比如微软Azure Machine Learning平台已经有很多打包的示例,如用来分析customer churn的示例等。至于operationalization(不知道怎么翻译),现在也没这么难了。

我觉得如果只是应用机器学习来处理现实问题,最难的还是怎么把通用算法和自己公司的现实问题联系起来,比如怎么定feature,用哪种model,另外怎么评价最终效果等等。难的是深入理解企业的实际业务,而非技术和算法。

个人认为趋势是随着machine learning平台的成熟以及通用场景的算法普及,data scientist这个称号会逐渐平民化甚至消失,最后你搭个回归模型之类的就像使用Excel处理一些数据这样简单。一个PM或者销售经理可以自己做这事而不需要养一个专门的职位。

机器学习的应用在工业界需求很高,有过工作经验的人可以很轻松的找到工作,供给远远小于需求,而且需求越来越大。

但是招 New Grad (PhD 可以考虑) 相对较少。原因很多,简单来说,就是 New Grad 往往工程经验不够,学术能力也不够。工业界的现状不复杂:大公司搞机器学习的组大、人多、要求高,PhD 是进入的门槛;小公司人少,每个人都要独当一面,因此必须要有过搭建实际机器学习系统的经验。因此如果两边都没有优势的话,自然找工作比较吃力。

因此,对于有志于做这个方向的同学来说,建议找工作时调整心态,第一份工作尽量找到工作职责与机器学习相关的组,而不必追求一步到位。人生的职业生涯很长,做好3到5年的职业生涯规划,积累实际工作经验,不断学习与强化自己。人与人的差距并不会在第一份工作中体现,而是在前几年逐渐显现出来。

机器学习早期发展是遵循实用主义糙快猛的路线。基本步骤就是靠直觉构造一个优化目标,然后解这个优化问题。数学工具基本上线性代数和凸优化也就够用了。再深一点涉及博弈论,随机过程,微分方程,测度论,实分析,泛函分析,李群等。

这个学科发展很快,长期处于理论跟不上实践。当前的发展势头,已经到了一个工科那点数学不太够用了的阶段。很需要一批数学大牛来披荆斩棘一下。很多这个领域的人认为过多的数学没必要,其实是因为这些人数学菜。我就看到过用代数几何的方法(resolution of singularity, blow-up)漂亮的解singular model的问题。可惜很少人follow。 总之很多问题是到了需要引入高级数学工具才能漂亮解决的地步了。比如各种不变性和等价性需要黎曼几何,各种ill pose singular问题需要代数几何。

结局就是:还是好好去学数学吧。。。。。。

提几个可能的有关机器学习当中的深度学习发展方向,同时也就是尚待解决的问题:

1让深度学习自动调超参。

最近看到有人在一个AI群里推广自己的一篇论文《Deep Q-Networks for Accelerating the Training of Deep Neural Networks》,大致是用强化学习的方法训练一个控制器来自动控制学习率以及在一个batch中各个类的样本占比。虽然它那篇论文问题很大,训练出来的控制器极其不通用,只能用在它原本的任务上,但是感觉很容易解决掉,这个另说。想象一下,如果能够训练出一个通用的控制器,对于各类任务都能够自动调整超参(或者只在某个子领域比如图像分类做到通用也好),那我们就再也不用自称调参狗了,同时也可以解放出更多的时间用于设计模型、验证架构,想必深度学习的发展步伐会得到极大加速。

2自动学习网络架构。

其实说起来这个问题也可以归入自动调超参,但是感觉应该还是有很大的不同。说起来无非就是两个方面,一是加法二是减法。加法方面可以参考《Net2Net: Accelerating Learning via Knowledge Transfer》,这篇是让CNN自动根据需要自动拓展架构,包括横向的增加filter和纵向的增加layer。减法方面可以参考各类Network Compression(网络压缩)的论文中的所谓Network Pruning(网络剪枝),比如《Deep Compression - Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding》,虽然这些论文出发点不在于自动学习网络架构而在于压缩网络规模,而且它们往往是在训练收敛之后才对网络进行裁剪而非边训练边裁剪,但是感觉只需要再跨一步就可以了。我个人觉得,自动学习网络架构需要解决的最根本问题就是“应该在什么时机进行架构变动”以及“应该怎么变”,第二个问题感觉上述论文算是回答得可以了,但是第一个问题似乎还有很多可以探索的地方。对于第一个问题,似乎强化学习就很适合解决,因为显然可以把它看成一个控制问题。

3迁移学习。

众所周知,深度学习的直接训练依赖大量数据,而transfer和finetune能够有效利用数据量大的外部任务训练出来特征来迁移到数据量小的目标任务上,使得目标任务对于数据量的要求大大减小。现在的问题在于,迁移学习的思想现在大家其实都在用,很多论文中都可以看到finetune的做法,但是对于两个任务之间需要“多像”才能够迁移这么一个问题还没有一个很好的回答。即使我们不奢求能够给出一个严格的数学理论,至少,如果有人能够做一个非常系统的对比实验,总结出一些规律,使得我们有信心说在如何如何这样一个边界内的任务都是基本上可以transfer的,那将会是一个很大的进步。这个问题也可以这么看,如今我们应该有信心说两个图像分类任务可以transfer,但是这个边界太过狭窄,我个人期待的就是能够有一套理论或者方法论使得这个边界大大拓展,然后在这个边界内我们可以像对两个图像分类任务一样自信满满地用迁移学习。

4无监督/半监督学习。

像LeCun等大佬其实一直在鼓吹这方面,但似乎还没有搞出像当年CNN(AlexNet)、最近强化学习(阿法狗)这样级别的大新闻来。我理解在这个问题上的努力方向应该是确定“何种representation最有用”。具体来说,就是找到一个指标,然后用深度网络优化这个指标,使得满足这个指标的data representation能够具有非常好的特性。再具体一些,下面举三个实际例子:

autoencoder以重构损失作为指标来学习一个representation。

之前听一个讲座,演讲人介绍他的论文《Why Deep Learning Works: A Manifold Disentanglement Perspective》IEEE Xplore Abstract,其中定义了三个指标来描述深度网络每一层中data representation的“蜷曲程度”,并发现,越高层的数据蜷曲度越低,换言之,越平展。那么无监督学习是否能够直接以这个蜷曲度作为损失函数来学习一个representation呢?

这篇论文《Context Encoders: Feature Learning by Inpainting》提出通过预测周边上下文像素来无监督学习视觉特征,感觉很像word2vec从一维变成二维。

除了上述的重构损失、蜷曲度、预测上下文精度,还有没有别的指标学习出来的representation更好呢?个人认为这些问题就是推动无监督/半监督学习进展的关键所在。

5基于外部存储(external memory)的模型。

如果说RNN、LSTM这样的模型属于internal memory / long-term memory的话,那么以神经图灵机(Neural Turing Machine)、记忆网络(Memory Network)为代表的模型就应该称为external memory / really long-term memory了。不过这两个模型刚出来的时候还太过naive,只能做一些很无聊的task,比如序列复制和排序以及非常简单的QA,但是现在已经开始看到它们被用到更加实际的问题上面,例如One-shot Learning:《One-shot Learning with Memory-Augmented Neural Networks》。往大了说,如果未来要实现强AI,这种外部存储的机制肯定是必不可少的。现在的问题在于,神经图灵机和记忆网络用的外部存储虽然比LSTM那样简单的一个hidden state向量更进一步,但也其实就是很简单的一片矩阵,没有任何结构和层次可言,换言之,就是还不够复杂。所以我猜想接下来可能external memory会和知识图谱(Knowledge Graph)结合起来或至少是向知识图谱类似的做法靠拢,因为知识图谱更加结构化。

咳咳,路过,进来小小的装一下。本人现在大三,所以说在这个话题上可能并没有什么话语权,不过因为最近再跟老师搞项目,正好是这方面的,戳进来分享一下感受吧。

第一是:机器学习前景很好。这是真的,最近看了很多论文,有关数据挖掘数据分析类别的,里面用到的百分之八九十都是机器学习,这可能也是人工智能发展的最大需求吧,人工智能无非是模仿人类,而人类最开始也是对世界充满了无知,通过学习才慢慢认知这个世界的,个人感觉这就是为什么机器学习会被提出来吧,像真的实现人工智能就要从根源开始模仿人类,也就是从学习这个技能上入手。

说完了这个想说的是为什么前景好呢,上面说过的用途和提出愿景好是一方面,另一方面是因为这方面人才还比较少,其实这也是一种发展前景吧。就像前几年计算机刚刚火起来的时候那些最早接触计算机的人突然就变得很出名,然后社会上一大部分人都涌入到这个领域中,这是一个道理。机器学习现在还处在起步阶段,下一阶段怎么发展决定于人们对他的研究深度和重视程度。就目前人工智能不断得到重视来看,应该还是很有发展前景的,说不好会成为继计算机时代后的又一个新的时代。

以上观点仅仅是个人观点,我觉得至少在短时间内这个研究方向只会更火不会被冷,就像大数据一样,同样也有人在不断质疑大数据的发展,不过目前发展的还是很好的不是吗?

---------------------------------

2016 机器学习之路:一年从无到有掌握机器学习

译者:闻菲

今天是2016年9月12日AI WORLD 2016世界人工智能大会倒计时 36天启航期5折抢票倒计时 7 天

导读程序员 Per Harald Borgen 在 Medium 刊文,介绍了他在一年的时间里,从入门到掌握机器学习的历程。Borgen 表示,即使没有博士学位和高深的数学造诣也能掌握机器学习。这一点相信对不少人都挺有吸引力和启发。不过,博士学位或许真的并非必须,但要掌握机器学习,学再多的数学也不会嫌多。下面就来看 Borgen 不脱产,从菜鸟变熟手提升业绩的故事。

第一步:Hacker News 和 Udactiy

Borgen 对机器学习的兴趣始于 2014 年。跟很多人一样,他最初是看到 Hacker News 的帖子,单纯觉得教计算机学东西很酷。那时候他还只是个业余的编码爱好者,连程序员都谈不上。

于是,Borgen 开始了他的机器学习之路。首先,到 Uadcity 看监督学习的视频,然后阅读所有能找到的、跟机器学习有关的读物。

Borgen 总结说,“这给了我一点概念上的理解,不过没有实践技巧。”

同时,他也十分坦承,Udacity 的 MOOC 他并没有上完——只要是 MOOC,他几乎都没有坚持上完过。这一点,无论怎么说,至少让篇文章的置信度倍增。

第二步:挂掉 Coursera 机器学习课

2015 年初,Borgen 为了成为正式的开发人员,参加了 Founders and Coders(FAC)在伦敦的训练营。在 FAC,他和同学一起,每周二晚上会看 Coursera 上机器学习课程的视频。

不用说,大名鼎鼎的吴恩达的机器学习课。Borgen 表示课很赞,学了很多,然而他个人觉得这门课不适合新手。至少他自己,就需要反复看视频才能掌握里面讲的概念——当然,这是 Borgen 的个人感受。不过,Borgen 在 FAC 学的同学也一个个掉队,最终他自己也挂掉了。

Borgen 总结说,他当时应该学一门用机器学习库编代码的课,而不是从零开始建算法,至少应该用他已经知道的编程语言写算法。

一句话,“对新手来说,一边学语言一遍写机器学习算法代码难度是很高的”。这句话有一定的参考价值。

Borgen 的建议是,可以选择 Udacity 的《机器学习入门》(Intro to Machine Learning),更容易入门,上来就能实践,在提升经验值的过程中,学习的趣味性也会增多。

经验从简单的实践学起,之后再学困难的、偏理论的东西。

第三步:一周学会机器学习

Borgen 在 FAC 做的最后一件事情,就是“一周学会机器学习”。他的目标是,一周以后能够实用机器学习解决实际问题,而他也成功做到了这一点。

具体的经验 Borgen 写在了另一篇文章里。有兴趣进一步了解,可以访问:

简单说,在一周的时间里,Borgen 做了以下几件事情:

学会了 Scikit Learn

在真实世界数据库跑了一次机器学习

从零(用 Python )写了一个线性回归算法

做了一点儿 NLP

经验腾出一周时间来全身心地沉浸到机器学习里面去,效果惊人。

第四步:挂掉神经网络

成功在一周的时间里拿下机器学习给了 Borgen 自信。因此,在他结束 FAC 回到挪威时,他计划进行第二次挑战——一周内学会神经网络。

然而,事实是残酷的。离开 FAC 那种 沉浸式学习环境后,要一天写 10 小时的代码可不容易。

教训找一个合适的环境做这种事情。

不过,Borgen 到底还是学上了神经网络。去年 7 月份的时候,他写完了一个网络的代码。虽然很粗糙,但完成比完美重要,对吧?

下半年,Borgen 换了一份新工作,这在某种程度上影响了他的机器学习学习进展。这一阶段他主要做的是实现神经网络,他把大学时学的线性代数重新看了一遍。年底时,Borgen 写了篇总结:

《学习如何编写神经网络代码》

也是在这篇文章里,Borgen 记录了他从零开始写代码的过程。这篇文章在 Medium 上点赞的数量接近 600。

第四步:在 Kaggle 竞赛中实践

2015 年圣诞节,Borgen 参加了 Kaggle 竞赛。当然,实践的效果是显著的,他得到了通过算法和数据实际迭代实验的经验,也学会了在做机器学习项目时要相信自己的逻辑,“如果调参或特征工程从逻辑上看有用,那么一般都会有用”。

第五步:在工作中建立学习的习惯

2016 年初,Borgen 想将他在去年年底获得的动力持续到工作中,便询问经理是否能在上班时学新的东西——经理答应了。虽然 Borgen 在文中没有多写,实际上,从这个经历中也能学到东西:

勇于提出需求,它们才有机会得到满足——当然,你的需求需要合理。

于是,Borgen 就在上班时也能学机器学习啦(拿钱做想做的事情!)。在 2016 年积累了相关经验以后,Borgen 的第一站是 Uadcity 的深度学习课程。然而,事实证明,对于现在的他来说,Udacity 的这门课已经太浅。不过,课后的 Ipython Notebook 作业却太难。Debug 浇灭了他的大部分兴趣。又一次地,一门 MOOC 被他放弃。

但随后,Borgen 发现了斯坦福的 CS224D,这门课让他获益匪浅。Borgen 总结斯坦福 CS224D 的好处是:

尽管难,但做题从来没有 debug;

课程提供答案,便于加深理解。

尽管 Borgen 仍然没有把这门课上完,但他推荐有兴趣的人去学。

另外,Borgen 在学这门课的过程中,为了完成题目,请了一位家教,时薪 40 美元,这位家教帮他发现了很多问题。因此,他得到了这么一条经验。

经验花 50 美元/时的金额聘请机器学习家教,绝对值得。(如果你有机器学习经验,你可以获得时薪 50 美元的打工机会。)

学以致用,提高销售额

Borgen 在工作中实践机器学习,他搭建了一个系统,节省了公司销售部门同事的很多时间。相关代码:

以上就是 Borgen 在实际工作中一年掌握机器学习的历程。不管带不带感,至少十分真实。Borgen 在文章末尾写道:“如果我做得到,你也做得到。”

尤其是工作中的程序员,你不想试试吗?

以上就是关于你都用Python 来做什么全部的内容,包括:你都用Python 来做什么、/deep/使用的坑、该不该坚持学习Machine Learning等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10163901.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-05
下一篇 2023-05-05

发表评论

登录后才能评论

评论列表(0条)

保存