今天呢是我们爬虫基础打卡的第二天。那么今天所学到的东西,总结起来分三块。环境与工具的基础学习、request的get请求、request的post请求。
环境与工具的基础学习首先是关于环境与基础工具的学习,没问题的部分就不写出来了,重点来写我遇到的问题及解决方案:
在打开jupyter创建文件时,出现以下状况:
这里我们给出如下解决方案:
在命令行中加上服务器地址:jupyter notebook --ip=x.x.x.x(写上自己的ip)
那么问题又来了,有的小白可能跟我一样不知道怎么查看ip,解决方法如下:
还有一个问题,就是我们在jupyter中检查requets的安装是否成功时,注意指令之间不该有的空格千万不能有,别问我怎么知道的
尝试好多解决方案后才发现我复制的时候指令多了一个空格。
那首先我就用get请求返回了图虫网站的源码
import requests r = requests.get('https://tuchong.com/') print(r.text)
至于下面的一些简单的参数添加我就先不一一展示了,毕竟这还很简单,不过我不太明白哪些参数如params的实质性作用究竟是什么,这还有待深入的学习和探讨。
简单的 *** 作就是这些,我认为get和post最基本的作用和语法我都能掌握,唯一不理解的就是表头以及参数这些东西,使用他们的目的究竟在哪里,我还需要进一步学习。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)