爬虫基础打卡第二天

爬虫基础打卡第二天,第1张

爬虫基础打卡第二天

今天呢是我们爬虫基础打卡的第二天。那么今天所学到的东西,总结起来分三块。环境与工具的基础学习、request的get请求、request的post请求。

环境与工具的基础学习

首先是关于环境与基础工具的学习,没问题的部分就不写出来了,重点来写我遇到的问题及解决方案:
在打开jupyter创建文件时,出现以下状况:



这里我们给出如下解决方案:
在命令行中加上服务器地址:jupyter notebook --ip=x.x.x.x(写上自己的ip)
那么问题又来了,有的小白可能跟我一样不知道怎么查看ip,解决方法如下:

还有一个问题,就是我们在jupyter中检查requets的安装是否成功时,注意指令之间不该有的空格千万不能有,别问我怎么知道的


尝试好多解决方案后才发现我复制的时候指令多了一个空格。

requests的get请求

那首先我就用get请求返回了图虫网站的源码

import requests 
r = requests.get('https://tuchong.com/') 
print(r.text)


至于下面的一些简单的参数添加我就先不一一展示了,毕竟这还很简单,不过我不太明白哪些参数如params的实质性作用究竟是什么,这还有待深入的学习和探讨。

requests的post请求

总结

简单的 *** 作就是这些,我认为get和post最基本的作用和语法我都能掌握,唯一不理解的就是表头以及参数这些东西,使用他们的目的究竟在哪里,我还需要进一步学习。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5479815.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-12
下一篇 2022-12-12

发表评论

登录后才能评论

评论列表(0条)

保存