Python爬虫 requests教学(五):常见异常处理

Python爬虫 requests教学(五):常见异常处理,第1张

概述网页出现乱码出现乱码的原因是因为网页解码过程中没有设置如何编码response.encoding=response.apparent_encodingPython爬虫、数据分析、网站开发等案例教程视频免费在线观看https://space.bilibili.com/523606542Python学习交流群:1039649593请求头参数InvalidHea 网页出现乱码

出现乱码的原因是因为网页解码过程中没有设置如何编码

response.enCoding = response.apparent_enCoding

Python爬虫、数据分析、网站开发等案例教程视频免费在线观看

https://space.bilibili.com/523606542 
Python学习交流群:1039649593请求头参数

InvalIDheader: InvalID return character or leading space in header: User-Agent

import requestsheaders = {  'User-Agent': ' Mozilla/5.0 (windows NT 10.0; wow64) Applewebkit/537.36(KHTML,like Gecko) Chrome/84.0.4128.3 safari/537.36'}response = requests.get( ' http: //www.shuquge.com/txt/8659/index.htm1 ' ,headers=headers)response.enCoding = response.apparent_enCodingHTML = response.textprint(htm7)

其实很难发现问题在哪,但事实上是因为'Mozilla'之前多了个空格,把空格删去即可

得不到数据&参数错误
import requestsheaders = {  'Host' : 'www.guazi. com ' ,  'User-Agent ': 'Mozi11a/5.0 (windows NT 10.0; wOw64) ApplewebKit/537.36(KHTML,like Gecko) Chrome/84.0.4128.3 safari/537.36',}response = requests.get( ' https: //www.guazi.com/cs/20e17311773b1706x.htm',headers=headers)response.enCoding = response.apparent_enCodingprint(response.text)

请求到的数据与期待的数据不一样,这时候肯定是某些参数出现了问题.就检查是不是缺少了参数或者给错了参数.

目标计算机积极拒绝
import requestsproxy_response = requests.get( 'http://134.175.188.27:5010/get')proxy = proxy_response.Json()print(proxy)

错误

requests.exceptions.ConnectionError: httpconnectionPoo1(host='134.175.188.27',port=5010): Max retrIEs exceeded with url: /get (caused byNewConnectionError( ' <ur1lib3.connection.httpconnection object at Ox0000023AB83AC828>: Failed to establish a new connection: [winError 10061]由于目标计算机积极拒绝,无法连接。',))
被识别了网址输入错误了服务器停止提供服务器了链接超时
import requestsproxy_response = requests.get( ' http://134.175.188.27:5010/get', timeout=0.0001)proxy = proxy_response.Json(print(proxy)

错误

requests.exceptions.connectTimeout: httpconnectionPoo1(host='134.175.188.27'port=5010): Max retrIEs exceeded with ur1: /get (caused byconnectTimeoutError(<ur1lib3.connection.httpconnection object at ox000002045EF9B8DO>,'Connection to 134.175.188.27 timed out.(connecttimeout=O.0001) '))
异常处理
import requeststry :  proxy_response = requests.get( 'http:/ /134.175.188.27:5010/get',timeout=O.0001)  proxy = proxy_response.Json()  print(proxy)except:  pass
总结

以上是内存溢出为你收集整理的Python爬虫 requests教学(五):常见异常处理全部内容,希望文章能够帮你解决Python爬虫 requests教学(五):常见异常处理所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1188320.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存