怎么利用爬虫技术抓取淘宝搜索页面的产品信息

怎么利用爬虫技术抓取淘宝搜索页面的产品信息,第1张

可以通过requests库re库进行淘宝商品爬虫爬取

import requests

import re

def getHTMLText(url):

try:

r= requests.get(url,timeout=30)

r.raise_for_status()

r.encoding = r.apparent_encoding

return r.text

except:

return ""

def parsePage(ilt,html):

try:

plt = re.findall(r'\"view_price\":\"[\d+\.]*\"',html)

tlt = re.findall(r'\"raw_title\"\:\".*?\"',html)

for i in range(len(plt)):

price = eval(plt[i].split(':')[1])

title = eval(tlt[i].split(':')[1])

ilt.append([price,title])

except:

print("F")

def printGoodsList(ilt):

tplt = "{:4}\t{:8}\t{:16}"

print(tplt.format("序号","价格","商品名称"))

count = 0

for g in ilt:

count = count +1

print(tplt.format(count,g[0],g[1]))

def main():

goods = '书包'

depth = 2

start_url = "https://s.taobao.com/search?q="+ goods

infoList = []

for i in range(depth):

try:

url = start_url +'&s='+str(44*i)

html = getHTMLText(url)

parsePage(infoList,html)

except:

continue

printGoodsList(infoList)

main()

这段代码在过去是可以爬取淘宝商品信息,但是因为淘宝的反扒技术升级,便不能让你大摇大摆地进出自如了。

此外也可以借助采集实现采集

Appium选择了Client/Server的设计模式,Server可以在OSX、Windows以及Linux系统上运行,Client支持Ruby、Python、Java、PHP、C#、JavaScript等语言的实现。

教程以MacBook Pro通过Python程序控制Android系统的淘宝App为例,因为Appium依赖Android SDK,Android SDK需要Java环境,所以所需环境如下:

pc端和移动端的连接有两种方式USB连接和无线连接

更多命令:官方教程

程序第一次运行的时候,会在手机安装3个app,一定要同意安装,只有Appium Settings在桌面有图标

Android SDK官方教程

Appium官方教程

Appium新手入门

在软件首页上打开八爪鱼采集器软件,并来到软件首页上。

1、在页面上的输入框中复制粘贴上淘宝链接并按下开始采集按钮。

2、页面发生跳转,在d出来的窗口中显示着正在识别网页数据字样。

3、等待几秒钟后用户就可以在下方看到数据列表,用户还可以点击查看更多选项来获得数据详细信息。

4、软件就会进入到采集状态,需要等待几秒钟。

5、采集完成后会显示出提示窗口,按下其中的确定按钮。

6、随后在新窗口中选择好保存的格式类型并按下导出按钮即可。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/10712906.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存