Python不仅能爬网页还能爬取APP呢!批量爬取抖音视频!最新代码

Python不仅能爬网页还能爬取APP呢!批量爬取抖音视频!最新代码,第1张

概述介绍这次爬的是当下大火的APP--抖音,批量下载一个用户发布的所有视频。各位也应该知道,抖音只有移动端,官网打开除了给你个APP下载二维码啥也没有,所以相比爬PC网站,还是遇到了更多的问题,也花了更多的时间,不

介绍

这次爬的是当下大火的APP--抖音,批量下载一个用户发布的所有视频。各位也应该知道,抖音只有移动端,官网打开除了给你个APP下载二维码啥也没有,所以相比爬PC网站,还是遇到了更多的问题,也花了更多的时间,不过好在基本实现了,除了一点咱在后面说。

进群:548377875    即可获取数十套pdf哦!

谷歌Chrome浏览器有一个模拟手机访问的功能,我们选在iPhone X模式来访问页面,果然看到发布的视频了:

我们接下来看下后台请求,不多,很快就找到我们需要的视频信息了,也能直接打开观看视频,到这感觉已经成功了一大半了:

两个地址除了max_cursor其他都一样,其实就是上一条返回的Json数据中的max_cursor就是下个链接中的max_cursor,然后has_more等于1的时候表示还未全部加载,这样逻辑就清楚了,我们只要先判断has_more是否等于1,等于1的时候我们将max_cursor的值传入下一个链接继续访问获取视频地址,直到has_more等于0为止。

这样所有视频地址都有了,就开始下载吧!!

代码部分

from selenium import webdriver

from bs4 import BeautifulSoup

import Json

import requests

import sys

import time

import os

import uuID

from contextlib import closing

from requests.packages.urllib3.exceptions import InsecureRequestWarning

requests.packages.urllib3.disable_warnings(InsecureRequestWarning)

class douyin_spIDer(object):

"""docstring for douyin_spIDer"""

def __init__(self,user_ID,_signature,dytk):

print '*******DouYin_spIDer******'

print 'Author : Awesome_Tang'

print 'Date : 2018-07-29'

print 'Version: Python2.7'

print '**************************'

print ''

self.userID = user_ID

self.headers = {'User-Agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/65.0.3325.146 Safari/537.36'}

mobile_emulation = {'devicename': 'iPhone X'}

# Chrome浏览器模拟iPhone X进行页面访问

options = webdriver.ChromeOptions()

options.add_experimental_option("mobileEmulation",mobile_emulation)

self.browser = webdriver.Chrome(Chrome_options=options)

self._signature= _signature

self.dytk= dytk

self.url = 'https://www.amemv.com/aweme/v1/aweme/post/?user_ID=%s&count=32&max_cursor=0&aID=1128&_signature=%s&dytk=%s'%(self.userID,self._signature,self.dytk)

def handle_url(self):

url_List = [self.url,]

self.browser.get(self.url)

web_data = self.browser.page_source

soup = BeautifulSoup(web_data,'lxml')

web_data = soup.pre.string

web_data = Json.loads(str(web_data))

if web_data['status_code'] == 0:

while web_data['has_more'] == 1:

# 最大加载32条视频信息,has_more等于1表示还未全部加载完

max_cursor = web_data['max_cursor']

# 获取时间戳

url = 'https://www.amemv.com/aweme/v1/aweme/post/?user_ID=%s&count=32&max_cursor=%s&aID=1128&_signature=%s&dytk=%s'%(self.userID,max_cursor,self.dytk)

url_List.append(url)

self.browser.get(url)

web_data = self.browser.page_source

soup = BeautifulSoup(web_data,'lxml')

web_data = soup.pre.string

web_data = Json.loads(str(web_data))

else:

max_cursor = web_data['max_cursor']

# 获取时间戳

url = 'https://www.amemv.com/aweme/v1/aweme/post/?user_ID=%s&count=32&max_cursor=%s&aID=1128&_signature=%s&dytk=%s'%(self.userID,self.dytk)

url_List.append(url)

else:

url_List = []

return url_List

def get_download_url(self,url_List):

download_url = []

Title_List = []

if len(url_List)> 0:

for url in url_List:

self.browser.get(url)

web_data = self.browser.page_source

soup = BeautifulSoup(web_data,'lxml')

web_data = soup.pre.string

web_data = Json.loads(str(web_data))

if web_data['status_code'] == 0:

for i in range(len(web_data['aweme_List'])):

download_url.append(web_data['aweme_List'][i]['vIDeo']['play_addr']['url_List'][0])

Title_List.append(web_data['aweme_List'][i]['share_info']['share_desc'].encode('utf-8'))

return download_url,Title_List

def vIDeodownloader(self,url,Title):

size = 0

path = Title+'.mp4'

with closing(requests.get(url,headers = self.headers,stream=True,verify=False)) as response:

chunk_size = 1024

content_size = int(response.headers['content-length'])

if response.status_code == 200:

print '%s is downloading...'%Title

sys.stdout.write('[file Size]: %0.2f MB ' % (content_size/chunk_size/1024))

with open(path,'wb') as f:

for data in response.iter_content(chunk_size=chunk_size):

f.write(data)

size += len(data)

f.flush()

sys.stdout.write('[Progress]: %0.2f%%' % float(size/content_size*100) + ' ')

sys.stdout.flush()

else:

print response.status_code

def run(self):

url = 'https://www.amemv.com/aweme/v1/aweme/post/?user_ID=%s&count=32&max_cursor=0&aID=1128&_signature=%s&dytk=%s'%(self.userID,self.dytk)

url_List = self.handle_url()

download_url,Title_List = self.get_download_url(url_List)

for i in range(len(download_url)):

url = download_url[i]

Title = Title_List[i]

self.vIDeodownloader(url,Title)

if __name__ == '__main__':

# 创建对象

# 传入三个参数,user_ID,dytk

douyin_spIDer = douyin_spIDer('95870186531','RFE1JhAbHxD7J8TA9HCumURRNT','539f2c59bb57577983b3818b7a7f32ef')

douyin_spIDer.run()

print '******DouYin_spIDer@Awesome_Tang、******'

总结

以上是内存溢出为你收集整理的Python不仅能爬网页还能爬取APP呢!批量爬取抖音视频!最新代码全部内容,希望文章能够帮你解决Python不仅能爬网页还能爬取APP呢!批量爬取抖音视频!最新代码所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1208830.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)

保存