cookie怎么获取

cookie怎么获取,第1张

Cookie可以用火狐浏览器、谷歌浏览器,也可以用一些软件的内置模块等获取。具体 *** 作步骤如下:

1、用浏览器打开网页,有写站需要获取登录后的COOKIE的话就登录一下。

2、用鼠标在页面右键,选择“检查”来调用出COOKIE获取界面;在网页右键点选“检查”,或者快捷键Ctrl+Shift+I,或者直接按F12打开“检查”页面。

3、在检查页面选择“Network”(网络)标签,打开过滤器。

4、过滤器是开启状态的时候,下面会多出一行审查元素,之后刷新页面,快捷键F5可以直接刷新。

5、往下拉可以找到“Cookie”字样的字段。Cookie冒号后边的一整段即是Cookie了。可以鼠标拖拽选择进行复制。

Cookie注意事项:

Cookie是登陆账号的重要信息,不能随意发给别人,否则泄漏后你就成了别人的资料仓库保管员了。当然,万一泄露也不要紧,及时将账号的密码进行修改即可,这样泄露的cookie也会失效的。

百度网盘账号的cookie是长期有效的,但是前提条件是不能通过浏览器直接点击退出账号,否则这个获取到的cookie信息就不能再次使用了。需要通过浏览器直接提供的工具,清理cookie信息来退出当前账号。

搜狗浏览器的工具栏中有个清理历史记录,清除cookie的可以。Chrome浏览器中点击小锁后会出现cookie信息,删除即可。

scrapyFormRequest

loginpy

class LoginSpider(scrapySpider):

name = 'login_spider'

start_urls = ['hincom'] def parse(self, response):

return [

scrapyFormRequestfrom_response(

response, # username和password要根据实际页面的表单的name字段进行修改

formdata={'username': 'your_username', 'password': 'your_password'},

callback=selfafter_login)] def after_login(self, response):

# 登录后的代码

pass123456789101112131415

selenium登录获取cookie

get_cookie_by_seleniumpy

import pickleimport timefrom selenium import webdriverdef get_cookies():

url = 'httestcom'

web_driver = webdriverChrome()

web_driverget(url)

username = web_driverfind_element_by_id('login-email')

usernamesend_keys('username')

password = web_driverfind_element_by_id('login-password')

passwordsend_keys('password')

login_button = web_driverfind_element_by_id('login-submit')

login_buttonclick()

timesleep(3)

cookies = web_driverget_cookies()

web_driverclose() return cookiesif __name__ == '__main__':

cookies = get_cookies()

pickledump(cookies, open('cookiespkl', 'wb'))12345678910111213141516171819202122232425

获取浏览器cookie(以Ubuntu的Firefox为例)

get_cookie_by_firefoxpy

import sqlite3import pickledef get_cookie_by_firefox():

cookie_path = '/home/name/mozilla/firefox/bqtvfe08default/cookiessqlite'

with sqlite3connect(cookie_path) as conn:

sql = 'select name,value from moz_cookies where baseDomain="testcom"'

cur = conncursor()

cookies = [{'name': name, 'value': value} for name, value in curexecute(sql)fetchall()] return cookiesif __name__ == '__main__':

cookies = get_cookie_from_firefox()

pickledump(cookies, open('cookiespkl', 'wb'))12345678910111213141516

scrapy使用获取后的cookie

cookies = pickleload(open('cookiespkl', 'rb'))yield scrapyRequest(url, cookies=cookies, callback=selfparse)12

requests使用获取后的cookie

cookies = pickleload(open('cookiespkl', 'rb'))

s = requestsSession()for cookie in cookies:

scookiesset(cookie['name'], cookie['value'])1234

selenium使用获取后的cookie

from selenium import webdriver

cookies = pickleload(open('cookiespkl', 'rb'))

w = webdriverChrome()# 直接添加cookie会报错,下面是一种解决方案,可能有更好的# -- start --wget('hwwtestcom')

wdelete_all_cookies()# -- end --for cookie in cookies:

wadd_cookie(cookie)

ck = cookielibMozillaCookieJar() ckload('#cookpath') opener = urllib2build_opener(urllib2>

以上就是关于cookie怎么获取全部的内容,包括:cookie怎么获取、怎么用python爬需要登录的网站数据、python里有没有简单方法读ie的cookie信息等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/9596349.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-30
下一篇 2023-04-30

发表评论

登录后才能评论

评论列表(0条)

保存