操作系统:windows 10
Python版本 :3.6
爬取网页模块:requests
分析网页工具:BeautifulSoup4,fiddler4
requests是一个第三方库,可以用来模拟浏览器请求,如get,post
它也有Session功能,可以保持会话信息,如cookie等,这个可以让我们用来进行登陆后的操作
具体请参加官网:
http://docs.python-requests.org/en/master/
fiddler4 是一个网页分析的工具,和自带的开发者工具一样,不过其功能更为强大
我们可以通过官网免费下载并使用
官方网址
https://www.telerik.com/download/fiddler
详细教程查看如下网站
http://docs.telerik.com/fiddler/configure-fiddler/tasks/configurefiddler
lxml为解析网页所必需
pip3 install requests
pip3 install BeautifulSoup4
pip3 install lxml
请保持fiddle4 全程开启状态
也可以直接使用快捷键Ctrl+F,我们这里查找用户名bsbforever
注意这里需要勾选decode compressed content
之后可以看到界面左边连接黄色高亮
接下来我们双击该页面从右侧的WebForms查看POST参数
也可以查看raw标签
从上面我们可以看出提交的信息有:
其他都很好知道其含义,只有第一个我们不确定其含义
我们接下来重复登陆操作,可以看到每次csrf值是不一样的
这时我们需要找到该值是如何产生的
这里我们仍然使用搜索功能,我们搜索csrf的值
这时我们可以看到左侧有2处标黄,我们查看另外个页面的响应
可以看到该csrf值存在于为登陆前的页面中
这时我们可以提取该值
接下来我们构造header和post data 使用requests.post进行登陆
这时使用Session方法保持绘画信息
这里根据抓取到的页面进行POST请求
··· import requests
from bs4 import BeautifulSoup
···
后续都使用s变量进行请求
··· s=requests.Session() ···
··· content=s.get('http://home.51cto.com/home').content
soup = BeautifulSoup(content,"lxml")
token=soup.find('meta',attrs = {'name' : 'csrf-token'})['content'] ···
header={
'Connection': 'keep-alive',
'Host': 'home.51cto.com',
'Origin': 'http://home.51cto.com',
'Referer':'http://home.51cto.com/index',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36'
}
data={
'_csrf':token,
'LoginForm[username]':'username',
'LoginForm[password]': 'password',
'LoginForm[rememberMe]': '0',
'login-button': '登 录'
}
··· s.post(url=login_url,headers=header,data=data) ···
result=s.get('http://home.51cto.com/home').text
if 'bsbforever' in result:
print ('恭喜,登陆51cto成功,领取下载豆中..')
download=s.post('http://down.51cto.com/download.php?do=getfreecredits&t=0.8367867217711695').text
源码请访问我的github主页
https://github.com/bsbforever/spider/blob/master/login_web.py