在现代 Web 开发中,AJAX(Asynchronous JavaScript and XML) 技术被广泛应用于动态加载数据,使得网页能够在不刷新的情况下更新内容。然而,这也给传统爬虫带来了挑战——使用 requests
+ BeautifulSoup
只能获取初始 HTML,而无法捕获 AJAX 返回的动态数据。
解决方案:
requests
直接请求数据(更高效)。本文将详细介绍 Python + Chrome 如何抓取 AJAX 动态数据,并提供两种方法的完整实现代码。
fetch
或 XMLHttpRequest
)。import requests
from bs4 import BeautifulSoup
response = requests.get("https://example.com")
soup = BeautifulSoup(response.text, "html.parser")
# 只能获取初始 HTML,无法得到 AJAX 数据!
安装必要的库
假设目标网站(如新浪新闻)通过 AJAX 加载更多新闻。
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.chrome.options import Options
from webdriver_manager.chrome import ChromeDriverManager
import time
# 设置代理信息
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"
# 配置 Chrome 代理
chrome_options = Options()
chrome_options.add_argument(f"--proxy-server=http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}")
# 启动 Chrome
driver = webdriver.Chrome(service=Service(ChromeDriverManager().install()), options=chrome_options)
driver.get("https://news.sina.com.cn/")
# 等待 AJAX 内容加载(假设新闻列表通过 AJAX 渲染)
try:
WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.CSS_SELECTOR, ".news-item"))
)
except:
print("超时,未找到新闻列表")
# 提取新闻标题和链接
news_items = driver.find_elements(By.CSS_SELECTOR, ".news-item")
for item in news_items:
title = item.find_element(By.CSS_SELECTOR, "a").text
link = item.find_element(By.CSS_SELECTOR, "a").get_attribute("href")
print(f"标题: {title}\n链接: {link}\n")
# 关闭浏览器
driver.quit()
WebDriverWait
:显式等待 AJAX 数据渲染完成。EC.presence_of_element_located
:检查目标元素是否已加载。find_elements
+ CSS/XPath:定位动态生成的内容。json
格式)。豆瓣电影首页通过 AJAX 加载热门电影列表。
https://movie.douban.com
→ F12 → Network → 筛选 XHR。https://movie.douban.com/j/search_subjects?...
import requests
import json
# 豆瓣电影 AJAX API
url = "https://movie.douban.com/j/search_subjects?type=movie&tag=热门&sort=recommend&page_limit=20&page_start=0"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}
response = requests.get(url, headers=headers)
data = response.json() # 直接解析 JSON
# 提取电影信息
for movie in data["subjects"]:
print(f"电影名: {movie['title']}")
print(f"评分: {movie['rate']}")
print(f"链接: {movie['url']}\n")
方法 | 适用场景 | 优点 | 缺点 |
---|---|---|---|
Selenium | 复杂动态渲染页面 | 能模拟完整浏览器行为 | 速度慢,资源占用高 |
直接请求 API | 结构化数据(如 JSON) | 高效,速度快 | 需手动分析接口,可能受限 |
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。