在自动化信息提取程序的设计中,页面数据的呈现方式将直接影响所选的处理策略。不同类型的站点,其前端结构、加载机制与接口设计都存在显著差异。本文将梳理出三种主流页面结构模式,并结合代码实例进行比对分析,帮助技术开发者快速定位合适的实现路径。
将常见站点划分为以下三种结构类型,并对应推荐的处理策略:
页面结构类型 | 特征描述 | 推荐处理方式 |
---|---|---|
类型一:静态页面 | 数据直接嵌入HTML源码中,可直接访问 | 使用 |
类型二:动态页面(需运行脚本) | 页面内容依赖JavaScript渲染生成 | 使用自动化浏览器环境,如 |
类型三:接口式页面 | 通过API(如GraphQL)进行数据传输 | 直接发起接口请求并处理返回结构 |
网站结构解析策略图谱
|
├── 静态型页面
│ └── requests + BeautifulSoup 方式
│
├── 动态型页面
│ └── Playwright 自动化方式(支持模拟交互)
│
└── 接口驱动型页面
└── requests + JSON 格式数据提取
以下配置基于亿牛云信息代理服务,确保请求行为具备一定匿名性与稳定性。
import random
from curl_cffi import requests
from bs4 import BeautifulSoup
# 亿牛云代理参数(参考示例)
proxy_host = "proxy.16yun.cn"
proxy_port = "3111"
proxy_user = "16YUN"
proxy_pass = "16IP"
# 构建代理配置
proxies = {
"http": f"http://{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}",
"https": f"http://{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}",
}
# 浏览器身份标识(部分网站要求真实UA)
user_agents = [
"Mozilla/5.0 (Windows NT 10.0; Win64; x64)...",
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7)...",
]
headers = {
"User-Agent": random.choice(user_agents)
}
url = "https://example.com/static-page"
# 发送请求
resp = requests.get(url, headers=headers, proxies=proxies)
soup = BeautifulSoup(resp.text, "html.parser")
# 提取标题和段落信息
title = soup.find("h1").text
paragraphs = [p.text for p in soup.find_all("p")]
print(f"页面标题: {title}")
print("主要内容段落:", paragraphs)
from playwright.sync_api import sync_playwright
with sync_playwright() as p:
browser = p.chromium.launch(headless=True, proxy={
"server": f"http://{proxy_host}:{proxy_port}",
"username": proxy_user,
"password": proxy_pass
})
page = browser.new_page()
page.set_extra_http_headers(headers)
page.goto("https://example.com/dynamic-content")
page.wait_for_timeout(3000) # 等待前端逻辑渲染完成
content = page.locator("div.comment").all_inner_texts()
print("页面中提取的评论:", content)
browser.close()
graphql_url = "https://www.expedia.com/graphql"
query_body = {
"query": "query{ hotelOffers(city:\"Tokyo\"){ name price rating } }"
}
# 发起接口请求
resp = requests.post(
graphql_url,
headers={**headers, "Content-Type": "application/json"},
json=query_body,
proxies=proxies
)
data = resp.json()
offers = data["data"]["hotelOffers"]
for offer in offers:
print(f"酒店名称: {offer['name']}, 价格: {offer['price']}, 评分: {offer['rating']}")
场景判断依据 | 推荐方式 | 实用提示 |
---|---|---|
页面源代码中能看到关键数据 | HTML解析方式 | 快速稳定,适合初学者 |
页面数据由JS生成或依赖异步加载 | 自动化环境工具 | 可应对结构复杂或需登录的页面 |
网络请求中出现JSON接口 | 直接抓接口 | 最为高效,建议使用浏览器开发者工具辅助分析 |
通过结构化分类和实际比对,你将能快速建立起一套适用于不同页面结构的应对方案,有助于项目初期的架构设计与效率提升。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。