在现代Web开发和数据抓取中,批量访问URL并解析响应内容是一个常见的需求。本文将详细介绍如何使用Python实现以下功能:
我们将从基础的工具方法开始,逐步扩展到批量处理URL的场景,并最终实现一个完整的工具脚本。
假设我们有一个包含多个URL的文件(urls.txt),每个URL返回的响应是一个XML格式的数据,如下所示:
<HashMap>
<code>000000</code>
<data>叶先生|18004565345</data>
<message>成功</message>
</HashMap>我们的目标是:
urls.txt文件中的每个URL。code、data和message字段。首先,我们实现一个工具方法fetch_and_parse_xml,用于访问单个URL并解析其XML响应。
import requests
import xml.etree.ElementTree as ET
import webbrowser
def fetch_and_parse_xml(url, headers=None, output_file="response.xml"):
"""
工具方法:传入一个URL,打开默认浏览器访问,解析XML响应并保存到文件。
:param url: 要访问的URL
:param headers: 请求头(可选)
:param output_file: 保存解析结果的XML文件路径
:return: 解析后的XML内容(字典形式)
"""
# 默认请求头
default_headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36',
'HOST': 'car.autohome.com.cn'
}
# 如果传入自定义请求头,则合并
if headers:
default_headers.update(headers)
try:
# 发送HTTP GET请求
resp = requests.get(url, headers=default_headers)
resp.raise_for_status() # 检查请求是否成功
# 调用默认浏览器打开URL
webbrowser.open(url)
# 解析XML响应
root = ET.fromstring(resp.text)
parsed_data = {
"code": root.find("code").text,
"data": root.find("data").text,
"message": root.find("message").text
}
# 将解析后的内容保存到文件
with open(output_file, "w", encoding="utf-8") as file:
file.write(resp.text) # 保存原始XML响应
print(f"响应已保存到文件:{output_file}")
# 返回解析后的内容
return parsed_data
except requests.exceptions.RequestException as e:
print(f"请求URL时出错:{e}")
return None
except ET.ParseError as e:
print(f"解析XML响应时出错:{e}")
return Nonerequests.get发送HTTP GET请求。webbrowser.open打开默认浏览器访问URL。xml.etree.ElementTree解析XML响应。code、data和message字段。以下是如何调用fetch_and_parse_xml方法的示例:
if __name__ == "__main__":
url = "http://travel.yundasys.com:31432/interface/orderPhone?txm=320323134183104&type=1"
response_data = fetch_and_parse_xml(url, output_file="response.xml")
if response_data:
print("解析后的XML内容:")
print(f"Code: {response_data['code']}")
print(f"Data: {response_data['data']}")
print(f"Message: {response_data['message']}")假设URL返回的XML响应如下:
<HashMap>
<code>000000</code>
<data>叶先生|180****5345</data>
<message>成功</message>
</HashMap>控制台输出:
解析后的XML内容:
Code: 000000
Data: 叶先生|180****5345
Message: 成功
响应已保存到文件:response.xml文件内容(response.xml):
<HashMap>
<code>000000</code>
<data>叶先生|180****5345</data>
<message>成功</message>
</HashMap>接下来,我们扩展工具方法,支持批量处理URL文件(urls.txt)。
以下是批量处理URL的完整脚本:
import requests
import xml.etree.ElementTree as ET
import webbrowser
def fetch_and_parse_xml(url, headers=None, output_file="response.xml"):
"""
工具方法:传入一个URL,打开默认浏览器访问,解析XML响应并保存到文件。
:param url: 要访问的URL
:param headers: 请求头(可选)
:param output_file: 保存解析结果的XML文件路径
:return: 解析后的XML内容(字典形式)
"""
# 默认请求头
default_headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36',
'HOST': 'car.autohome.com.cn'
}
# 如果传入自定义请求头,则合并
if headers:
default_headers.update(headers)
try:
# 发送HTTP GET请求
resp = requests.get(url, headers=default_headers)
resp.raise_for_status() # 检查请求是否成功
# 调用默认浏览器打开URL
webbrowser.open(url)
# 解析XML响应
root = ET.fromstring(resp.text)
parsed_data = {
"code": root.find("code").text,
"data": root.find("data").text,
"message": root.find("message").text
}
# 将解析后的内容保存到文件
with open(output_file, "w", encoding="utf-8") as file:
file.write(resp.text) # 保存原始XML响应
print(f"响应已保存到文件:{output_file}")
# 返回解析后的内容
return parsed_data
except requests.exceptions.RequestException as e:
print(f"请求URL时出错:{e}")
return None
except ET.ParseError as e:
print(f"解析XML响应时出错:{e}")
return None
def batch_process_urls(url_file, headers=None):
"""
批量处理URL文件中的每个URL。
:param url_file: 包含URL的文件路径
:param headers: 请求头(可选)
"""
try:
with open(url_file, "r", encoding="utf-8") as file:
urls = file.readlines()
except FileNotFoundError:
print(f"文件 {url_file} 不存在!")
return
for i, url in enumerate(urls):
url = url.strip() # 去除换行符和空格
if not url:
continue
print(f"正在处理第 {i + 1} 个URL:{url}")
output_file = f"response_{i + 1}.xml"
response_data = fetch_and_parse_xml(url, headers=headers, output_file=output_file)
if response_data:
print(f"解析后的XML内容:")
print(f"Code: {response_data['code']}")
print(f"Data: {response_data['data']}")
print(f"Message: {response_data['message']}")
print("-" * 40)
# 示例调用
if __name__ == "__main__":
url_file = "urls.txt"
batch_process_urls(url_file)假设urls.txt文件内容如下:
http://travel.yundasys.com:31432/interface/orderPhone?txm=320323134183104&type=1
http://travel.yundasys.com:31432/interface/orderPhone?txm=320323115958004&type=1控制台输出:
正在处理第 1 个URL:http://travel.yundasys.com:31432/interface/orderPhone?txm=320323134183104&type=1
响应已保存到文件:response_1.xml
解析后的XML内容:
Code: 000000
Data: 叶先生|180****5345
Message: 成功
----------------------------------------
正在处理第 2 个URL:http://travel.yundasys.com:31432/interface/orderPhone?txm=320323115958004&type=1
响应已保存到文件:response_2.xml
解析后的XML内容:
Code: 000000
Data: 李先生|138****1234
Message: 成功
----------------------------------------本文详细介绍了如何使用Python实现批量访问URL并解析XML响应的功能。通过工具方法fetch_and_parse_xml,我们可以轻松地访问单个URL并解析其响应内容。通过扩展脚本,我们还实现了批量处理URL文件的功能。
requests库发送HTTP GET请求。webbrowser.open打开默认浏览器访问URL。xml.etree.ElementTree解析XML响应。aiohttp库实现并发请求。希望本文对你有所帮助!如果有任何问题或建议,欢迎留言讨论。