腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法
使用
lxml
抓取
表
、
、
、
我正在尝试从这个网站
抓取
个人球员的网址。 我已经尝试过
使用
bs4执行此操作,但每次我尝试查找该
表
时,它都会返回[]。切换到
lxml
来尝试一下。import urlopen from urllib.requests url = "https://www.espn.com/soccer/team
浏览 26
提问于2019-08-30
得票数 0
1
回答
安装
lxml
包Python
、
、
我
无法
安装用于python
抓取
的
lxml
包。我安装了所需的库C 。尝试
使用
python 2.7、2.7、3.4。dowsnt work仍然
无法
安装我的
lxml
包。
浏览 1
提问于2015-12-13
得票数 0
1
回答
用python
抓取
表
、
、
、
试图从开放访问的学术文章中
抓取
表格,出于某些原因,我
无法
从本文中
抓取
这些
表
,这就是我所做的,但由此产生的ResultSet“
表
”是一个空列表。谢谢你的帮助。article/pii/S0378874116301696" soup = BeautifulSoup(content, "
lxml
浏览 4
提问于2017-08-26
得票数 0
1
回答
我应该如何从一个有“最小化”部分的页面中
抓取
数据?
、
、
、
、
我是BeautifulSoup的新手,我正在尝试从一个页面中
抓取
数据,这个页面有一个可以被浏览页面的人最小化的部分。当我查看页面的HTML代码时,我发现如下所示。webOpen = urllib2.urlopen(webpage).read() webSoup = BeautifulSoup(webOpen, "
lxml
webSoup.
浏览 8
提问于2017-08-30
得票数 0
1
回答
无法
使用
python
lxml
抓取
包含多个
表
的web
、
import
lxml
import requestsimport pandas as pd df = tree.xpath('//tr') #df = pd.read_html(
lxml
.etree.tostringrequests.
浏览 16
提问于2019-04-14
得票数 0
3
回答
web解析内容的
lxml
长度
、
、
我用Python语言中的
lxml
抓取
网页。然而,为了获得
表
行的数量,我首先获得所有行,然后
使用
len()函数。我觉得这太浪费了,有没有其他方法来获取他们的数字(动态1),以便进一步
抓取
?import
lxml
.htmltry:except SkipException: pass if doc:
浏览 3
提问于2012-09-22
得票数 0
回答已采纳
1
回答
如何
使用
pandas将我的python web
抓取
数据导出到现有excel文件中的特定工作
表
?
、
、
、
、
我有一个包含多张工作
表
的Excel文件。我想
使用
pandas将Python中的新数据添加到同一Excel文件中的新工作
表
中。有没有可能做到这一点而不影响我之前的数据?我是新来的。谢谢你的帮助!下面是我目前
使用
的Python代码:from
lxml
import htmlimport pandas as pd df =
浏览 49
提问于2018-08-19
得票数 0
回答已采纳
1
回答
下载HTML时未出现URL如何刮除?Javascript在这里可能是个问题
、
、
、
、
但是它们中的一些不在HTML上,
无法
使用
请求和
lxml
进行
抓取
。我不想
使用
selenium/bs4 4/美观so,因为代码将在Heroku服务器上运行,因此会使一切变得更加困难。我想要
抓取
的URL是在div之后
使用
以下两个类:容器和false。这是强制性的。在div上没有类"false“的其他URL可以很容易地
抓取
。import
lxml
浏览 4
提问于2022-03-11
得票数 1
回答已采纳
2
回答
使用
python
抓取
动态javascript内容网页
、
、
、
、
我正在尝试
使用
Python
抓取
这个网站:'‘。但是,requests + BS4只给了我HTML格式的页面源代码。我假设这是因为内容是动态的。因此,我尝试了Selenium + BS4来
抓取
网站,但我仍然只能
抓取
页面源代码。from selenium.webdriver import Firefoximport
lxml
driver = Firefox()
浏览 4
提问于2020-02-02
得票数 0
1
回答
从雅虎财经
抓取
python中的数据
、
我可以
抓取
表格格式,但不能
抓取
非表格格式。我将同样的原则应用于在同一页中
抓取
信息,但没有结果。p=AAPL中
抓取
import numpy as npimport
lxml
table = tree.xpath('//table
浏览 4
提问于2019-11-19
得票数 0
回答已采纳
1
回答
Python
表
在
使用
id刮取时不返回任何
、
、
我想从下面的url 中
抓取
每日观察
表
from bs4 import BeautifulSoupimport
lxml
content = requests.get(url).content soup = Be
浏览 0
提问于2018-12-08
得票数 0
回答已采纳
1
回答
从一个站点返回的数据,而不是从另一个站点返回的数据
、
、
、
它从站点上的一个
表
中获取某些元素。我从Firebug
抓取
的xpath是: <a href由于新帐户上的链接限制,
无法
发布它们。标题: Python -
无法
使用
Beautiful或
lxml
xpath从
浏览 1
提问于2017-04-21
得票数 1
回答已采纳
1
回答
如何解决在python中
使用
Lxml
的问题?
、
、
、
、
我正在尝试开发一个
使用
python的web
抓取
应用程序。但是,当我要在数据帧上构建结构或内容时(在Pandas的情况下),出现以下错误: "ImportError:找不到
lxml
,请安装它“ 通过PyCharm,我
无法
将
Lxml
添加到项目解释器中。当尝试通过"pip install
lxml
“安装它时,在命令提示符中显示: “已满足要求: c:\xxx\site-packages (4.5.0)中的
lxml
” 我用的是Windows10,你知道会发生
浏览 12
提问于2020-04-08
得票数 0
2
回答
将html表格转换为CSV格式
、
、
、
、
我刚开始
抓取
,我不知道如何从某个网站获取我需要的数据。下面是我的代码:import requestsimport pandas as pd soup = BeautifulSoup(website_url,'
lxml
')table_rowsfor i in td]
浏览 1
提问于2020-04-21
得票数 0
2
回答
无法
使用
Python BeautifulSoup找到
表
、
、
我试图从以下NOAA站点的
表
id=AWS中
抓取
数据,但当我尝试
使用
'.find‘查找该
表
时,结果为none。我可以返回父div,但似乎
无法
访问
表
。下面是我的代码。soup set upsoup = BeautifulSoup(html, '
lxml
浏览 17
提问于2017-07-13
得票数 0
回答已采纳
2
回答
使用
requests和BeautifulSoup的页面上找不到元素
、
、
、
我正在试着
抓取
我最喜欢的大学橄榄球队的网站。网页上有两个我想要
抓取
的表格,我写的代码很容易
抓取
第一个表格。我可以将其放入pandas数据帧中,然后再放入Excel。由于某种原因,我不能弄清楚我
无法
从站点中
抓取
第二个
表
(防御
表
)。我尝试了许多不同的方法来
抓取
第二个
表
。我尝试只查找所有
表
,它可以找到第一个
表
,但找不到第二个
表
。我已经尝试
使用
表
中列出的
浏览 25
提问于2019-01-30
得票数 1
回答已采纳
2
回答
如何从该网站拉取表格数据?
、
、
使用
下面的代码,我不能从游戏中心的pregame.com中拉取大学足球比赛。 我尝试过
使用
不同元素的多个类I,甚至尝试
使用
pandas拉取,但
无法
获得整个
表
。有没有其他方法可以成功地
抓取
它?from bs4 import BeautifulSoupimport requests header = {'User-Agent: Mozilla/5.0 (Windowsl=2&a=0&s=AwayRot&
浏览 56
提问于2021-11-03
得票数 0
回答已采纳
1
回答
在没有BeautifulSoup的Python语言中将HTML表解析为列表
、
、
我想知道是否有一种方法可以从HTML
表
中提取数据,并仅
使用
HTMLParser将其解析到字典中。由于某种原因,我不能做这件事..
浏览 1
提问于2012-03-04
得票数 0
1
回答
在Python scraper中
使用
etree时出现的问题
、
、
我是Python的新手,希望在Scraperwiki中构建一个屏幕
抓取
器,但我正在与一个我
无法
解决的错误作斗争。下面是
抓取
器:import
lxml
.htmlfrom urlparse import urlparse root =
浏览 2
提问于2012-07-24
得票数 0
回答已采纳
2
回答
如何在
使用
python向下滚动时刮掉提供更多信息的html页面
、
、
我正在从上
抓取
课文。但是我不能
抓取
页面中位于“总计”
表
下面的内容。我想从“总计”和“高级”
表
中得到数字,但是代码没有返回任何内容。当用户向下滚动页面时,该页面似乎会加载其他信息。我运行了下面的代码,并成功地从玩家的个人资料部分和“每个游戏”
表
中获得数据。但
无法
从“总计”
表
中获得值。from
lxml
import htmlplayerURL=urllib.urlopen("https://ww
浏览 2
提问于2019-07-27
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用lxml模块 获取标签内所有文本
使用Python进行网页抓取的介绍
Adobe正在使用AI来抓取Photoshop图像
Oopz无法下载,无法使用怎么处理
使用代理IP抓取数据需要注意什么?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券