腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
试图
在
selenium
和
漂亮
汤
中
获取
空
列表
中
的
url
、
_internal.distributions from
selenium
import expected_conditions as EC from
selenium
.webdriver.support.ui importprint(alert_name)
浏览 13
提问于2020-11-02
得票数 1
2
回答
无法使用
Selenium
检索表主体内容
、
、
、
、
试图
通过
在
注册编号
中
添加值来
获取
表id = mytable
中
的
body内容。但没能得到。from
selenium
import webdriver from
selenium
.webdriver import ActionChains
url
="h
浏览 1
提问于2019-09-11
得票数 0
回答已采纳
1
回答
我
在
jupyter笔记本上安装了BeautifulSoup4。尝试使用"from bs4 import BeautifulSoup“时出现错误
、
、
、
from
selenium
.webdriver import Chrome from
selenium
.webdriver.chrome.options import Options` import pandas aspd to ‘您
试图
在
Python2下使用Python3特定版本
的
美丽
汤</e
浏览 7
提问于2022-09-24
得票数 0
2
回答
使用
Selenium
(Python)提交web表单后复制结果
、
、
我
试图
使用
Selenium
来(1)在网站上提交一个查询,然后(2)使用
漂亮
的
汤
复制结果
的
内容。这是我第一部分
的
剧本..。from
selenium
import webdriver browser = webdriver.Chrome('C:\Users\XXX\Scripts\MyPythonScripts\chromedriver.exeelem = browser.find_element_by_name('search
浏览 3
提问于2015-10-27
得票数 3
回答已采纳
1
回答
请求HTML不能获得完整
的
HTML
、
、
我有以下代码 soup=BeautifulSoup_='shelfProductTile-cupPrice ng-star-inserted')来自网址: 我已经尝试了lxml
和
html.parser,并且没有为请求HTML
中
的
上述变量
获取
类。我也尝试过按照使用
浏览 10
提问于2022-06-09
得票数 1
1
回答
无法通过网址识别BeautifulSoup
中
的
网页
、
、
我正在使用Python
和
Selenium
尝试从某个搜索页面的结果页面
中
抓取所有链接。无论我在上一个屏幕上搜索什么,结果页面上任何搜索
的
网址都是:"“--如果我使用
Selenium
进行自动搜索,然后尝试将这个
URL
读取到BeautifulSoup
中
,我将得到HTTPError: HTTP这是我
的
代码:from
selenium
.webdriver
浏览 2
提问于2017-01-09
得票数 1
回答已采纳
2
回答
从多个链接抓取文本数据,并将爬行数据存储
在
csv文件
中
。
、
、
、
、
到目前为止我所做
的
:from
selenium
.webdriver.common.keys import Keyscursor.execute("select TOP (10)
Url
from TABLE_NAME ORDER BY ID)result_
浏览 3
提问于2020-03-04
得票数 0
1
回答
如何从一个下拉菜单中提取数据使用python
漂亮
的
汤
、
、
、
我
试图
从一个网站上抓取数据,这个网站有一个多级下拉菜单,每次选择一个项目时,它都会改变子下拉菜单
的
子项目。问题是,对于每个循环,它从下拉项中提取相同
的
子项。选择发生了,但它没有更新项目代表新
的
选择从循环谁能帮助我为什么我没有得到想要
的
结果。也许这是因为我
的
下拉
列表
是java Script之类
的
。例如,下图中
的
manue: enter code here from
selenium
impor
浏览 179
提问于2019-05-27
得票数 4
回答已采纳
1
回答
双击巨蟒
汤
中
的
元素
、
、
、
我无法
在
漂亮
汤
中使用xpath
获取
文本,但
selenium
可以使用doubleclick命令获得文本。我怎么才能用
漂亮
的
汤
得到元素呢?lxml import etree#Function to Find the element from the Xpath # Gets the req
浏览 1
提问于2022-06-01
得票数 -1
回答已采纳
2
回答
soup类选择器返回一个
空
列表
。
、
我
试图
从google搜索页面
中
检索链接
列表
,但是
漂亮
的
汤
选择器返回一个
空
列表
。我使用requests
获取
页面代码,并使用bs4 BeautifulSoup解析检索到
的
响应,然后使用soup.select方法
获取
某个类。最后我得到了一个
空
的
列表
import requests from bs4 im
浏览 0
提问于2019-07-20
得票数 1
回答已采纳
1
回答
从桌子上
获取
数据
的
漂亮
汤
、
我最近要求帮助使用
漂亮
的
汤
从一个网站
获取
外汇价格。数据被隐藏在跨度
中
。我很幸运地得到了两个人
的
帮助,他们都很棒,并帮助我度过难关。我已经找到了一个不同
的
网站,我想要从,这一次没有跨度
的
文本是
在
tr
和
td从表。 我想抓取整个表,这样我就可以根据需要使用数据来进行不同
的
计算。 当我<em
浏览 1
提问于2022-12-04
得票数 -1
回答已采纳
1
回答
我如何识别一个“免费停车”
的
网站?
、
、
、
我有一个很长
的
urls
列表
,其中一些是由godaddy“免费停车”
的
,有没有什么技术方法可以在不在浏览器上打开这些页面的情况下识别它们?从技术上讲,该页面是活动
的
返回200,因此没有帮助我也尝试使用一些元标记,但它们
在
漂亮
的
汤
中
浏览 15
提问于2021-03-06
得票数 1
1
回答
使用熊猫/美丽
汤
(而不是慢硒?)刮表数据,BS实现不起作用。
、
、
、
、
我
试图
在这个网站上抓取网络数据,我唯一能够访问这些数据
的
方法是遍历表
中
的
行,将它们添加到
列表
中
(然后将它们添加到熊猫数据帧/写入到csv
中
),然后单击下一页并重复这个过程--每次搜索大约有50页,我
的
程序进行它非常慢/效率很低,我想知道是否有一种方法可以有效地使用熊猫或
漂亮
汤
来添加所有数据,而不是迭代每一行/列。'my_csv.csv', mode='a
浏览 0
提问于2018-06-30
得票数 3
3
回答
无法正确使用
selenium
的
结果
、
、
我试着用
漂亮
汤
来解析网页。我可以看到,使用chromedriver正确地
在
selenium
中加载了页面,但是最终结果是null,当我看到分析过
的
页面打印
在
漂亮
汤
中
时,它并没有显示
selenium
在其自动浏览器
中
显示
的
整个页面。用于此目的
的
代码是: page_soup = soup(driver.page_source, "html.parser"
浏览 3
提问于2019-09-26
得票数 0
回答已采纳
1
回答
使用Python抓取Ajax
、
、
、
、
我正在尝试
获取
这个网站
的
表
中
的
数据,该表
在
页面加载后通过jquery更新(我有权限): 这些值
在
firebug
和
chrome developer中都是可见
的
浏览 2
提问于2012-05-04
得票数 3
回答已采纳
1
回答
Selenium
:
在
不被重定向到页面的情况下单击时
获取
按钮
的
url
、
、
、
在
抓取页面时,我尝试
在
不被重定向
的
情况下获得下一页。问题是这个按钮
在
html
中
没有下一个页面
url
,所以我不能直接用
漂亮
的
汤
或
selenium
获得它,只有单击: div_list = driver.find_element(by=By.CSS_SELECTOR我需要做
的
是,获得该单击
的
url
,而不需要使用
selenium
或
漂亮
<
浏览 8
提问于2022-05-12
得票数 1
回答已采纳
2
回答
Selenium
:如何单击“显示”按钮,刮除“参考资料”,然后再单击“显示”按钮?
、
、
、
链接到我正在尝试刮
的
页面:
url
= "https://www.nytimes.com/reviews/dining" d
浏览 2
提问于2020-04-15
得票数 0
回答已采纳
1
回答
我怎样才能得到最近
的
消息,从抽搐聊天?
、
我
试图
在
与python
和
漂亮
汤
聊天时
获取
最新消息,但当我打印数据时,它会打印
空
数组。import requests headers = {"User-AgentMozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:6
浏览 1
提问于2019-07-22
得票数 2
1
回答
如何使用
selenium
/艳丽
汤
或类似的方法解析此链接
中
的
表?
我
试图
解析这个表上
的
数据: 您会注意到,这是一个动态生成
的
表(显然是javascript)。似乎当我使用
selenium
或
漂亮
的
汤
打开
url
时,不可能识别/解析该表,尽管该表存在(如果您右键单击该表并检查框架源/页源,您将发现它们似乎没有关联)。如果您能够
在
python
中
解析表,请告诉我。
浏览 2
提问于2017-11-05
得票数 0
回答已采纳
3
回答
无法从网站
获取
数据,因为
URL
在
获取
数据时不会更改,因此数据表为
空
、
、
、
我使用了两个库来抓取:请求和
漂亮
的
汤
。我打开给定
的
URL
,并在该页面上传递所需数据
的
日期间隔。当我按submit时,
URL
不会改变,但是数据
在
页面上。然后我就可以访问那个页面了。")all = soup.find_all("table", {"class":"table tabl
浏览 3
提问于2017-02-20
得票数 1
回答已采纳
点击加载更多
相关
资讯
在Java中判断String类型为空和null的方法
在df的一列中 有None和Nan 我想把这些空值都填充为-1 应该怎么操作呢
怎么获取第一步请求响应的Cookies呢?
软件测试笔记|web自动化测试|断言
Python爬虫(5):比Selenium快100倍的方法爬东方财富网财务报表
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券