腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
"
requests.get
"/
beautifulSoup
在
同一个
URL
上
每次
调用
都会
返回
不同
的
结果
。
、
、
有一个网站,用户可以添加产品,我想抓取给定用户(我)添加到网页
上
的
产品。,products有时
返回
两项,有时
返回
一项。当
返回
两个时,它也不总是相同
的
项目(
在
link自动取款机上有三个项目)。过了一段时间,它会一直
返回
所有这三个项。
每次
我
在
页面上删除/添加一个项目时,
都会
发生这种情况。请注意,如果我
在
浏览器中查看页面,我可以始终看到所有项目。 如果我只使用不带头
的<
浏览 20
提问于2021-08-13
得票数 1
1
回答
读取多个urls
在
Python中不起作用
、
、
这就是我要做
的
: import numpy as npfrom bs4 import
BeautifulSoup
for
url<
浏览 6
提问于2021-04-13
得票数 0
3
回答
如何在python3.x中修正“
在
函数中找不到引用'x‘”?
、
我目前正在编写我
的
第一个python脚本,它应该每XX秒检查一次
URL
,并通知我
url
上
的
文本是否有变化。我试图使用全局变量,但这也会导致错误。当前版本引用了scrape函数中
的
变量汤(scrape.soup =不
返回
错误,而“soup =确实”)。但是,
在
第15行中,它仍然存在查找变量汤
的
问题,因为它给了我这个通知: 找不到“函数”中
浏览 0
提问于2019-04-19
得票数 0
1
回答
Python与美丽
的
汤,而不是循环通过页面。
、
嘿,伙计们,这是我
的
第一篇文章。我是一个营销人员,我是Python
的
新手,所以请不要射杀我。visited = [
url
] # Record of scraped0]).r
浏览 1
提问于2017-08-15
得票数 1
1
回答
如何使用
BeautifulSoup
查看网站标题更改?
、
我正在检查这个网站
的
标题是否有变化:soup = bs4.
BeautifulSoup
(source,'html.parser')但是,event_string
每次
都会
返回
None。
浏览 9
提问于2021-02-22
得票数 1
2
回答
我怎样才能用漂亮
的
汤刮掉这个网页
上
的
符号呢?
、
、
我正在尝试从这个网页
上
抓取标准普尔500指数
的
所有符号。 ? 我
每次
查询
都会
得到一个none
返回
,因为我是bs4新手,所以我希望您能帮助我!
在
: import bs4 as bsimport sys sou
浏览 27
提问于2020-10-07
得票数 1
1
回答
在
类Python中
返回
元素。
BeautifulSoup
、
、
我已经创建了一个带有
BeautifulSoup
设置
的
简单类,但是
每次
我尝试使用它(项目“汤”)时,他
都会
返回
错误。class Settings: self.
url
=
url
links = soup.findAll('a
浏览 0
提问于2018-10-21
得票数 1
回答已采纳
1
回答
Python - web爬行/相同代码
的
不同
结果
?/ requests,bs4 / M1
、
、
、
每次
运行此代码时,
结果
都会
发生变化。为什么会发生这种情况?LIMIT = 50 result =
reque
浏览 17
提问于2021-05-15
得票数 0
2
回答
使用Python在网站中计算单词频率
的
代码没有输出正确
的
频率
、
、
、
、
我想数一数
在
一个特定网站上
的
单词列表
的
频率。然而,该代码并不
返回
手动"control“命令所需的确切单词数。我做错了什么?这是我
的
密码:from bs4 import
BeautifulSoup
from selenium import webdriverimport re
url
='https://www.gov.uk/government
浏览 5
提问于2021-04-27
得票数 0
回答已采纳
1
回答
如何从__init__中导出变量并在其他函数中使用
、
、
我有一个程序,它接受一个Flipkart产品链接,并使用
不同
的
methods.Here输出
结果
,我
的
代码是: def __init__(self, link): soup =
BeautifulSoup
(res.text, 'lxml') 我们只是想提取这个soup变量,以便其他函数可以访问该变量,这样
每次
我们请求任何方法时,如价格,标题,我们就不需要一次又一次地请求页
浏览 24
提问于2020-10-15
得票数 0
回答已采纳
2
回答
如何使用python从网页中抓取视频
URL
?
、
这是我
的
密码。
每次
运行此代码时,它
都会
返回
空白文件。下面是实时代码:import requests
url
=
requests.get
("https://www.mxtakatak.com/xt0.3a7ed6f84ded3c0f678638602b48bb1b840bea7edb3700d62cebcf7a400d4279/video/2000
浏览 10
提问于2022-03-30
得票数 0
回答已采纳
2
回答
无法立即
返回
所有
结果
、
、
、
在
我
的
脚本中有两个函数。第一个函数从一个网页收集到本地企业
的
链接,第二个函数遍历这些链接并收集到各种事件
的
urls。如何
返回
符合以下设计
的
所有
结果
?下面的脚本
返回
单个链接
的
结果
,而我希望立即
返回
所有的
结果
,保持设计
的
原样(逻辑可能会有所
不同
)。import reque
浏览 1
提问于2019-01-20
得票数 1
回答已采纳
1
回答
每次
调用
google时,根据lat长和radius得到
不同
的
结果
、
、
每次
调用
时,我
都会
得到
不同
的
结果
。我正在使用 API,动态地放置location & lat & radius,并连续多次
调用
。所以
每次
我
都会
得到
不同
的
输出。它给了我零
的
结果
或2-3位
在
同一个
API
上
。检查下面的图片。
浏览 3
提问于2020-01-27
得票数 0
回答已采纳
1
回答
如何在一次Python
调用
中拉取多个
URL
我正在尝试
在
同一个
Python
调用
中拉取多个网站。我不能让它正常工作,必须单独输入每个呼叫。/replay/playerStats/10758969/83445]rows = contentTable.find_all('span', &quo
浏览 12
提问于2019-08-05
得票数 0
2
回答
我不理解此AttributeError
的
原因:'NoneType‘对象没有'find_all’属性
、
、
import requests
url
="https://ratings.fide.com/top_lists.phtml"soup =
BeautifulSoup
(html,"html.parser") list = soup.find("tbody").find_all("tr
浏览 0
提问于2021-01-05
得票数 0
1
回答
如何打印网站中html
的
"flex“部分中
的
值?
、
目前,我只想打印出在这个数据表
的
flex部分中保存
的
信息,但是我不知道为什么它没有被读取。
每次
打印出来,它
都会
返回
如下内容: <div class="flex loader"> </div>虽然我不知道为什么它没有读取“加载”部分中
的
数据。这是我
的
密码:from
浏览 0
提问于2022-05-25
得票数 0
2
回答
网刮/漂亮汤/有时什么都不回?
、
、
我尝试从一个网页
上
刮掉
的
一些信息,
在
一个页面上它工作得很好,但是
在
另一个网页
上
它不起作用,因为我只得到一个零
返回
值。q=Software-Devel&where=Graz"soup =
BeautifulSoup
(page.content, "html.parser/ from bs4 import
Be
浏览 4
提问于2020-04-13
得票数 1
回答已采纳
1
回答
使用Python从互联网获取与给定关键字相关
的
所有urls
、
、
我正在学习使用
BeautifulSoup
刮刮。我想做
的
是从互联网上获取与关键字相关
的
所有可用urls。 有什么办法吗?
浏览 0
提问于2018-05-08
得票数 0
回答已采纳
2
回答
web抓取时
返回
空方括号[]
、
、
我试着
在
nytimes.com
上
打印所有的书目。我使用了请求和漂亮
的
汤模块。但我最后得到了空括号。
返回
的
结果
是。我如何解决这个问题?import requestsr =
requests.get
(
url
)text = r.text soup
浏览 13
提问于2019-08-17
得票数 1
2
回答
网站在抓取时
返回
欺骗
结果
/404?
、
、
、
我尝试使用request.get并使用Beautiful进行解析,但是它
返回
的
结果
与使用浏览器查看时
的
结果
不同
。我还直接
调用
了他们使用
的
端点,但这会
返回
404错误。以下是我使用
的
代码:import
BeautifulSoup
headers = headers = {'User-Agent': 'Mozilla/5.0 (M
浏览 5
提问于2020-04-25
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券