首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python 教你自动,每日一句英语

最近在研究用 Python 来制作各个类别的机器人,今天先来分享一个自动发布新浪的机器人。...基本思路 其实要实现一个简单的自动发布机器人还是不难的,只需要每天按时找好要发布的素材(一般就是爬虫了),然后再通过开放出来的 API 接口,自动发布即可。...分别执行如下命令安装 python setup.py build python setup.py install 至此可以安装 weibo 库成功 准备工作与编写思路就是这些,下面我们来看看具体的过程与代码...自动发布 根据 weibo 库的说明文档,使用其操作还是相关容易的,只需要提供我们创建应用时的 App Key 与 App Secret 和应用回调地址信息即可。...那么现在自动发布搞定了,我们再来看看如何自动获取素材 素材 对于金山词霸的每日一句,我们可以使用如下的一个 API 来获得每天的信息 http://open.iciba.com/dsapi

88920
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Python调用API获取内容

    一:获取app-key 和 app-secret     使用自己的账号登录开放平台,在开放中心下“创建应用”创建一个应用,应用信息那些随便填,填写完毕后,不需要提交审核,需要的只是那个app-key...在“开放平台”的“管理中心”找到刚才创建的应用,点开这个应用,点开左边“应用信息”栏,会看见“App key”和“App Secret”的字样,这两个东西是要在后面程序中使用的。...三:安装 python SDK 有两种安装方式: 1:http://github.liaoxuefeng.com/sinaweibopy/下载新浪SDK 2:python有个简单的安装方式:直接在命令行下键入...: sudo pip install sinaweibopy 四:实例验证,获取当前登录用户及其所关注(授权)用户的最新 这里需要注意的是在浏览器弹出一个页面,要先点击“授权”(这里进行的OAuth...以下为我的关注用户的: ? ? ? ? 拿上边代码为例,这里我们获取的信息有: ?

    3.8K41

    python 新浪爬虫

    /usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/7/1 上午3:29 # @Author : BrownWang # @Email.../0070m4EAly8fpp1pwqq26j3050050jrb.jpg 是否认证:False 说明:知名财经主 头条文章作者 签约自媒体 关注人数:3301 粉丝数:111 性别:m 等级...:11 -----正在爬取第1页,第0条------ -----正在爬取第1页,第1条------ -----正在爬取第1页,第2条------ -----正在爬取第1页,第3条---...--- -----正在爬取第1页,第4条------ -----正在爬取第1页,第5条------ -----正在爬取第1页,第6条------ -----正在爬取第1页,第7条----...-- -----正在爬取第1页,第8条------ -----正在爬取第2页,第0条------ -----正在爬取第2页,第1条------ -----正在爬取第2页,第2条-----

    1.4K40

    python模拟新浪登陆功能(新浪爬虫)

    Python) PC 登录新浪时, 在客户端用js预先对用户名、密码都进行了加密, 而且在POST之前会GET 一组参数,这也将作为POST_DATA 的一部分。...由于要用的一部分数据用API获取不方便, 所以还是要自己写个小爬虫, 模拟登录是必不可少的。琢磨了一下这个东西,最终登录成功。...接下来再请求这个URL,这样就成功登录到了。 记得要提前build 缓存。 下面是完整代码(没加注释,凑合看吧): #!...很多豆友反馈有模拟登录新浪抓取数据的需求,其实对于一般的数据获取,如用户信息、内容等,使用开放平台API是更明智的选择:速度更快,而且节省许多网页处理的功夫。...熟悉Web的朋友只要定期维护模拟登录的代码就可以一直成功登录。如果不那么熟悉的话,其实可以采用更naive的思路来解决:直接将Cookie发送给新浪以实现模拟登录。

    3.2K60

    一张图片,如何找到它是谁的?

    如何通过一个图片链接,找到这张图片的发布者?...比如下面这个图片链接: https://wx4.sinaimg.cn/orj360/4242e8adgy1hlugictxquj235s2pknpe.jpg 怎么找到这个图片对应的用户?...实际上将用户的元数据保存在了对应用户所发布的图片中,而URL就是其中的方式之一。我们以知名用户“来去之间”为例,通过访问其用户主页,查看URL可知其用户UID为1111681197。...当然有些用户设置了个性域名,不能直观地看到用户UID,我们则可以把鼠标移动到人物头像下方的“关注”和“粉丝”处,这时候在浏览器的左下角就会看到带数字串的URL,而数字串就是用户UID。...://wx4.sinaimg.cn/orj360/4242e8adgy1hlugictxquj235s2pknpe.jpg” 下面我们来拆分一下该URL: 第一部分:“wx4.sinaimg.cn”为的图片存储服务器域名

    69610

    Python模拟登陆

    经过的一天的研究,把模拟登陆基本上弄清楚了,下面就把过程详细说明。...---- 工具和环境 1.语言:Python3 2.IDE: Pycharm 3.浏览器:Chrome 4.使用的库:re, rsa, base64, requests, PIL, urllib ---...- 模拟登陆过程 弄清楚所需的数据 首先我们在Chrome浏览器中打开登陆界面,然后Ctrl+shift+i开启开发者工具,在开发者工具的Network选项里找到Preserve log并勾选,然后登录你的...我们只需要找到这几个数据就可以模拟登录到,那么怎么找到这些数据呢?接着往下看… 获取servertime,nonce等数据 在登录页面里打开开发者工具,清除Network里的数据。...wvr=5&lf=reg"}}); 提取你自己的uniqueid值放入下列网址中get得到你的主页信息。

    1.3K90

    Python selenium实现自动登录

    (一)编程环境 操作系统:Win 10 编程语言:Python 3.6 (二)安装selenium 这里使用selenium实现。...如果没有安装过python的selenium库,则安装命令如下 pip install selenium (三)下载ChromeDriver 因为selenium要用到浏览器的驱动,这里我用的是Google...(四)分析登录界面 通常而言,m站的网页结构比pc站要简单的多,咱们可以从m站入手。...m站登录界面的网址是 https://passport.weibo.cn/signin/login 在Chrome浏览器中打开此地址,并右键点击界面的任何位置-->查看网页源代码,发现邮箱/手机号框的...(五)编写python程序 from selenium import webdriver import time browser = webdriver.Chrome("C:\Program Files

    1.2K10

    Python 制作抓取 GUI 程序

    在前面的分享中,我们制作了一个天眼查 GUI 程序,今天我们在这个的基础上,继续开发新的功能,抓取工具,先来看下最终的效果 整体的界面还是继承自上次的天眼查界面,我们直接来看相关功能 功能布局...我们整体的界面布局就是左侧可以选择不同功能,然后右侧的界面会对应改变 创建 Widget 对于右侧界面的切换,我们可以为不同的功能创建不同的 Widget,当点击左侧不同功能按钮后,对应切换 Widget..."""子进程查询""" class WeiBoQueryThread(QThread): # 创建一个信号,触发时传递当前时间给槽函数 update_data = pyqtSignal...weibo_page = None total_pv = 0 timestamp = str(int(time.time())) def run(self): # 爬虫...,这里就不再展开说明了,我是把所有爬虫的代码都封装好了,这里直接调用暴露的接口即可 ❝对爬虫感兴趣的同学可以点点赞和在看,如果数量可观就专门写一篇文章,谢谢大家 词云制作 对于词云的制作,我们还是先通过

    63310

    爬虫,python用户主页小姐姐图片内容采集爬虫

    python爬虫,爬虫,需要知晓用户id号,能够通过抓取用户主页内容来获取用户发表的内容,时间,点赞数,转发数等数据,当然以上都是本渣渣结合网上代码抄抄改改获取的! ?...要抓取的地址:https://weibo.com/u/5118612601 BUT,我们实际应用的抓取地址:https://m.weibo.cn/u/5118612601(移动端的地址) ?...----" + "\n") fh.write(f"地址: {str(scheme)}\n内容:{raw_text}\n"...手里头有二份爬虫的源码,不同的爬取地址和思路,一起分享给大家,仅供参考学习! 一份还包含GUI界面,当然这是本渣渣参考的主要来源代码! ? 亲测可运行哈!! 关注本渣渣信公众号:二爷记 ?...后台回复关键字:“爬虫” 获取所有源码

    1.1K20

    使用Python爬取表情包

    表情包是大家聊天的时候的必备,之前在知乎上爬取了一些表情包,但是已经用的久了该换新的了,所以我们再通过爬虫技术去爬一波表情包吧。...本来这个爬虫是想作为讲python异步爬虫的一个例子的,昨天代码写完测试了一下,结果是我账号和ip都直接被封了,然后我去搜了一下别人写的异步爬虫教程,测试用的都是些没啥反爬措施的小网站。...于是今天改了下代码,就先整个普普通通的小爬虫算了。鉴于之前IP被封,所以这次在在访问的时候我加上了代理。关于选择代理也是让人很烦恼的事,网上的代理太多了,靠谱的太少。...StreamReader(response.GetResponseStream(), Encoding.UTF8)) { string htmlStr = sr.ReadToEnd(); 访问除了像代理和一些反爬机制需要我们做好以外并没有什么难度...,到此这篇关于Python模拟登录并爬取表情包的文章就介绍到这了,大家有哪些意见可以发出来一起交流交流。

    1.1K20
    领券