首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python3爬虫】最新的模拟登录新浪教程

然后我这次说的模拟登录新浪呢,不是使用Selenium模拟浏览器操作,毕竟Selenium的效率是真的有些低,所以我选择用Python发送请求实现模拟登录,整个过程还算是有点小曲折吧。...二、开发环境 Windows10 + Python3.7 + Pycharm + Fiddler 三、页面分析 首先打开新浪,网址为:https://weibo.com/,这里我们只需要关注登录这一部分...这时候Fiddler就能派上用场了,首先打开Fiddler,然后在网页上输入用户名和密码并登录新浪,登录成功之后在Fiddler中找寻相关信息,可以找到下面这个url: https://login.sina.com.cn...但是做了这两步之后并没有真的登录,还需要提取链接并进行跳转,不过对于我们来说做到这一步就已经够了,我们只需要保存此时的Cookie就行了,为了验证这个Cookie是否有效,我还写了一段代码进行测试,

1.5K30

Python调用API获取内容

一:获取app-key 和 app-secret     使用自己的账号登录开放平台,在开放中心下“创建应用”创建一个应用,应用信息那些随便填,填写完毕后,不需要提交审核,需要的只是那个app-key...在“开放平台”的“管理中心”找到刚才创建的应用,点开这个应用,点开左边“应用信息”栏,会看见“App key”和“App Secret”的字样,这两个东西是要在后面程序中使用的。...三:安装 python SDK 有两种安装方式: 1:http://github.liaoxuefeng.com/sinaweibopy/下载新浪SDK 2:python有个简单的安装方式:直接在命令行下键入...: sudo pip install sinaweibopy 四:实例验证,获取当前登录用户及其所关注(授权)用户的最新 这里需要注意的是在浏览器弹出一个页面,要先点击“授权”(这里进行的OAuth...以下为我的关注用户的: ? ? ? ? 拿上边代码为例,这里我们获取的信息有: ?

3.8K41
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Java网络爬虫抓取新浪个人记录

    接下来就是新浪的抓取,一般的http访问新浪网站得到的html都是很简略的,因为新浪主页是用js动态生成的并且要进过多次的http请求与验证才能访问成功,所以为了数据抓取的简便,我们走一个后门...,也就是访问新浪的手机端,weibo.cn进行抓取,但随之而来的一个问题是,新浪的访问不管哪一端都需要强制的登陆验证,所以我们需要在http请求的时候附带一个cookie进行用户验证。...weibo.cn的cookie * @author hu */ public class WeiboCN { /** * 获取新浪的cookie,这个方法针对weibo.cn...有效,对weibo.com无效 * weibo.cn以明文形式传输数据,请使用小号 * @param username 新浪用户名 * @param password...新浪密码 * @return * @throws Exception */ public static String getSinaCookie(String

    50140

    情绪分析

    使用node.js爬虫每天从「新浪」上爬取一定数量的。主要实现登录,抓取发布,抓取关注人和粉丝的功能,暂时把数据存放在MongoDB中。...weibo_crawler 第一部分是准备数据,随机爬取50w左右的用户,然后每天爬取他们前一天发布的作为本项目的数据源。...由于新浪对爬虫有限制,因此爬取用户的时候采用定时器的方式。 由于只有登录了才能获取某个用户的个人信息和关注粉丝信息,而爬虫的难点就在于用户登录。...对抓取失败的,Retry 5次 2. 放弃非人类 什么是非人类呢?...分词 Big Bang 分词就是把一句话变成一个一个单词的过程。举个栗子吧: 我是中国人。

    1.4K10

    再谈备份

    h5 https://m.weibo.cn/ ,这个扩展也是基于h5接口来备份的。...之前文章 一键备份并导出生成PDF,顺便用Python分析账号数据 分析过李健的词云图,他的关键词为音乐,北京,朋友,歌手,电影,居然还提到了周杰伦。 ?...每个月转发评论点赞总数图,可以看到2016-2018年的数据是高峰期。 ? 原创和转发数据比例。 ? 李健发的工具主要为pc网页和iPad。 ?...麋鹿工具箱 如果你不想哪天被人挖坟,可以将批量删除、设置仅自己可见、仅好友可见,这里推荐一个工具麋鹿工具箱。...开始扫描你的多的话可能慢点。 ? ? 选择时间段,可以对删除,恢复公开,仅自己可见,仅粉丝可见,仅好友圈可见。 ?

    1.7K31

    python模拟新浪登陆功能(新浪爬虫)

    (Python) PC 登录新浪时, 在客户端用js预先对用户名、密码都进行了加密, 而且在POST之前会GET 一组参数,这也将作为POST_DATA 的一部分。...由于要用的一部分数据用API获取不方便, 所以还是要自己写个小爬虫, 模拟登录是必不可少的。琢磨了一下这个东西,最终登录成功。...接下来再请求这个URL,这样就成功登录到了。 记得要提前build 缓存。 下面是完整代码(没加注释,凑合看吧): #!...很多豆友反馈有模拟登录新浪抓取数据的需求,其实对于一般的数据获取,如用户信息、内容等,使用开放平台API是更明智的选择:速度更快,而且节省许多网页处理的功夫。...熟悉Web的朋友只要定期维护模拟登录的代码就可以一直成功登录。如果不那么熟悉的话,其实可以采用更naive的思路来解决:直接将Cookie发送给新浪以实现模拟登录。

    3.2K60

    中的用户画像:中的用户模型

    经历了6年的发展,已经成为了国内社交媒体的中坚力量。本文从的角度出发,对中用户模型的目的、维度和建模任务进行描述,并作为后续用户模型相关文章的总述。...从自身的角度来讲,构建用户模型的目的包括: (1) 完善及扩充用户信息 用户模型的首要动机就是了解用户,这样才能够提供更优质的服务。...(2) 分析生态 除了了解用户,还需要了解自己。在掌握用户信息的基础上,平台就可以对自身的状况进行分析,从相对宏观的基础上把握的生态环境,为后续的优化和发展提供方向性。...接下来主要介绍一下画像中兴趣维度的构建方法。 2. 用户兴趣分析 (1) 标签来源 用户自标签、达人或认证标签、公司、学校、群标签、星座、关键词……这些来源都可能成为用户的标签。...小结 用户画像的目的是将用户信息标签化,本文中介绍针对本身的特点介绍用户画像的构建,该用户画像主要还是从的业务出发,完善用户信息和发掘用户兴趣,区分兴趣和能力,并形式化结构化表达出来。

    4.3K100

    新浪王传鹏:推荐架构的演进

    引言 (Weibo)是一种通过关注机制分享简短实时信息的广播式社交网络平台。用户通过关注来订阅内容,在这种场景下,推荐系统可以很好地和订阅分发体系进行融合,相互促进。...两个核心基础点:一是用户关系构建,二是内容传播,推荐一直致力于优化这两点,促进发展。如图1所示: ?...图1 推荐的使命 在推荐发展的过程中遇到体系方向的变化、业务的不断更迭、目标的重新树立,其产品思路、架构以及算法也随之进行变迁。...为了便于理解推荐架构演进,在介绍之前需要陈述一下推荐在流程上的构成,其实这个和本身没有关系,理论上业内推荐所存在的流程基本都是相同的。...[内部使用的一种数据队列] ?

    1.8K20

    python3 爬虫学习:自动给你心上人的点赞(三)

    from selenium import webdriver import time user = input('请输入你的用户名:') password = input('请输入你的密码:...') # 打开Chrome 浏览器 browser = webdriver.Chrome() # 打开网页 browser.get('https://passport.weibo.cn/signin...entry=mweibo&res=wel&wm=3349&r=https%3A%2F%2Fm.weibo.cn%2F') #加载比较慢,我们给它设置15s的打开时间,然后关闭浏览器 time.sleep...(5) #查找用户名输入框 user_name = browser.find_element_by_css_selector("#loginName") #查找id = 'loginname'的元素...url = input('请复制你的心上人主页:') browser.get(url) i = 1 while i < 11: #设置点赞失败次数,当点赞失败次数小于11次时结束循环

    66440
    领券