Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Python使用爬虫技术获取本机所在公网IP地址

Python使用爬虫技术获取本机所在公网IP地址

作者头像
Python小屋屋主
发布于 2020-05-08 08:38:06
发布于 2020-05-08 08:38:06
4K0
举报
文章被收录于专栏:Python小屋Python小屋

功能描述:

获取自己计算机所在公网IP地址

技术路线:

网络上有些网页,访问这些网页时会显示我们的公网IP地址。利用爬虫技术,编写Python程序向这样的页面发出请求,在返回的响应中会包含我们的公网IP地址,然后再根据返回的信息格式解析出公网IP地址就可以了。

方法一:

通过网页http://ip.42.pl/raw,访问这个页面时,界面如下:

查看网页源代码会发现也只有一个IP地址,根据这个特点,编写代码如下,可以直接获取自己的公网IP地址。

方法二:

网页https://jsonip.com/,访问该页面时,返回的数据如图所示,

这很明显是个json格式的数据,据此,编写代码如下,

还有一些其他网页也有类似功能,请自行分析和编写代码进行测试。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-04-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python小屋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python 获取本机公网 IP
有很多大佬搭建的查询本机公网 IP 的服务,本文记录相关内容。 IPv4 可以访问获取公网 IPv4 IP 的站点: 直接返回ip地址 https://checkip.amazonaws.com/ https://ident.me https://ifconfig.me/ip http://icanhazip.com https://api.ipify.org/ http://ip.42.pl/raw Python 调用 import requests def get_external_ip():
为为为什么
2023/05/02
4.5K0
什么是IP代理和爬虫技术?
在数字时代,数据成为了新的石油。从企业到研究人员,都在争先恐后地获取和分析数据。本文深入探讨了IP代理和爬虫技术的重要性与实用性,涵盖了网络爬虫的工作原理、IP代理的作用,以及它们如何相辅相成地解决数据采集中的难题。通过详细的技术分析和代码示例,无论你是数据采集领域的新手还是专家,都能从中获益。关键词包括:IP代理、网络爬虫、数据采集、反爬虫策略、技术解决方案等,旨在帮助本文通过搜索引擎如百度更容易被发现。
猫头虎
2024/04/07
2900
什么是IP代理和爬虫技术?
对抗网络爬虫:反爬虫技术与策略详解
在今天的互联网世界中,爬虫不仅被用于合法的数据采集,还被滥用于盗取数据、大规模爬取网站内容等不当用途。为了保护网站资源和数据,许多网站采用反爬虫技术来对抗爬虫程序。本文将深入介绍反爬虫技术的原理与策略,并提供示例代码来演示如何编写爬虫以应对这些挑战。
海拥
2023/09/20
1.8K0
对抗网络爬虫:反爬虫技术与策略详解
Python入门网络爬虫之精华版
首先列举一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技巧:宁哥的小站-网络爬虫
IT派
2018/08/10
1.2K0
Python爬虫基础系列:初识Requests库
"if something is important enough, even if the odds are against you, you should still do it." 如果一件事情对你很重要,即使成功的概率很小,你也应该去做。
小Bob来啦
2021/02/12
4730
Python爬虫基础系列:初识Requests库
python 获取本机IP地址
方法一: 通常使用socket.gethostbyname()方法即可获取本机IP地址,但有时候获取不到(比如没有正确设置主机名称),示例代码如下:
py3study
2020/01/13
5.7K0
【python爬虫基础】年轻人的第一个爬虫程序
网络爬虫(Web Crawler),也称为网络蜘蛛(Web Spider)或网络机器人(Web Bot),是一种自动化程序,用于从网站中提取和收集信息。它通过系统地浏览互联网,访问网页并提取其中的内容,常用于搜索引擎、数据挖掘以及其他需要大量信息的场景。 工作原理
Yui_
2024/10/19
3170
【python爬虫基础】年轻人的第一个爬虫程序
01 奇妙的Python库之【socket(获取本机ip地址)】
前言 Python有着很多很酷的第三方库,可以使任务变得更容易,可以说Python丰富的第三方库资源是它的优势,甚至有时候我们花了大量精力写好了代码,却发现一个库函数就轻而易举解决了。但是Python
测试开发囤货
2021/09/08
1.2K0
【Python爬虫】初识爬虫(1)
之前写了两篇关于爬虫的文章微信好友大揭秘,赵雷到底在唱什么,纯粹是自己的兴趣引导自己学习爬虫,关注里应该有好多对爬虫感兴趣的小伙伴,为了巩固自己的爬虫知识,从今天开始更新python爬虫这个基础教程,自己准备了挺长时间整理了自己的学习笔记,希望能给初学者带来一点帮助,在这个教程里我会给大家介绍爬虫常用的库跟大家做几个有意思的Demo。这篇文章主要是让大家了解爬虫和爬虫需要的基础知识,话不多说,我们开始吧。
PM小王
2019/07/02
1.8K0
【Python爬虫】初识爬虫(1)
干货|普通反爬虫机制的应对策略
爬虫与反爬虫,这相爱相杀的一对,简直可以写出一部壮观的斗争史。而在大数据时代,数据就是金钱,很多企业都为自己的网站运用了反爬虫机制,防止网页上的数据被爬虫爬走。然而,如果反爬机制过于严格,可能会误伤到
灯塔大数据
2018/04/08
1.8K0
干货|普通反爬虫机制的应对策略
同学利用Python爬虫制作王者荣耀出装助手,引来了隔壁班的女生!
暑假回家,”小皇帝”般的生活持续了几天,头几天还挺舒服,闲久了顿时觉得好没意思。眼看着10天的假期就要结束,曾信誓旦旦地说要回家学习,可拿回家的两本书至今一页未翻,强烈的负罪感一直催促着:”你该学习了,你该学习了…”
sergiojune
2018/10/23
1.3K0
同学利用Python爬虫制作王者荣耀出装助手,引来了隔壁班的女生!
Requests爬虫
之前写过一个urllib的爬虫方法,这个库是python内建的,从那篇文章也可以看到,使用起来很繁琐。现在更流行的一个爬虫库就是requests,他是基于urllib3封装的,也就是将之前比较繁琐的步骤封装到一块,更适合人来使用。
py3study
2020/01/19
5910
Python爬虫的基本原理
我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是在网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了。
仲君Johnny
2024/02/03
4440
Python爬虫的基本原理
【Go】获取用户真实的ip地址
用户请求到达提供服务的服务器中间有很多的环节,导致服务获取用户真实的 ip 非常困难,大多数的框架及工具库都会封装各种获取用户真实 ip 的方法,在 exnet 包中也封装了各种 ip 相关的操作,其中就包含获取客户端 ip 的方法,比较实用的方法如下:
thinkeridea
2019/11/04
4.7K0
Python 爬虫一 简介
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
全栈程序员站长
2022/07/18
8140
Python 爬虫一 简介
python 斗鱼爬虫
本文介绍了一种基于Python的斗鱼直播信息抓取方法,使用requests和BeautifulSoup库获取指定游戏分类的直播间列表,并利用Selenium库进行翻页操作。最后,将获取到的直播间信息保存到文本文件中。需要注意的是,在爬取过程中要遵循网站的robots协议,尽量不频繁访问,避免给服务器带来压力。
企鹅号小编
2018/01/04
1.9K0
python 斗鱼爬虫
这10个奇妙的Python库,你必须要试试!
分别是speedtest、socket、textblob、pygame、pyqrcode、pyshorteners、googletrans、pendulum、fabulous、pywebview。
小F
2021/08/20
5140
这10个奇妙的Python库,你必须要试试!
Python3网络爬虫实战-17、爬虫基
爬虫,即网络爬虫,我们可以把互联网就比作一张大网,而爬虫便是在网上爬行的蜘蛛,我们可以把网的节点比做一个个网页,爬虫爬到这就相当于访问了该页面获取了其信息,节点间的连线可以比做网页与网页之间的链接关系,这样蜘蛛通过一个节点后可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,这样网站的数据就可以被抓取下来了。
py3study
2020/01/03
7990
Python爬虫技巧---设置代理IP
在学习Python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,这里讲述一个爬虫技巧,设置代理IP。
itlemon
2020/04/03
1.3K0
IP地址有什么用?
IP其实是网际互连协议的缩写,但是我们通常会省略IP地址后面的地址两个字,直接用IP来代表计算机在网络上的一个标识,其实这是不严谨的。IP是整个互联网工作的核心,我们所说的IP地址其实只是其中的一个功能,即:IP定址,这是一个独一无二的地址,看到这里有些童鞋就会产生疑问,独一无二?四组数字装得下那么多机器吗?接下来我们就先介绍一下IP路由以及IP地址的分类。
一头小山猪
2020/04/10
5.5K0
推荐阅读
相关推荐
Python 获取本机公网 IP
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档