////欢迎点击「算法与编程之美」关注我们!
本文首发于微信公众号:"算法与编程之美",欢迎关注,及时了解更多此系列文章。
引言
你是否还在用老套的方式网页打开数据?你是否想要打造一个属于自己的翻译程序?
看完这篇博客实现你的梦想,打造一个属于自己的翻译器。
代码解析
首先我们要导入两个库爬虫库(requests)和json库。Requests库就不多讲了,了解爬虫的观众老爷们都懂用于爬取网络数据,Json库再这个程序的主要作用是解析爬取的json文件,达到提取数据的作用。
接下来开始我们打开百度翻译网页获取网页翻译的地址,在获取网页地址时要注意那部分或是在哪里获取有效地址。接着在网页中我们鼠标右键单机网页内任意一处弹出对话框选择“检查”选项
之后我们通过在网页中输入翻译的内容再进行下图所示的所有操作
完成上一步操作我们通过逐个点击Name列的信息查找到我们所需要得到的信息如下图所示
看到有我们想要的信息就说明我们找对地方了,我们开始点击Headers观察显示的信息如图,请求方式为post,所以我们需要找到爬虫需要的代理(User-Agent)和Form data表单。通过post请求返回爬取的数据。
到这里我们只用到了requests库接下来我们就要用到json库了,爬取返回的数据需要用到json.loads()函数处理,得到如下图所属的信息。
注:json.loads()函数的作用:将已编码的 JSON 字符串解码为 Python 对象。
在这里我们可以看到这里面有我们输入翻译的内容和结果。我们最后就通过索引列表字典和列表的下标返回翻译结果。
完整的代码如下图所示(此程序代码运行只能由中文翻译成英文)
代码写完了,最后之差将代码转化为桌面程序。那么如何实现呢?
打包exe
这里我们需要安装python的另外两个第三方库pywin32和pyinstaller,安装的具体操作我们不详细说明,不懂的读者可以去百度一下。
安装完成我们要进入cmd窗口里面进入上述程序的文件夹,代码如下
程序运行完成会在代码文件夹下生成多个文件,而打包成的exe文件就存在与dist文件下。
总结
希望大家喜欢这篇博客,如果正在看博客的你也觉得博客不错,就点赞留言转发吧。谢谢大家关注。
如果您对某些算法有困惑,欢迎下方留言,我们将第一时间为大家提供博客阐述算法思想。
领取专属 10元无门槛券
私享最新 技术干货