首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >python引入相同和不同(模块)文件夹下py文件的类

python引入相同和不同(模块)文件夹下py文件的类

作者头像
静谧星空TEL
发布于 2022-01-05 13:49:08
发布于 2022-01-05 13:49:08
8.5K00
代码可运行
举报
运行总次数:0
代码可运行

目录

一、引入同级目录模块类

1、项目结构

2、引入规则

3、配置环境

二、引入不同级目录的模块类

1、项目结构

2、引入规则

3、案例代码

一、引入同级目录模块类

1、项目结构

2、引入规则

从SyncMysqlMongo中引入MongoDBUtil.py和MySQLUtil.py中的两个类(这里的类名和文件名一致)

语法:form 文件名 import 类名

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from MongoDBUtil import MongoDBUtil
from MySQLUtil import MySQLUtil

3、配置环境

引入之后虽然可以执行,但是在pycharm中即使是包目录也不会默认当前目录在环境变量中

需要手动配置,右击目录 -> Mark Directory as -> Sources Root,配置之后编译器就不会提升报错了

二、引入不同级目录的模块类

1、项目结构

2、引入规则

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
## 将上级目录加入python系统路径
sys.path.append(r'..')
## from 包名.文件名 import 类名
from MongoDB.MongoDBUtil import MongoDBUtil

3、案例代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#-*- encoding: utf-8 -*-

import sys
sys.path.append(r'..')
from MongoDB.MongoDBUtil import MongoDBUtil

class MysqlToMongo:

    def __init__(self,mysql_ip,mysql_db,mongo_ip,mongo_db):
        self.mysql_ip = mysql_ip
        self.mysql_db = mysql_db
        self.mongo_ip = mongo_ip
        self.mongo_db = mongo_db
        self.mogo_db = MongoDBUtil(ip="127.0.0.1", port="27017")

    def fun1(self):
        pass

if __name__ == "__main__":
    ip = "127.0.0.1"; port = "27017"
    syncsql = MysqlToMongo(ip, port, ip, port)
    print(syncsql)

4、执行结果

<__main__.MysqlToMongo object at 0x000001F332E2A940> 127.0.0.1 27017

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/03/04 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python3实现MySQL数据增量更新同步到MongoDB
目录 一、MySQL工具类 二、MongoDB工具类 三、数据同步实现代码 一、MySQL工具类 # -*- encoding: utf-8 -*- import pymysql class MySQLUtil: """ MySQL工具类 """ def __init__(self, host="127.0.0.1", user=None, passwd=None, db=None, charset="utf8", *args, **kwargs): ""
静谧星空TEL
2022/01/05
2.5K0
Docker快速部署数据库
在学习Docker的基本操作之后,最近恰好遇到一个需要搭建数据库的需求,今天就来一次数据库docker版本的安装配置笔记.其中,Mysql部分记录了通过Dockerhub官方帮助文档完成数据库的安装部署,主要记录思路,mongo部分不在赘述,主要记录操作
打铁读书郎
2024/04/11
2990
Python脚本监控mysql数据库,P
任务:应帅气的领导要求,需要监控生产环境mysql和mongo数据库服务。不仅要connect successful还要进行数据交互进一步确认数据库服务正常。
py3study
2020/01/08
3K0
data pipeline是做什么_pycharm创建爬虫项目
爬取爱套图网图片:https://github.com/EExplode/scrapy_aitaotu
全栈程序员站长
2022/10/05
4760
Scrapy框架的使用之Item Pipeline的用法
Item Pipeline是项目管道,本节我们详细了解它的用法。 首先我们看看Item Pipeline在Scrapy中的架构,如下图所示。 图中的最左侧即为Item Pipeline,它的调用发生
崔庆才
2018/06/25
7.4K1
使用Python和Scrapy框架进行网络爬虫的全面指南
网络爬虫是一种自动化的程序,用于从互联网上收集信息。Python是一个功能强大的编程语言,拥有许多用于网络爬虫的库和框架。其中,Scrapy是一个流行的开源网络爬虫框架,它提供了一套强大的工具和组件,使得开发和部署爬虫变得更加容易。本文将介绍如何使用Python和Scrapy框架来构建一个简单的网络爬虫。
一键难忘
2024/07/08
5860
Scrapy+MongoDB 轻松爬取海量妹子图
【原文链接】:https://mp.weixin.qq.com/s/WIrepTu-2CGrGifLLRsHjw
Python数据科学
2018/09/14
1.8K0
Scrapy+MongoDB 轻松爬取海量妹子图
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/16
1090
分布式爬虫搭建系列 之三---scrapy框架初用
其次,通过我们的神器PyCharm打开我们的项目--crawlquote(也可以将PyCharm打开我们使用虚拟环境创建的项目)
wfaceboss
2019/04/08
6270
分布式爬虫搭建系列 之三---scrapy框架初用
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/17
1810
宜信开源|数据库审核软件Themis的规则解析与部署攻略
Themis是宜信公司DBA团队开发的一款数据库审核产品,可帮助DBA、开发人员快速发现数据库质量问题,提升工作效率。其名称源自希腊神话中的正义与法律女神。项目取此名称,寓意此平台对数据库质量公平判断,明察秋毫。
宜信技术学院
2019/06/28
1.4K0
Python爬虫案例:Scrapy+XPath解析当当网网页结构
在当今大数据时代,网络爬虫已成为获取互联网信息的重要工具。作为Python生态中最强大的爬虫框架之一,Scrapy凭借其高性能、易扩展的特性受到开发者广泛青睐。本文将详细介绍如何利用Scrapy框架结合XPath技术解析当当网的商品页面结构,实现一个完整的电商数据爬取案例。
小白学大数据
2025/07/24
870
适合存储大量爬虫数据的数据库,了解一下?
今天这个坑可能以后你也会遇到, 随着爬取数据量的增加, 以及爬取的网站数据字段的变化, 以往在爬虫入门时使用的方法局限性可能会骤增.
benny
2018/07/26
3.4K0
适合存储大量爬虫数据的数据库,了解一下?
Scrapy(4)spider 帮助你寻找最美小姐姐
我们都知道我们平常想下载一些漂亮的图片来装饰自己的桌面,可是找到了都是需要收费的网站,真的很恼火,所以今天小编,可能要带大家实现这么一个工具,可以用来爬取某个网站的好看的图片
公众号---人生代码
2020/05/16
5460
Python3+Flask初学教程
W3Cschool:https://www.w3cschool.cn/flask/
静谧星空TEL
2021/04/27
9320
Python3+Flask初学教程
起点小说爬取--scrapy/redis/scrapyd
之前写了一篇网络字体反爬之pyspider爬取起点中文小说 可能有人看了感觉讲的太模糊了,基本上就是一笔带过,一点也不详细。这里要说明一下,上一篇主要是因为有字体反爬,所以我才写了那篇文章,所以主要就是提一个字体反爬的概念让大家知道,其中并没有涉及到其他比较难的知识点,所以就是大概介绍一下。
星星在线
2018/08/21
1.9K0
起点小说爬取--scrapy/redis/scrapyd
Python爬虫入门教程 36-100 酷安网全站应用爬虫 scrapy
2018年就要结束了,还有4天,就要开始写2019年的教程了,没啥感动的,一年就这么过去了,今天要爬取一个网站叫做酷安,是一个应用商店,大家可以尝试从手机APP爬取,不过爬取APP的博客,我打算在50篇博客之后在写,所以现在就放一放啦~~~
梦想橡皮擦
2019/02/20
9640
Python爬虫入门教程 36-100 酷安网全站应用爬虫 scrapy
基于Celery的分布式通用爬虫管理平台Crawlab
Github: https://github.com/tikazyq/crawlab
MarvinZhang
2019/03/07
2.8K1
基于Celery的分布式通用爬虫管理平台Crawlab
Dotenv在nestjs中的使用
Dotenv 是一个零依赖的模块,它能将环境变量中的变量从 .env 文件加载到 process.env 中。
挥刀北上
2021/12/20
17.7K1
Dotenv在nestjs中的使用
MongoDB基础
数据库即存储数据的仓库,可以将数据进行有序的分门别类的存储。它是独立于语言之外的软件,可以通过API去操作它。
Qwe7
2022/05/22
6360
相关推荐
Python3实现MySQL数据增量更新同步到MongoDB
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档