Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >python引入相同和不同(模块)文件夹下py文件的类

python引入相同和不同(模块)文件夹下py文件的类

作者头像
静谧星空TEL
发布于 2022-01-05 13:49:08
发布于 2022-01-05 13:49:08
8.2K00
代码可运行
举报
运行总次数:0
代码可运行

目录

一、引入同级目录模块类

1、项目结构

2、引入规则

3、配置环境

二、引入不同级目录的模块类

1、项目结构

2、引入规则

3、案例代码

一、引入同级目录模块类

1、项目结构

2、引入规则

从SyncMysqlMongo中引入MongoDBUtil.py和MySQLUtil.py中的两个类(这里的类名和文件名一致)

语法:form 文件名 import 类名

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from MongoDBUtil import MongoDBUtil
from MySQLUtil import MySQLUtil

3、配置环境

引入之后虽然可以执行,但是在pycharm中即使是包目录也不会默认当前目录在环境变量中

需要手动配置,右击目录 -> Mark Directory as -> Sources Root,配置之后编译器就不会提升报错了

二、引入不同级目录的模块类

1、项目结构

2、引入规则

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
## 将上级目录加入python系统路径
sys.path.append(r'..')
## from 包名.文件名 import 类名
from MongoDB.MongoDBUtil import MongoDBUtil

3、案例代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#-*- encoding: utf-8 -*-

import sys
sys.path.append(r'..')
from MongoDB.MongoDBUtil import MongoDBUtil

class MysqlToMongo:

    def __init__(self,mysql_ip,mysql_db,mongo_ip,mongo_db):
        self.mysql_ip = mysql_ip
        self.mysql_db = mysql_db
        self.mongo_ip = mongo_ip
        self.mongo_db = mongo_db
        self.mogo_db = MongoDBUtil(ip="127.0.0.1", port="27017")

    def fun1(self):
        pass

if __name__ == "__main__":
    ip = "127.0.0.1"; port = "27017"
    syncsql = MysqlToMongo(ip, port, ip, port)
    print(syncsql)

4、执行结果

<__main__.MysqlToMongo object at 0x000001F332E2A940> 127.0.0.1 27017

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/03/04 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python3实现MySQL数据增量更新同步到MongoDB
目录 一、MySQL工具类 二、MongoDB工具类 三、数据同步实现代码 一、MySQL工具类 # -*- encoding: utf-8 -*- import pymysql class MySQLUtil: """ MySQL工具类 """ def __init__(self, host="127.0.0.1", user=None, passwd=None, db=None, charset="utf8", *args, **kwargs): ""
静谧星空TEL
2022/01/05
2.4K0
Scrapy+MongoDB 轻松爬取海量妹子图
【原文链接】:https://mp.weixin.qq.com/s/WIrepTu-2CGrGifLLRsHjw
Python数据科学
2018/09/14
1.7K0
Scrapy+MongoDB 轻松爬取海量妹子图
Python脚本监控mysql数据库,P
任务:应帅气的领导要求,需要监控生产环境mysql和mongo数据库服务。不仅要connect successful还要进行数据交互进一步确认数据库服务正常。
py3study
2020/01/08
2.9K0
Scrapy(4)spider 帮助你寻找最美小姐姐
我们都知道我们平常想下载一些漂亮的图片来装饰自己的桌面,可是找到了都是需要收费的网站,真的很恼火,所以今天小编,可能要带大家实现这么一个工具,可以用来爬取某个网站的好看的图片
公众号---人生代码
2020/05/16
5080
使用Python和Scrapy框架进行网络爬虫的全面指南
网络爬虫是一种自动化的程序,用于从互联网上收集信息。Python是一个功能强大的编程语言,拥有许多用于网络爬虫的库和框架。其中,Scrapy是一个流行的开源网络爬虫框架,它提供了一套强大的工具和组件,使得开发和部署爬虫变得更加容易。本文将介绍如何使用Python和Scrapy框架来构建一个简单的网络爬虫。
一键难忘
2024/07/08
5250
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/17
1090
宜信开源|数据库审核软件Themis的规则解析与部署攻略
Themis是宜信公司DBA团队开发的一款数据库审核产品,可帮助DBA、开发人员快速发现数据库质量问题,提升工作效率。其名称源自希腊神话中的正义与法律女神。项目取此名称,寓意此平台对数据库质量公平判断,明察秋毫。
宜信技术学院
2019/06/28
1.3K0
data pipeline是做什么_pycharm创建爬虫项目
爬取爱套图网图片:https://github.com/EExplode/scrapy_aitaotu
全栈程序员站长
2022/10/05
4410
Python小技之自定义不同文件夹下模块导入问题
一般在写一个项目的时候, 为了将项目模块化, 更加的清晰明了, 会将不同功能的模块放入不同的文件夹
不止于python
2022/05/31
1.2K0
Python小技之自定义不同文件夹下模块导入问题
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。
小白学大数据
2025/05/16
440
mongodb11天之屠龙宝刀(一)Linux( CentOS 6.8)安装mongodb
[root@xxxx local]# curl -o mongodb-linux-x86_64-3.4.6.tgz https://fas tdl.mongodb.org/linux/mongodb-linux-x86_64-3.4.6.tgz
学到老
2022/05/07
3840
mongodb11天之屠龙宝刀(一)Linux( CentOS 6.8)安装mongodb
Scrapy框架的使用之Scrapy入门
接下来介绍一个简单的项目,完成一遍Scrapy抓取流程。通过这个过程,我们可以对Scrapy的基本用法和原理有大体了解。 一、准备工作 本节要完成的任务如下。 创建一个Scrapy项目。 创建一个Spider来抓取站点和处理数据。 通过命令行将抓取的内容导出。 将抓取的内容保存的到MongoDB数据库。 二、准备工作 我们需要安装好Scrapy框架、MongoDB和PyMongo库。 三、创建项目 创建一个Scrapy项目,项目文件可以直接用scrapy命令生成,命令如下所示: scrapy st
崔庆才
2018/06/25
1.4K0
分布式爬虫搭建系列 之三---scrapy框架初用
其次,通过我们的神器PyCharm打开我们的项目--crawlquote(也可以将PyCharm打开我们使用虚拟环境创建的项目)
wfaceboss
2019/04/08
5920
分布式爬虫搭建系列 之三---scrapy框架初用
超硬核的MongoDB基础讲解。《记得收藏,不然看着看着就找不到了》
目前我们常用的MS SQL数据库、ACCESS数据库、MongoDB、My SQL数据库等等。 之前我讲过My SQL数据库,有兴趣的朋友可以去看看。今天我们主要讲讲MongoDB。
苏州程序大白
2021/08/13
8390
超硬核的MongoDB基础讲解。《记得收藏,不然看着看着就找不到了》
6000 多款 App,看我如何搞定她们并将其洗白白~
如果说 GitHub 是程序员的天堂,那么 酷安 则是手机 App 爱好者们(别称「搞机」爱好者)的天堂,相比于那些传统的手机应用下载市场,酷安有三点特别之处:
1480
2019/08/05
5610
6000 多款 App,看我如何搞定她们并将其洗白白~
python历险记之模块导入
在任何语言中,依赖管理都是最基础的。在 python 中也不例外。这里我们要从模块和包说起。
小草学习屋
2023/11/22
2330
python历险记之模块导入
适合存储大量爬虫数据的数据库,了解一下?
今天这个坑可能以后你也会遇到, 随着爬取数据量的增加, 以及爬取的网站数据字段的变化, 以往在爬虫入门时使用的方法局限性可能会骤增.
benny
2018/07/26
3.3K0
适合存储大量爬虫数据的数据库,了解一下?
利用 Scrapy 爬取知乎用户信息
  思路:通过获取知乎某个大V的关注列表和被关注列表,查看该大V和其关注用户和被关注用户的详细信息,然后通过层层递归调用,实现获取关注用户和被关注用户的关注列表和被关注列表,最终实现获取大量用户信息。 一、新建一个scrapy项目   scrapy startproject zhihuuser   移动到新建目录下: cd zhihuuser   新建spider项目: scrapy genspider zhihu zhihu.com 二、这里以爬取知乎大V轮子哥的用户信息来实现爬取知乎大量用户信息。 a)
希希里之海
2018/05/16
6690
MongoDB数据库安装部署及优化使用
MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,是类似json的bson格式,因此可以存储比较复杂的数据类型。Mongo最大的特点是它支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引,如果用一句话来概括的话:MongoDB是一个高可用、分布式、灵活模式的文档数据库,用于大容量数据存储。
王先森sec
2023/04/24
7310
Docker快速部署数据库
在学习Docker的基本操作之后,最近恰好遇到一个需要搭建数据库的需求,今天就来一次数据库docker版本的安装配置笔记.其中,Mysql部分记录了通过Dockerhub官方帮助文档完成数据库的安装部署,主要记录思路,mongo部分不在赘述,主要记录操作
打铁读书郎
2024/04/11
2140
推荐阅读
相关推荐
Python3实现MySQL数据增量更新同步到MongoDB
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验