腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
可以
使用
SQL
操作
通过
Pandas
创建
的
数据
帧
吗
?
、
、
、
因此,我正在尝试
创建
一个python脚本,该脚本允许我在
使用
pandas
创建
的
数据
帧
(masterfile)上执行
SQL
操作
。
数据
帧
从特定文件夹中找到
的
csv文件中提取其内容。我能够成功地
创建
其他所有内容,但我在
SQL
操作
部分遇到了麻烦。我正在尝试
使用
数据
帧
作为“
数据
浏览 12
提问于2020-06-28
得票数 0
1
回答
在网页或其他应用程序中
使用
Python结果-
数据
科学
、
我
创建
了一些python脚本,这些脚本
使用
python ML库从我手动
创建
的
CSV文件中进行一些预测和
数据
分析。我需要在我
的
网页(MVC5 WebServer和MS-
SQL
)中
使用
python脚本
的
结果
数据
,换句话说,我想自动化这个过程。我目前了解
SQL
Server外部脚本,但对我来说这是不可能
的
,因为我没有正确
的
版本。 谁能告诉我一些可用
的
浏览 12
提问于2020-04-06
得票数 0
1
回答
使用
更改模式将
数据
插入到增量表中
、
、
如何
通过
改变
数据
库中
的
模式将
数据
插入到增量表中。 在Databricks Scala中,我分解了一个Map列并将其加载到增量表中。我有一个预定义
的
增量表模式。 假设模式有4列A、B、C、D。因此,有一天,我
使用
下面的代码将包含4列
的
数据
帧
加载到增量表中。loadfinaldf.write.format("delta").option("mergeSchema", "true"
浏览 18
提问于2021-10-29
得票数 0
3
回答
Pandas
DataFrame中
的
Python PyTd teradata查询
、
、
我正在
使用
PyTd teradata模块查询来自Teradata
的
数据
,并希望将其读取到熊猫DataFrame中import
pandas
as pd print type(row)row属于teradata.util.Row class,无法追加到
数据
帧
中如何
使用
te
浏览 2
提问于2016-06-16
得票数 0
3
回答
在Python中读取
SQL
表
、
、
、
、
我有一个.
sql
文件,我只想读入Jupyter Notebook中
的
Pandas
数据
帧
。对于CSV文件,我只需要上传文件并
创建
一个
数据
帧
,如下所示:我想我
的
SQL
文件需要
使用
像MySQL这样
的
数据
库应用程序提供服务。也许有某种方法
可以
在本地托管.
sql</em
浏览 3
提问于2018-06-25
得票数 0
1
回答
内存变量中
的
sp_execute_external_script Python可加快处理速度
、
有没有一种方法
可以
使变量保存在内存中(如全局变量),而不必在每次
使用
sp_execute_external_script执行脚本时
使用
pickle.loads加载 我有一个
使用
预处理矩阵处理
数据
的
Python@matrix OUTPUT INSERT INTO MatrixTable(matrix) VALUES(@matrix) 然后,每次运行脚本B时,
通过
一个参数发送矩阵@params = N'@matri
浏览 31
提问于2021-03-22
得票数 3
回答已采纳
1
回答
将单个熊猫
数据
文件导出到多个
SQL
表(自动规范化)
、
、
、
数据
库。,像“人”,像这样:8252552 CHARLIE问题是,我找不到如何在熊猫中
使用
schema方法
的
to_
sql
属性来实现这一点。, (people_id, col1_id, col2_id, total ))这将自动将相应
的
值添加到表(people、col1和col2),
创建
一个具有愿望值和外键
的
行此外,在处理
数据
库时,我不太相信这是一个“最佳实
浏览 4
提问于2020-09-01
得票数 4
2
回答
读取大型csv作为
Pandas
DataFrame
的
速度更快
、
、
、
、
我有一个csv,我正在读到一个熊猫
的
DataFrame,但它需要大约35分钟阅读。csv大约为120 GB。我发现了一个名为cudf
的
模块,它允许图形处理器DataFrame,但它只适用于Linux。Windows也有类似的功能
吗
?
浏览 3
提问于2019-11-13
得票数 0
7
回答
Pandas
更新
sql
、
、
有没有办法在不遍历每一行
的
情况下从
数据
帧
中执行
SQL
update-where?我有一个postgresql
数据
库,要从
数据
帧
更新
数据
库中
的
表,我将
使用
psycopg2并执行以下
操作
: con = psycopg2.connect(database='mydb', user='abc如果我从
sql
中读取表,或者将整个
数据
帧</
浏览 16
提问于2015-08-13
得票数 68
3
回答
pySpark将mapPartitions
的
结果转换为spark DataFrame
、
、
我有一个作业需要在分区
的
spark
数据
帧
上运行,该进程如下所示: rdd = sp_df.repartition(n_partitions, partition_key).rdd.mapPartitions(lambda x: some_function(x)) 结果是
pandas
.dataframe
的
rdd, type(rdd) => pyspark.rdd.PipelinedRDD type(rdd.collect()[0]) =>
pandas
.core.frame.D
浏览 124
提问于2019-12-10
得票数 4
回答已采纳
1
回答
将.
sql
数据
库转储转换为
pandas
数据
帧
、
、
、
我有一个包含
数据
库转储
的
.
sql
文件。我更喜欢将这个文件放到
pandas
数据
框中,这样我就
可以
查看
数据
并对其进行
操作
。愿意接受任何解决方案,但需要明确
的
说明,我以前从未
使用
过.
sql
文件。文件
的
结构如下:-- -- Host: localhost Database
浏览 1
提问于2018-07-17
得票数 3
2
回答
在python中
使用
SQL
-运算符
、
、
我想执行一个减号
操作
,就像下面两个表上
的
代码一样。我有两个
数据
库是这样连接
的
:import
pandas
as pdsource = cx_Oracle.connect(user,password, name) target = pypyod
浏览 2
提问于2020-10-12
得票数 0
回答已采纳
1
回答
Python打印用户定义
的
二维数组中
的
行
、
我有一个基于用户输入
的
从
SQL
导入
的
行列表(
使用
PyMySQL)。有时,这些返回
的
行数
可以
超过5000行(它们存储在一个二维数组中,至少有4列)。这对于用户在打印出屏幕时能够阅读是不切实际
的
。我已经实现了一个限制器,它将根据用户
的
输入返回前X个行数。但是,我想返回行
的
样本,而不是第一个X。即,如果用户选择了100行,而不是得到前100行,他们将得到由阵列中
的
随机行组成
的
大小为100
的</em
浏览 24
提问于2019-05-14
得票数 1
回答已采纳
3
回答
在Jupyter Notebook上
使用
Python
创建
数据
库
、
、
、
、
因此,我正在为一个较大
的
程序构建一个
数据
库,并且在该编码领域(主要是嵌入式系统编程)方面没有太多经验。我
的
任务是把一个大
的
excel文件导入到python中。它很大,所以我假设我必须将它转换为CSV,然后
通过
解析、分区和导入来截断它,以避免我
的
计算机崩溃。导入文件后,我必须能够根据列标题提取/搜索特定信息。还有其他一些简单
的
基于字符串
的
用户交互方面,所以并不是很困难。至于其余
的
,我正在得到
的
图片,但希望更有
浏览 34
提问于2018-09-01
得票数 0
1
回答
使用
PySpark从Blob存储容器加载CSV文件
、
、
、
我无法
使用
Jupyter Notebook中
的
PySpark将CSV文件从Azure Blob Storage直接加载到RDD中。我已经通读了几乎所有其他类似问题
的
答案,但我还没有找到关于我想要做什么
的
具体说明。我知道我也
可以
使用
Pandas
将
数据
加载到Notebook中,但之后我需要将Panda DF转换为RDD。我理想
的
解决方案应该是这样
的
,但是这个特定
的
代码给我
的
错误是它不能
浏览 21
提问于2019-04-28
得票数 0
1
回答
pyspark:
创建
多个dataframe失败
、
、
我想将几个大型
Pandas
数据
帧
转换为Spark
数据
帧
,然后对它们进行
操作
和合并,如下所示:from pyspark import SparkContext,SQLContext= SQLContext(sc)spark_df2 =
sql
.createDataFrame(df2) 但是有些地方出了问题/si
浏览 208
提问于2020-06-08
得票数 0
回答已采纳
1
回答
Python3:
使用
Python连接到PostgreSQL...如何让结果查询在
pandas
dataframe中以行
的
形式返回?
、
、
、
、
我已经
通过
Jupyter Notebook将我
的
python连接到了我本地
的
postgresql
数据
库。我能够成功地运行SELECT查询,并从我
的
表中提取
数据
。但是,我希望将postgresql表中
的
数据
行显示为dataframe,而不是当前拥有的
数据
帧
。下面是我
的
代码: conn = psycopg2.connect("dbname=juke user=postgres")
浏览 25
提问于2019-09-10
得票数 0
回答已采纳
1
回答
在星火中RDD和Dataframe有什么区别?
、
我去了
的
链接 我们能不能运行
Pandas
,numpy
数据
帧
功能上
的
火花。对于numpy the np.where和像df.groupby‘’..agg()这样
的
熊猫
浏览 5
提问于2020-01-21
得票数 0
回答已采纳
1
回答
Pandas
版本0.22.0 - drop_duplicates()获得意外
的
关键字参数'keep‘
、
、
、
我正在尝试
使用
子集(drop_duplicates=‘’,keep=False)在我
的
数据
帧
中删除重复项。显然,它在我
的
Jupyter Notebook中工作正常,但当我试图
通过
终端以.py文件
的
形式执行时,我得到了以下错误: Traceback (most recent call last): File"/home/source/fork/PySpark_Analytics/Notebooks/
浏览 110
提问于2019-06-20
得票数 1
1
回答
使用
pyodbc
的
SQL
查询,其中所选
数据
位于
数据
帧
中
、
、
、
、
当我想要将查询到
的
数据
内部连接到
pandas
数据
帧
上时,查询
SQL
(T-
SQL
)
数据
库
的
最有效方法是什么?我不知道如何
通过
PYODBC查询将信息从Python传递到
SQL
中,所以我目前最好
的
想法是以一种我知道与我
的
Python
数据
帧
一致
的
方式形成查询(即我知道所有的信息都有STARTDATE > 201
浏览 9
提问于2019-03-05
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pandas与SQL的数据操作语句对照
pandas系列学习(五):数据连接
企业可以使用区块链来解决数据管理的问题吗?
SQL和Python的集合操作对比:适合的就是最好的!
这样做能让你的 pandas 循环加快 71803 倍
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券