首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何将生产环境的字段类型从INT修改为BIGINT

本文描述了我如何计划和执行从INT到BIGINT数据类型的更改。该技术在单独的SQL服务器实例上创建表的新副本,并使用BIGINT数据类型,然后使用对象级恢复将其移到生产数据库中。...另一个方案就是建议使用INT的负值。这意味着要重新设定INT从-1 到-2.147 billion 行,这也只是短时间的解决问题。不能一劳永逸或者长期作为处理方式。...然后,我将新的表(PersonNEW)从备份恢复到新的staging数据库。 这是一种烟雾测试,以确保相同的对象级别恢复,从开发到生产将完全按照预期工作。...在验收和生产过程中,流程按照以下步骤进行: 将生产数据库的完整数据库备份恢复到开发/测试环境。 在还原的数据库中,用BIGINT代替INT创建副本表。...这种方法将停机时间从可能的9小时缩短到15分钟,并且大量的密集工作都从生产实例中删除了。我没有看到使用对象级恢复对表的恢复有多大影响。 总结 有许多方法可以将数据类型更改用于生产数据库。

3K10

如何将生产环境的字段类型从INT修改为BIGINT

本文描述了我如何计划和执行从INT到BIGINT数据类型的更改。该技术在单独的SQL服务器实例上创建表的新副本,并使用BIGINT数据类型,然后使用对象级恢复将其移到生产数据库中。...另一个方案就是建议使用INT的负值。这意味着要重新设定INT从-1 到-2.147 billion 行,这也只是短时间的解决问题。不能一劳永逸或者长期作为处理方式。...然后,我将新的表(PersonNEW)从备份恢复到新的staging数据库。 这是一种烟雾测试,以确保相同的对象级别恢复,从开发到生产将完全按照预期工作。...在验收和生产过程中,流程按照以下步骤进行: 将生产数据库的完整数据库备份恢复到开发/测试环境。 在还原的数据库中,用BIGINT代替INT创建副本表。...这种方法将停机时间从可能的9小时缩短到15分钟,并且大量的密集工作都从生产实例中删除了。我没有看到使用对象级恢复对表的恢复有多大影响。 总结 有许多方法可以将数据类型更改用于生产数据库。

5.1K80
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    在机器学习中处理大量数据!

    target=https%3A//blog.csdn.net/suzyu12345/article/details/79673483 3.PySpark实战小练 数据集:从1994年人口普查数据库中提取...文件 df.show(3) #用来显示前3行 注意:pyspark必须创建SparkSession才能像类似于pandas一样操作数据集 我们看看数据集: cols = df.columns #和pandas...true) |-- native-country: string (nullable = true) |-- income: string (nullable = true) #找到所有的string类型的变量...#dtypes用来看数据变量类型 cat_features = [item[0] for item in df.dtypes if item[1]=='string'] # 需要删除 income列,...原来是使用VectorAssembler直接将特征转成了features这一列,pyspark做ML时 需要特征编码好了并做成向量列, 到这里,数据的特征工程就做好了。

    2.3K30

    spark 数据处理 -- 数据采样【随机抽样、分层抽样、权重抽样】

    spark 代码样例 scala 版本 sampleBy python版本 spark 数据类型转换 参考文献 简介 简单抽样方法都有哪些?...简单抽样一般分为: RandomSampling - 随机采样 StratifiedSampling - 分层采样 WeightedSampling - 权重采样 计算逻辑 随机采样 系统随机从数据集中采集样本...分层采样 分层抽样法也叫类型抽样法。它是从一个可以分成不同子总体(或称为层)的总体中,按规定的比例从不同层中随机抽取样品(个体)的方法。这种方法的优点是,样本的代表性比较好,抽样误差比较小。...highlight=sample#pyspark.RDD.sample pyspark dataframe 文档: http://spark.apache.org/docs/latest/api/python...: Map[T, Double], seed: Long): DataFrame Returns a stratified sample without replacement based on the

    6.4K10

    Spark Extracting,transforming,selecting features

    ,下面例子演示了如何将5维特征向量映射到3维主成分; from pyspark.ml.feature import PCA from pyspark.ml.linalg import Vectors...多项式展开是将特征展开到多项式空间的过程,这可以通过原始维度的n阶组合,PolynomailExpansion类提供了这一功能,下面例子展示如何将原始特征展开到一个3阶多项式空间; from pyspark.ml.feature...).transform(df) result.show() Imputer Imputer用于对数据集中的缺失值进行填充,可以通过均值或者中位数等对指定未知的缺失值填充,输入特征需要是Float或者Double...Double.NaN 2.0 Double.NaN Double.NaN 3.0 4.0 4.0 5.0 5.0 在这个例子中,Imputer会替换所有Double.NaN为对应列的均值,a列均值为3...,b列均值为4,转换后,a和b中的NaN被3和4替换得到新列: a b out_a out_b 1.0 Double.NaN 1.0 4.0 2.0 Double.NaN 2.0 4.0 Double.NaN

    21.9K41

    大数据开发!Pandas转spark无痛指南!⛵

    图解数据分析:从入门到精通系列教程图解大数据技术:从入门到精通系列教程图解机器学习算法:从入门到精通系列教程数据科学工具库速查表 | Spark RDD 速查表数据科学工具库速查表 | Spark SQL...(data).toDF(*columns)# 查看头2行df.limit(2).show() 指定列类型 PandasPandas 指定字段数据类型的方法如下:types_dict = { "employee...'), "age": pd.Series([r[4] for r in data], dtype='int')}df = pd.DataFrame(types_dict)Pandas 可以通过如下代码来检查数据类型...:df.dtypes PySparkPySpark 指定字段数据类型的方法如下:from pyspark.sql.types import StructType,StructField, StringType...= spark.createDataFrame(data=data,schema=schema)PySpark 可以通过如下代码来检查数据类型:df.dtypes# 查看数据类型 df.printSchema

    8.2K72

    独家 | PySpark和SparkSQL基础:如何利用Python编程执行Spark(附代码)

    1、下载Anaconda并安装PySpark 通过这个链接,你可以下载Anaconda。你可以在Windows,macOS和Linux操作系统以及64位/32位图形安装程序类型间选择。...第一步:从你的电脑打开“Anaconda Prompt”终端。 第二步:在Anaconda Prompt终端中输入“conda install pyspark”并回车来安装PySpark包。...5.5、“substring”操作 Substring的功能是将具体索引中间的文本提取出来。在接下来的例子中,文本从索引号(1,3),(3,6)和(1,6)间被提取出来。...10、缺失和替换值 对每个数据集,经常需要在数据预处理阶段将已存在的值替换,丢弃不必要的列,并填充缺失值。pyspark.sql.DataFrameNaFunction库帮助我们在这一方面处理数据。...请访问Apache Spark doc获得更详细的信息。

    13.7K21

    PySpark UD(A)F 的高效使用

    用户定义的聚合函数(UDAF)通常用于更复杂的聚合,而这些聚合并不是常使用的分析工具自带的。 这就是RDD API发挥作用的地方。...4.基本想法 解决方案将非常简单。利用to_json函数将所有具有复杂数据类型的列转换为JSON字符串。因为Arrow可以轻松处理字符串,所以可以使用pandas_udf装饰器。...在UDF中,将这些列转换回它们的原始类型,并进行实际工作。如果想返回具有复杂类型的列,只需反过来做所有事情。...这意味着在UDF中将这些列转换为JSON,返回Pandas数据帧,并最终将Spark数据帧中的相应列从JSON转换为复杂类型 [2enpwvagkq.png] 5.实现 将实现分为三种不同的功能: 1)...除了转换后的数据帧外,它还返回一个带有列名及其转换后的原始数据类型的字典。 complex_dtypes_from_json使用该信息将这些列精确地转换回它们的原始类型。

    19.7K31
    领券