首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Sqoop快速入门系列(3) | Sqoop常用命令及参数解析(建议收藏!!!)

按照某一列来切分表的工作单元,不能与–autoreset-to-one-mapper连用(请参考官方文档) 13 –table 关系数据库的表名 14 –target-dir 指定HDFS路径 15...–warehouse-dir 与14参数不能同时使用,导入数据到HDFS时指定的目录 16 –where 从关系数据库导入数据时的查询条件 17 –z或–compress 允许压缩 18 –compression-codec...–input-null-non-string 请参考import该类似参数说明 9 –staging-table 创建一张临时表,用于存放所有事务的结果,然后将所有事务结果一次性导入到目标表中,防止错误...hive表 5 –table 指定关系数据库的表名 3.5 命令&参数:eval 可以快速的使用SQL语句对关系型数据库进行操作,经常用于在import数据之前,了解一下SQL语句是否正确,数据是否正常...4 –direct 5 –direct-split-size 这些参数的含义均和import对应的含义一致 6 –inline-lob-limit 7 –m或—num-mappers 8 –warehouse-dir

2.4K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    大数据技术之Sqoop

    4.1.1、RDBMS到HDFS 1) 确定Mysql服务开启正常 2) 在Mysql中新建一张表并插入一些数据 $ mysql -uroot -p000000 mysql> create database...CONDITIONS关键字 12 --split-by 按照某一列来切分表的工作单元,不能与--autoreset-to-one-mapper连用(请参考官方文档...warehouse-dir 与14参数不能同时使用,导入数据到HDFS时指定的目录 16 --where 从关系数据库导入数据时的查询条件 17...该类似参数说明 9 --staging-table 创建一张临时表,用于存放所有事务的结果,然后将所有事务结果一次性导入到目标表中,防止错误...table 指定关系数据库的表名 5.2.9、命令&参数:eval 可以快速的使用SQL语句对关系型数据库进行操作,经常用于在import数据之前,了解一下SQL语句是否正确,数据是否正常

    1K00

    大数据技术之_12_Sqoop学习_Sqoop 简介+Sqoop 原理+Sqoop 安装+Sqoop 的简单使用案例+Sqoop 一些常用命令及参数

    4.1.1 从 RDBMS 到 HDFS 1) 确定 Mysql 服务开启正常 查询监控端口或者查询进程来确定,以下两种办法可以确认mysql是否在启动运行状态: 办法一:查询端口 $ netstat ...关键字 12 --split-by 按照某一列来切分表的工作单元,不能与--autoreset-to-one-mapper连用(请参考官方文档) 13 --table 关系数据库的表名 14 --target-dir 指定 HDFS 路径 15 --warehouse-dir 与14参数不能同时使用,导入数据到 HDFS...请参考import该类似参数说明 9 --staging-table 创建一张临时表,用于存放所有事务的结果,然后将所有事务结果一次性导入到目标表中,防止错误...table 指定关系数据库的表名 5.2.9 命令&参数:eval   可以快速的使用 SQL 语句对关系型数据库进行操作,经常用于在 import 数据之前,了解一下 SQL 语句是否正确,数据是否正常

    2.6K30

    Sqoop工具模块之sqoop-import 原

    在执行并行导入时,Sqoop需要一个可以分割工作负载的标准。Sqoop使用列来分割工作量。默认情况下,Sqoop将识别表中的主键列(如果存在)并将其用作拆分列。...Oozie将在第一个Sqoop作业期间对Sqoop依赖关系的每个工作节点执行本地化,并将工作节点上的jar包重用于子作业。     ...--target-dir与--warehouse-dir不相容。只能使用两者之一。     使用direct模式时,可以指定应传递给底层工具的其他参数。...1.创建表     如果目标表和列族不存在,则Sqoop作业将退出并显示错误。在运行导入之前,应该创建目标表。     ...注意:只有--hbase-row-key在指定了参数的情况下,Sqoop才能正常导入具有联合主键的表。

    5.9K20

    Sqoop-1.4.4工具import和export使用详解

    对象的大小 -m,--num-mappers 使用n个map任务并行导入数据 -e,--query 导入的查询语句 --split-by 指定按照哪个列去分割数据 --table 导入的源表表名 --target-dir...导入HDFS的目标路径 --warehouse-dir HDFS存放表的根路径 --where 指定导出时所使用的查询条件 -z,--compress 启用压缩 --compression-codec...上面的--target-dir指向的其实就是Hive表存储的数据目录。...input-null-non-string 使用指定字符串,替换非字符串类型值为null的列 --staging-table 在数据导出到数据库之前,数据临时存放的表名称 --clear-staging-table 清除工作区中临时存放的数据...如果在导出的时候出现类似如下的错误: 01 14/02/27 17:59:06 INFO mapred.JobClient: Task Id : attempt_201402260008_0057_m_

    1.2K10

    Sqoop抽数到Hive表异常分析

    Fayson的github: https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1.问题描述 使用Sqoop抽取MySQL数据到Hive表时,抽取语句正常执行但数据没有写入...hive_hosts \ --m 1 \ --input-null-string '\\N' \ --input-null-non-string '\\N' (可左右滑动) 在命令行执行上述Sqoop脚本,显示作业正常执行...2.异常处理及分析 1.在Sqoop抽数的脚本中存在target-dir参数,指向的HDFS数据目录,为hive_hosts表的仓库目录,将target-dir参数去掉执行 ? 脚本执行成功 ?...2.使用hive命令查看hive_hosts表,数据已正常的抽取到hive_hosts表中 ?...target-dir参数说明及影响: 在Sqoop抽数脚本中,指定了target-dir目录Sqoop抽取的数据会写到target-dir指定的目录,在Sqoop完成数据抽取后会将target-dir目录的数据

    1K10

    mysql数据库备份方法_oracle数据库备份文件格式

    全量 xtrabackup:物理,热,全量 + 增量备份 一、 什么是 MySQL 主备 情况一: 客户端的业务操作,读、写访问的是主库 主库通过某种机制,将数据实时同步给备库 主库由于有些原因,无法正常响应客户端的请求...dev2\test\mysqldump\sources.list mysql-dump-test:/etc/apt/ # 进入容器以后,执行下面命令更新apt信息 apt-get update 完成上述准备工作以后...即可开始安装xtrabackup: 将下载好的文件percona-xtrabackup-80_8.0.13-1.buster_amd64.deb,拷贝到容器中 通过dpkg来安装,第一次执行会报错,根据错误提示信息...test\mysqldump\percona-xtrabackup-80_8.0.13-1.buster_amd64.deb mysql-dump-test:/data # 执行第一次安装,此时会出现错误提示...即使我们使用了带where 条件(如:income>720)的delete语句,但 binlog 记录的是要删除的主键id(id =80 ),所以不会出现差错。

    78020

    利用Xtrabackup进行mysql增量备份和全量备份

    准备备份 xtrabackup --prepare --target-dir=/data/backups/mysql 复制备份 我这里为了演示全量备份就直接将我博客 mysql 存储的数据目录给移动一下...备份成功 重新启动 博客还能正常访问 哈哈哈哈 # 将恢复目录的属主更改一下 chown -R mysql:mysql mysql /etc/init.d/mysql start 如果恢复玩不想要备份数据可以使用...恢复 xtrabackup --copy-back --target-dir=/data/backups/base 中间插入的数据就能看见了,真棒!...当InnoDB启动时,InnoDB会检查数据文件和事务日志,并执行两个步骤:它应用(前滚)已经提交的 事务日志到数据文件,并将修改过但没有提交的数据进行回滚操作。...可以参见 参见 man xtrabackup 为什么备份完后要准备备份 "prepare" 一般情况下,在备份完成后,数据尚且不能用于恢复操作,因为备份的数据中可能会包含尚未提交的事务或已经提交但尚未同步至数据文件中的事务

    1.5K20

    MySQL数据库备份实操

    dev2\test\mysqldump\sources.list mysql-dump-test:/etc/apt/ # 进入容器以后,执行下面命令更新apt信息 apt-get update 完成上述准备工作以后...即可开始安装xtrabackup: 将下载好的文件percona-xtrabackup-80_8.0.13-1.buster_amd64.deb,拷贝到容器中 通过dpkg来安装,第一次执行会报错,根据错误提示信息...test\mysqldump\percona-xtrabackup-80_8.0.13-1.buster_amd64.deb mysql-dump-test:/data # 执行第一次安装,此时会出现错误提示...backups/base1/ /var/lib/mysql/ # 退出容器后,执行容器重启,完成恢复 docker restart mysql-dump-test 同时,上述rsync也可以用如下命令替代,但需要保证...=/data/backups/base2 # 逐项恢复增量备份 xtrabackup --prepare --apply-log-only --target-dir=/data/backups/base2

    1K40

    如何把 MySQL 备份验证性能提升 10 倍

    为了模拟一个正常的数据库读写场景,通过 SysBench 以秒 50 个请求的压力访问数据库,在该压力下数据库对数据盘造成的写数据在 8~10MiB/s 范围内。...# xtrabackup --backup --target-dir=/jfs/base/ 为了保证每次数据准备操作的数据完全一样,使用 JuiceFS 的快照(snapshot)功能基于 /jfs/base.../juicefs mount volume-demoz /jfs # time xtrabackup --prepare --apply-log-only --target-dir=/jfs/base_snapshot...# time xtrabackup --prepare --use-memory=4G --apply-log-only --target-dir=/jfs/base_snapshot 执行时间降到了33...数据准备是要把 xtrabackup_logfile 中的所有数据更新合并到数据文件中,可见即使数据规模增大了 10 倍,但更新单条日志的时间基本不变。

    58720

    Percona XtraBackup 8.0.26实战大全

    no-server-version-check参数,会将备份源版本和Percona Xtrabackup版本对比 源系统和PXB版本一样,备份继续 源系统低于PXB版本,备份继续 源系统大于PXB版本,且参数未被覆盖,停止备份并返回错误...4.2 全量恢复 准备工作,由于使用--backup备份数据文件时时间点时不一致的(备份增量redo日志线程会实时监听增量数据),因为程序在不同的时间点复制,并且再复制过程中可能会被更改,如果使用innodb...=/data1/xtrabackup/full/ 应用中继日志 Shell> xtrabackup --prepare --apply-log-only --target-dir=/data1...--target-dir=/data/compressed/ InnoDB: Starting shutdown......备份恢复: Shell> xtrabackup --copy-back --target-dir=/data/backups/ 7.

    1K40

    助力工业物联网,工业大数据项目之数据采集

    mysql://hostname:3306 –username –password –table –columns –where -e/–query 导入参数 –delete-target-dir –target-dir...oracle.bigdata.cn:1521:helowin \ --username ciss \ --password 123456 \ --table CISS4.CISS_BASE_AREAS \ --target-dir...资源问题:APPMaster就没有启动 环境问题 NodeManager进程问题:进程存在,但不工作 机器资源不足导致YARN或者HDFS服务停止:磁盘超过90%,所有服务不再工作...TextFile Hive默认的文件格式,最简单的数据格式,便于查看和编辑,耗费存储空间,I/O性能较低 SequenceFile 含有键值对的二进制文件,优化磁盘利用率和I/O,并行操作数据,查询效率高,但存储空间消耗最大...-username ciss \ --password 123456 \ --table CISS4.CISS_SERVICE_WORKORDER \ --delete-target-dir \ --target-dir

    58520

    【详解】SQOOP安装部署

    可以通过运行以下命令验证 Hadoop 是否正常工作:hadoop version安装 MySQL如果需要从 MySQL 导入或导出数据,需要先安装 MySQL 并配置好相关服务。...jdbc:mysql://localhost:3306/testdb \--username root \--password your_password \--table employees \--target-dir...可以尝试使用 ​​telnet​​ 命令测试连接:telnet localhost 3306Sqoop 报错查看 Sqoop 的日志文件,通常位于 ​​$SQOOP_HOME/logs​​ 目录下,根据错误信息进行排查...jdbc:mysql://localhost:3306/testdb \--username root \--password your_password \--table employees \--target-dir...测试 Sqoop 安装运行以下命令来测试 Sqoop 是否正确安装:sqoop help如果一切正常,你应该会看到 Sqoop 的帮助信息。8.

    7400
    领券