PS:使用dd命令进行全盘或者部分分区复制强烈建议准备一个LiveCD,建议使用Ubuntu Desktop 22.04启动U盘作为这个LiveCD;同时需要准备一个空的数据存储盘,空间要大于要复制的硬盘或者分区
由于疫情影响,上幼儿园的大儿子在家待了几个月了。最近他迷恋玩电脑了,为了防止他沉迷其中,为父只好把win10系统换成了deepin20。系统安装好后,不料一时疏忽大意误把数据分区给格式化了,所以就产生了这篇数据恢复的操作记录。
数据恢复是敏感场景,尽量不要友情支持,这里面风险太大,愿意尝试的话,可以找第三方数据恢复软件自己尝试,或者找第三方数据恢复公司。
在Linux系统中,系统盘和数据盘是指存储设备的两种不同用途。系统盘通常用于安装操作系统和存储系统文件,而数据盘用于存储用户数据和应用程序等信息。本文将详细介绍系统盘和数据盘的定义、区别以及在Linux系统中的应用。
如果使用正式版挂载失败,可以考虑使用后面的测试版,特别是安装过Windows系统的如果遇到无法挂载数据盘的情况可以考虑使用测试版脚本。
cloud-init是在创建虚拟机时能够对虚拟机进行一些初始化操作的工程。在虚拟机启动的时候,对虚拟机进行一些列的操作,例如常用的:自动设置 虚拟机hostanme,设置虚拟机用户初始密码,自动安装软件等。OpenStack也支持配置cloud-init,本文介绍如何在openstack中使用cloud-init以及部分源码分析。
qemu-img convert -f raw -O qcow2 /dev/nvme1n1 /mnt/data-10G.qcow2
检查 CVM 实例使用本地盘的情况,若实例为非 IO 或大数据类型,且使用了本地盘,则磁盘数据无法通过快照备份,存在容灾风险。
在云计算时代,不管是从IDC上云还是多云直接的迁移,都已经是常见的事宜。而在上云/迁移的方案中,也是有多种的方式能够将主机迁移到腾讯云中。
前言:拷贝系统盘功能是一些系统受损,系统无法登录,或无法通过远程的方法将数据拿出的情景下将系统盘的数据拷贝到数据盘中。此功能尚在灰度阶段,如果控制台没有此功能,需要提工单申请开通。
之前和客户沟通需求的时候,在前端沟通时出现障碍,并未告知原来机器的具体情况,导致迁移不完整,差点丢失数据,记录一下操作的方法和过程,也算是一种经历。
📚 文档目录 合集-数的二进制表示-定点运算-BCD 码-浮点数四则运算-内置存储器-Cache-外存-纠错-RAID-内存管理-总线-指令集: 特征- 指令集:寻址方式和指令格式 RAID 基本思想 使用多个磁盘, 分散的 I/O 请求, 以至于单一的 I/O 请求可以被并行处理, 只要请求的数据分散在不同的磁盘上. 特点 RAID 是被视为一块逻辑磁盘的一组物理磁盘. 数据交叉分布在物理磁盘上. 冗余的磁盘可用于存储奇偶校验信息, 以保证再磁盘故障的情况下的数据可恢复性. RAID 0 数据在可用的磁盘
初始化Linux数据盘(fdisk)TkV南京数据恢复-西数科技: 硬盘/手机/SSD数据恢复专家. 025-83608636 18913825606
根据给定的云服务器ID列表,批量启动云服务器,一次最多可以启动1000台。POST /v1/{project_id}/cloudservers/action参数说明请参见表1。参数说明参数是否必选描述project_id是项目ID。获取方法请参见获取项目ID。请参考响应(任务类)。启动云服务器请求参数中,必须以“os-start”字段下发
本次分享的案例是由于机房突然断电导致整个存储瘫痪,加电后存储依然无法使用。经过用户方工程师诊断后认为是断电导致存储阵列损坏。整个存储是由12块盘组成的RAID-6磁盘阵列,被分成一个卷,分配给几台Vmware的ESXI主机做共享存储。整个卷中存放了大量的Windows虚拟机,虚拟机基本都是模板创建的,系统盘都为统一大小,数据盘大小不确定,并且数据盘都是精简模式。
CVM (Cloud Virtual Machine) 是运行在云上的虚拟机.云上环境使其能够自由迁移,具备了规避绝大多数硬件故障的能力.但是由于各种各样的原因,有时候也难免出现软件故障导致无法使用.本文将对常见的 CVM 软件故障进行分析,并介绍快速恢复的办法.
各位小伙伴们大家好,我们又见面啦~ 这里是《你问我答》栏目第四期 上周推送了一篇关于腾讯SuperSQL的文章 《「解耦」方能「专注」——腾讯天穹SuperSQL跨引擎计算揭秘》 很多同学对这个项目产生了浓厚的兴趣 本期,我们的专家老师将现身说法 进一步为大家介绍腾讯大数据SQL引擎天穹SuperSQL的性能表现 同时,也会解答小伙伴们关于 腾讯一站式实时计算平台Oceanus 以及分布式 HTAP 数据库管理系统Tbase 的部分疑问 对这些话题感兴趣的同学就快来看看吧! 01 @旧故里草木深:
手动挂载: 1.远程SSH登录上Centos服务器,并进行如下操作 注意:挂载操作会清空数据,请确认挂载盘无数据或者未使用 1,列出所有磁盘 命令:ll /dev/disk/by-path(注意:ll是字母LL的小写,不是数字11) 2.格式化硬盘 /dev/sdb 命令:#fdisk /dev/sdb 按方框提示操作。 3.创建分区 命令:mkfs.ext4 /dev/sdb1 4.将数据盘挂载为/www 命令:#mount /dev/sdb1 /www 5.最后一步是写入硬盘启动信息,下次重启后自动挂载数据盘。 命令为:echo "/dev/sdb1 /www ext4 defaults 0 0" >> /etc/fstab
Raid0 :最少需要两块盘, 没用冗余数据,不做备份,任何一块磁盘损坏都无法运行。n块磁盘(同类型)的阵列理论上读写速度是单块磁盘的n倍(实际达不到),风险性也是单一n倍(实际更高),是磁盘阵列中存储性能最好的。适用于安全性不高,要求比较高性能的图形工作站或者个人站。
本文讲述了一台服务器上运行的XenServer虚拟化中一台VPS(虚拟专用服务器)出现故障,导致虚拟机操作系统丢失的问题的解决过程。通过分析底层数据,最终发现是虚拟机磁盘被破坏,导致操作系统和数据丢失。经过一系列操作,最终使用RAR压缩包修复了数据,并重新附加到数据库环境中,查询最新数据正常。
由于服务器突然断电,造成我公司Xen Server服务器中一台VPS(即Xen Server虚拟机)不可用,虚拟磁盘文件丢失。硬件环境是Dell 720服务器配戴一张H710P的RAID卡,由4块希捷2T STAT硬盘组成的RAID 10,上层环境是Xen Server 6.2版本操作系统,虚拟机是Windows Server 2003系统,10G系统盘 + 5G数据盘两个虚拟机磁盘,上层是Web服务器(ASP + SQL 2005的网站架构)。
根据群晖官网的教程,在更换 NAS 中的硬盘后只需通过 USB 移动硬盘盒将原硬盘连接,即可复制数据。然而 reizhi 在尝试后发现,对于 Basic 类型的数据盘,群晖能够识别但不会自动挂载。原因是为了后期扩展性,群晖将单盘 Basic 也设置成了 RAID1。考虑到从电脑中转再复制到群晖多有不便,最终还是找到了手动从 USB 挂载群晖数据盘的方法,在此分享给大家。
3、 read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作
目前流行的软件定义存储相关的开源项目主要有GlusterFS、Swift、Lustre和Ceph。这四个项目各有各的特点:GlusterFS提供文件存储,Swift提供对象存储,Lustre主要用在高性能计算,Ceph则基于一套系统提供块、对象及文件功能。
在HP存储RAID5硬盘离线LVM下VXFS文件系统是如何进行恢复的呢?HP存储也是在企业中常用的存储设备了,本次分享的故障设备为:HP FC MSA2000存储,由于RAID5阵列中出现2块硬盘损坏并离线,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用,整个存储空间由8块450GB SAS的硬盘组成,其中7块硬盘组成一个RAID5的阵列,剩余1块做成热备盘使用。
用户背景 :文件储存在系统盘,想扩容需要重装系统,想知道如何备份和恢复当前系统盘数据。
本次分享的案例是关于HP FC MSA2000存储瘫痪抢救Oracle数据库的案例,故障存储整个存储空间由8块硬盘组成,其中7块硬盘组成一个RAID5的阵列,剩余1块做成热备盘使用。由于RAID5阵列中出现2块硬盘损坏,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用。 由于存储是因为RAID阵列中某些磁盘掉线,从而导致整个存储不可用。因此接收到磁盘以后先对所有磁盘做物理检测,检测完后发现没有物理故障。排除物理故障后对数据全部备份后在进行进一步的分析。 【故障分析】 1、分析故障原因 由于前两个步骤并没有检测到磁盘有物理故障或者是坏道,由此推断可能是由于某些磁盘读写不稳定导致故障发生。因为HP MSA2000控制器检查磁盘的策略很严格,一旦某些磁盘性能不稳定,HP MSA2000控制器就认为是坏盘,就将认为是坏盘的磁盘踢出RAID组。而一旦RAID组中掉线的盘到达到RAID级别允许掉盘的极限,那么这个RAID组将变的不可用,上层基于RAID组的LUN也将变的不可用。目前初步了解的情况为基于RAID组的LUN有6个,均分配给HP-Unix小机使用,上层做的LVM逻辑卷,重要数据为Oracle数据库及OA服务端。 2、分析RAID组结构 HP MSA2000存储的LUN都是基于RAID组的,因此需要先分析底层RAID组的信息,然后根据分析的信息重构原始的RAID组。分析每一块数据盘,发现4号盘的数据同其它数据盘不太一样,初步认为可能是hot Spare盘。接着分析其他数据盘,分析Oracle数据库页在每个磁盘中分布的情况,并根据数据分布的情况得出RAID组的条带大小,磁盘顺序及数据走向等RAID组的重要信息。 3、分析RAID组掉线盘 根据上述分析的RAID信息,尝试通过北亚RAID虚拟程序将原始的RAID组虚拟出来。但由于整个RAID组中一共掉线两块盘,因此需要分析这两块硬盘掉线的顺序。仔细分析每一块硬盘中的数据,发现有一块硬盘在同一个条带上的数据和其他硬盘明显不一样,因此初步判断此硬盘可能是最先掉线的,通过北亚RAID校验程序对这个条带做校验,发现除掉刚才分析的那块硬盘得出的数据是最好的,因此可以明确最先掉线的硬盘了。 4、分析RAID组中的LUN信息 由于LUN是基于RAID组的,因此需要根据上述分析的信息将RAID组最新的状态虚拟出来。然后分析LUN在RAID组中的分配情况,以及LUN分配的数据块MAP。由于底层有6个LUN,因此只需要将每一个LUN的数据块分布MAP提取出来。然后针对这些信息编写相应的程序,对所有LUN的数据MAP做解析,然后根据数据MAP并导出所有LUN的数据。 【数据恢复过程】 1、解析修复LVM逻辑卷 分析生成出来的所有LUN,发现所有LUN中均包含HP-Unix的LVM逻辑卷信息。尝试解析每个LUN中的LVM信息,发现其中一共有三套LVM,其中45G的LVM中划分了一个LV,里面存放OA服务器端的数据,190G的LVM中划分了一个LV,里面存放临时备份数据。剩余4个LUN组成一个2.1T左右的LVM,也只划分了一个LV,里面存放Oracle数据库文件。编写解释LVM的程序,尝试将每套LVM中的LV卷都解释出来,但发现解释程序出错。 仔细分析程序报错的原因,安排开发工程师debug程序出错的位置,并同时安排高级文件系统工程师对恢复的LUN做检测,检测LVM信息是否会因存储瘫痪导致LMV逻辑卷的信息损坏。经过仔细检测,发现确实因为存储瘫痪导致LVM信息损坏。尝试人工对损坏的区域进行修复,并同步修改程序,重新解析LVM逻辑卷。 2、解析VXFS文件系统 搭建环境,将解释出来的LV卷映射到搭建好的环境中,并尝试Mount文件系统。结果Mount文件系统出错,尝试使用“fsck –F vxfs” 命令修复vxfs文件系统,但修复结果还是不能挂载,怀疑底层vxfs文件系统的部分元数据可能破坏,需要进行手工修复。 3、修复VXFS文件系统 仔细分析解析出来的LV,并根据VXFS文件系统的底层结构校验此文件系统是否完整。分析发现底层VXFS文件系统果然有问题,原来当时存储瘫痪的同时此文件在系统正在执行IO操作,因此导致部分文件系统元文件没有更新以及损坏。人工对这些损坏的元文件进行手工修复,保证VXFS文件系统能够正常解析。再次将修复好的LV卷挂载到HP-Unix小机上,尝试Mount文件系统,文件系统没有报错,成功挂载。 4、检测Oracle数据库文件并启动数据库 在HP-Unix机器上mount文件系统后,将所有用户数据均备份至指定磁盘空间。所有用户数据大小在1TB左右。 使用Oracle数据库文件检测工具“dbv”检测每个数据库文件是否完整,发现并没有错误。再使用北亚Oracle数据库检测工具,发现有部分数据库文件和日志文件校验不一致,安排北亚工程师对此类文件进行修复
在《树莓派自建 NAS 云盘》系列的 第一篇 文章中,我们讨论了建立 NAS 的一些基本步骤,添加了两块 1TB 的存储硬盘驱动(一个用于数据存储,一个用于数据备份),并且通过网络文件系统(NFS)将数据存储盘挂载到远程终端上。本文是此系列的第二篇文章,我们将探讨数据自动备份。数据自动备份保证了数据的安全,为硬件损坏后的数据恢复提供便利以及减少了文件误操作带来的不必要的麻烦。
导语:文章是 Amazon 在SIGMOD'17 上最新发表的关于 Aurora论文的翻译版本,详尽的介绍了 Aurora 设计背后的驱动和思考,以及如何在云上实现一个同时满足高并发、高吞吐量、高稳定
windows 服务器,误操作将网卡驱动卸载后,可以通过系统中内置的驱动文件重新安装来恢复:
活动时间:2018年12月12日至2018年12月31日,每天两场秒杀,时间分别为:9:00-12:00,14:00-18:00。
机房突然断电导致整个存储瘫痪,加电后存储依然无法使用。经过用户方工程师诊断后认为是断电导致存储阵列损坏。
对于进程正在使用文件的场景,数据可以恢复是由于Linux系统下文件包含两个部分:inode 和 block ,其中 inode 中每个文件都有 2 个计数器:i_count 和 i_nlink 。只有当 i_count 和 i_nlink 均为 0 时,文件才算被删除,但被其他进程调用的文件,i_count 将不为 0。
①vnc里不能使用,4.7没有这个bug,4.8没测试,4.9-5.1都有这个bug,5.2版本解决了这个bug
1.离线迁移需要借助对象存储(COS)的支持,请先确保您所在地域在 COS 支持范围内,详见如下文档:
近日,沃趣科技QPlus V5.5.0正式发布。本次版本更新旨在解决用户于数据存储、备份和管理方面的痛点,极大改善了用户的数据库运维和管理体验。
写一篇迟到的折腾笔记:NUC8 8i5beh 。原本计划折腾 Hackintosh ,最后折腾了一台 Linux Homelab 设备。
ceph-mon和ceph-mds需要2G内存,每个ceph-osd进程需要1G内存。
原文https://ecloud.10086.cn/op-help-center/show/F230B8AC46DA76B8
将网站文件,数据库等信息放在数据盘中,万一需要重装系统时,数据还在。就像我们的电脑,把资料放在D盘,重装C盘后资料还在一样。安全又方便。
我们在购买腾讯云服务器的时候(腾讯云服务器CVM购买详细过程 选择我们需要的腾讯云服务器)有看到可以增加数据盘,而且每台服务器可以增加10块数据盘。因为有些网友的项目是需要较大数据的,笔者见过最大的用户有需要1000GB数据盘。
因服务器突然断电原因导致Xen Server服务器中一台VPS(即Xen Server虚拟机)不可用,虚拟磁盘文件丢失,通过电话联系北亚数据来进行恢复。硬件环境是Dell 720服务器配戴一张H710P的RAID卡,由4块希捷2T STAT硬盘组成的RAID 10,上层环境是Xen Server 6.2版本操作系统,虚拟机是Windows Server 2003系统,10G系统盘 + 5G数据盘两个虚拟机磁盘,上层是Web服务器(ASP + SQL 2005的网站架构)。 【数据恢复过程】 将客户数据盘以磁盘底层扇区的方式镜像到备份空间上后,仔细分析底层数据发现Xen Server服务器中虚拟机的磁盘都是以LVM的结构存放的,即每个虚拟机的虚拟磁盘都是一个LV,并且虚拟磁盘的模式是精简模式的。LVM的相关信息在Xen Server中都有记载,查看“/etc/lvm/backup/frombtye.com “下LVM的相关信息发现并没有存在损坏的虚拟磁盘信息,因此可以断定LVM的信息已经被更新了。接着分析底层看能否找到未被更新的LVM信息,在底层发现了还未更新的LVM信息。 根据未被更新的LVM信息找到了虚拟磁盘的数据区域,发现该区域的数据已被破坏。分析后发现造成虚拟机不可用的最终原因是因为虚拟机的虚拟磁盘被破坏,从而导致虚拟机中的操作系统和数据丢失。而导致这种情况的发生很有可能是虚拟机遭遇网络攻击或hack入侵后留下恶意程序造成的。仔细核对这片区域后发现,虽然该区域有很多数据被破坏了,但还是发现了很多数据库的页碎片。因此可以尝试将许多数据库的页碎片拼成一个可用的数据库。
cvm拷贝系统盘很简单,买块比cvm系统盘大10G且跟cvm同地域、同可用区的数据盘,不要挂载,保持待挂载状态,然后申请售后人员开通cvm实例所在账号uin的拷贝系统盘的白名单,然后关机,在cvm实例右侧 → 更多 → 实例设置 → 点"拷贝系统盘数据" → 选择那块比系统盘大10G的数据盘进行拷贝,拷贝结束后把数据盘挂到一台正常系统的机器就可以拿出其中的数据了。可参考https://cloud.tencent.com/developer/article/1387468 。
领取专属 10元无门槛券
手把手带您无忧上云