91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

服務(wù)器誤刪除郵件數(shù)據(jù)的數(shù)據(jù)恢復(fù)案例

Frombyte ? 來源:Frombyte ? 作者:Frombyte ? 2022-09-22 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境:

8塊盤組成的RAID5磁盤陣列;
EXT3文件系統(tǒng)。


服務(wù)器故障:

由于誤刪除導(dǎo)致文件系統(tǒng)中的郵件丟失。


服務(wù)器數(shù)據(jù)恢復(fù)過程:

一、服務(wù)器數(shù)據(jù)恢復(fù)工程師為每塊磁盤做鏡像, 后續(xù)所有的數(shù)據(jù)恢復(fù)操作都在鏡像盤上進(jìn)行, 不會(huì)對(duì)原始磁盤數(shù)據(jù)造成二次破壞。

poYBAGMr1U6AOot4AAB4laMRdgw508.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

二、分析數(shù)據(jù)在硬盤中分布的規(guī)律,獲取RAID類型、RAID條帶大小、每塊磁盤的順序等RAID信息。根據(jù)獲取到的RAID信息重新組建RAID。

pYYBAGMr1VyAA4HVAABobj6xDqQ276.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

三、從組建好的RAID中可以看到上層劃分了數(shù)個(gè)EXT3分區(qū)。通過分析每個(gè)EXT3分區(qū)中的底層數(shù)據(jù),發(fā)現(xiàn)一個(gè)分區(qū)里面有大量的郵件頭和nsmail目錄。確認(rèn)此分區(qū)就是數(shù)據(jù)恢復(fù)的目標(biāo)分區(qū),使用工具將此分區(qū)導(dǎo)出以便后續(xù)處理。

RAID中的所有分區(qū)如下:

poYBAGMr1WSAE4MbAABBtQx8SkU432.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

nsmail文件夾:

pYYBAGMr1WuAYR7NAABJdksXBnE719.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

郵件頭示例:

pYYBAGMr1XGAUexwAACccQ8llOg538.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

四、恢復(fù)郵件。

由于EXT3文件系統(tǒng)中的文件被刪除后,節(jié)點(diǎn)中的文件大小和塊指針都被清零,很難通過常規(guī)手段去恢復(fù)。針對(duì)EXT3文件系統(tǒng)的特點(diǎn)和郵件文件本身的結(jié)構(gòu),數(shù)據(jù)恢復(fù)工程師制定恢復(fù)方案:首先對(duì)整個(gè)文件系統(tǒng)做掃描,將找到的郵件文件全部取出,然后根據(jù)郵件本身記錄的收件人、發(fā)件人、抄送、主題等信息進(jìn)行整理,最后再將數(shù)據(jù)遷移到263平臺(tái)上。

郵件恢復(fù)的詳細(xì)過程:

1、北亞數(shù)據(jù)恢復(fù)工程師編寫識(shí)別收發(fā)人、主題等memi標(biāo)識(shí)的程序和ext3超過48k郵件的提取程序。

2、按小于48k、大于48k兩種算法對(duì)郵件進(jìn)行提取。提取的同時(shí)生成郵件索引信息庫,并提取非自由空間和非郵件區(qū)。

3、人工分析提取的非自由空間和非郵件區(qū),確認(rèn)是否有遺漏的郵件。如果有遺漏則確定遺漏的原因,調(diào)整算法重新進(jìn)行掃描。

4、重復(fù)2、3這2步的過程,直到所有的非自由空間和非郵件區(qū)中沒有遺漏的郵件。

5、把所有提取出的郵件按照數(shù)據(jù)庫中解析到的收件人和發(fā)件人歸類,每個(gè)賬號(hào)一個(gè)文件夾(內(nèi)含收件和發(fā)件兩個(gè)文件夾)。

郵件恢復(fù)結(jié)果:

第一次導(dǎo)出郵件68.2G,692,767個(gè)文件

第二次改進(jìn)算法,導(dǎo)出郵件77.2G,720,209個(gè)文件。

第三次再次改進(jìn)算法,導(dǎo)出郵件84.8G,895,032個(gè)文件。

總的存儲(chǔ)空間是605G,郵件區(qū)占用84.8G,剩下的自由空間屬于全零區(qū)域,肯定沒有郵件了,非自由空間和非郵件區(qū)的垃圾數(shù)據(jù)有幾十G。

經(jīng)過3次算法改進(jìn)和記不清多少次的細(xì)節(jié)增刪,經(jīng)過人工驗(yàn)證在剩余的非自由空間和非郵件區(qū)已經(jīng)無法找到新的郵件文件。剩下的一些郵件中間碎片無法進(jìn)行拼接,然后還有一些雜亂的數(shù)據(jù)。

郵件中間碎片:

poYBAGMr1XuAEW3vAAJgW-N_TJo579.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

垃圾數(shù)據(jù):

poYBAGMr1YKAKKUUAACfNkpprYY942.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

驗(yàn)證數(shù)據(jù):

驗(yàn)證數(shù)據(jù)分為兩部分,一是郵件數(shù)據(jù)量的驗(yàn)證,通過對(duì)幾個(gè)已知賬號(hào)的收件和發(fā)件數(shù)量的統(tǒng)計(jì)大概估算一下郵件的回復(fù)比例。二是郵件正確性的驗(yàn)證,用FoxMail打開提取出的郵件,查看內(nèi)容是否正常。經(jīng)過用戶反復(fù)驗(yàn)證,確認(rèn)本次恢復(fù)出來的數(shù)據(jù)完整有效。

幾個(gè)賬號(hào)的數(shù)量如下:

poYBAGMr1YmAA5coAABwfeUYWbs363.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

一些郵件內(nèi)容:

pYYBAGMr1ZGAH7t_AAD1QRih7ZI730.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

poYBAGMr1ZiAZ6tpAAFvxFz39zQ831.png

北亞數(shù)據(jù)恢復(fù)——恢復(fù)郵件數(shù)據(jù)

移交數(shù)據(jù):

配合用戶將所有提取出的郵件遷移到263平臺(tái)。至此本次數(shù)據(jù)恢復(fù)完成。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    服務(wù)器數(shù)據(jù)恢復(fù)】多盤掉線RAID6數(shù)據(jù)恢復(fù):基于Reed-Solomon算法的修復(fù)

    ,當(dāng)?shù)谌龎K硬盤離線后,RAID崩潰,服務(wù)器癱瘓,業(yè)務(wù)被迫停滯。 此時(shí),如果直接更換硬盤重新組建陣列,陣列中的所有數(shù)據(jù)將全部丟失。服務(wù)器管理員嘗試分析和恢復(fù)數(shù)據(jù),雖然找回了一部分
    的頭像 發(fā)表于 03-05 16:37 ?304次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)服務(wù)器raid5陣列raid模塊損壞的數(shù)據(jù)恢復(fù)案例

    某品牌服務(wù)器上面有一組由多塊硬盤組建的riad5陣列。意外斷電后管理員重啟服務(wù)器發(fā)現(xiàn)該服務(wù)器無法使用。 根據(jù)用戶方描述的情況,服務(wù)器數(shù)據(jù)
    的頭像 發(fā)表于 01-29 16:46 ?199次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)服務(wù)器“泡水”硬盤掉線,數(shù)據(jù)竟這樣恢復(fù)

    北亞企安數(shù)據(jù)恢復(fù)中心的服務(wù)器數(shù)據(jù)恢復(fù)工程師和硬件工程師到現(xiàn)場(chǎng)處理故障。服務(wù)器
    的頭像 發(fā)表于 01-22 17:38 ?1041次閱讀
    【<b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>】<b class='flag-5'>服務(wù)器</b>“泡水”硬盤掉線,<b class='flag-5'>數(shù)據(jù)</b>竟這樣<b class='flag-5'>恢復(fù)</b>

    服務(wù)器數(shù)據(jù)恢復(fù)—一文讀懂服務(wù)器高頻故障排查+標(biāo)準(zhǔn)數(shù)據(jù)恢復(fù)流程

    服務(wù)器數(shù)據(jù)恢復(fù)到底是一個(gè)什么樣的流程? 服務(wù)器數(shù)據(jù)丟失后,進(jìn)行數(shù)據(jù)
    的頭像 發(fā)表于 01-08 11:11 ?320次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—意外斷電!Linux服務(wù)器數(shù)據(jù)恢復(fù)大揭秘

    某品牌服務(wù)器+存儲(chǔ),安裝的linux操作系統(tǒng)。 機(jī)房意外斷電導(dǎo)致服務(wù)器操作系統(tǒng)無法正常啟動(dòng),服務(wù)器管理員故障服務(wù)器進(jìn)行修復(fù)操作后進(jìn)入系統(tǒng)查看數(shù)據(jù)
    的頭像 發(fā)表于 11-18 11:20 ?438次閱讀

    Netapp數(shù)據(jù)恢復(fù)—Netapp存儲(chǔ)數(shù)據(jù)恢復(fù)揭秘

    某公司一臺(tái)服務(wù)器中一共有72塊SAS硬盤。 工作人員誤操作刪除了十幾個(gè)lun。需要恢復(fù)服務(wù)器中的數(shù)據(jù)
    的頭像 發(fā)表于 10-28 15:26 ?415次閱讀
    Netapp<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—Netapp存儲(chǔ)<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>揭秘

    Mysql數(shù)據(jù)恢復(fù)—Windows Server下MySQL(InnoDB)全表誤刪數(shù)據(jù)恢復(fù)案例

    本地服務(wù)器,操作系統(tǒng)為windows server。服務(wù)器上部署mysql單實(shí)例,innodb引擎,獨(dú)立表空間。未進(jìn)行數(shù)據(jù)庫備份,未開啟binlog。 人為誤操作使用Delete命令刪除數(shù)據(jù)
    的頭像 發(fā)表于 09-23 15:56 ?738次閱讀
    Mysql<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—Windows Server下MySQL(InnoDB)全表<b class='flag-5'>誤刪</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器數(shù)據(jù)恢復(fù)—RAIDZ多塊硬盤離線導(dǎo)致服務(wù)器崩潰的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境&故障: 一臺(tái)服務(wù)器有32塊硬盤,采用Windows操作系統(tǒng)。 服務(wù)器在正常運(yùn)行的時(shí)候突然變得不可用。沒有異常斷電、進(jìn)
    的頭像 發(fā)表于 09-18 12:29 ?898次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—RAIDZ多塊硬盤離線導(dǎo)致<b class='flag-5'>服務(wù)器</b>崩潰的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器數(shù)據(jù)恢復(fù)服務(wù)器斷電導(dǎo)致raid模塊損壞的數(shù)據(jù)恢復(fù)案例

    某品牌服務(wù)器中有12塊硬盤,組建了一組raid5磁盤陣列,服務(wù)器內(nèi)存儲(chǔ)的是普通文件。 機(jī)房供電不穩(wěn)定導(dǎo)致服務(wù)器斷電,管理員重啟服務(wù)器后發(fā)現(xiàn)服務(wù)器
    的頭像 發(fā)表于 09-04 12:57 ?812次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)服務(wù)器上的卷被誤刪數(shù)據(jù)如何恢復(fù)

    工作人員不慎將一臺(tái)服務(wù)器上的卷誤刪除,服務(wù)器上有一組raid5陣列。需要恢復(fù)誤刪除數(shù)據(jù)。
    的頭像 發(fā)表于 08-14 11:33 ?982次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—<b class='flag-5'>服務(wù)器</b>上的卷被<b class='flag-5'>誤刪</b><b class='flag-5'>數(shù)據(jù)</b>如何<b class='flag-5'>恢復(fù)</b>?

    服務(wù)器數(shù)據(jù)恢復(fù)—硬盤離線導(dǎo)致raid上層的卷無法掛載的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境&故障: 某公司一臺(tái)服務(wù)器上有一組由24塊FC硬盤組建的raid。 服務(wù)器出現(xiàn)故障,無法正常工作。 經(jīng)過初步檢測(cè),管
    的頭像 發(fā)表于 07-29 13:00 ?603次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—Linux系統(tǒng)服務(wù)器崩潰的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: linux操作系統(tǒng)服務(wù)器中有一組由4塊SAS接口硬盤組建的raid5陣列。 服務(wù)器故障:
    的頭像 發(fā)表于 05-20 15:46 ?875次閱讀

    分布式存儲(chǔ)數(shù)據(jù)恢復(fù)—虛擬機(jī)上hbase和hive數(shù)據(jù)數(shù)據(jù)恢復(fù)案例

    分布式存儲(chǔ)數(shù)據(jù)恢復(fù)環(huán)境: 16臺(tái)某品牌R730xd服務(wù)器節(jié)點(diǎn),每臺(tái)服務(wù)器節(jié)點(diǎn)上有數(shù)臺(tái)虛擬機(jī)。 虛擬機(jī)上部署Hbase和Hive數(shù)據(jù)庫。
    的頭像 發(fā)表于 04-17 11:05 ?723次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—AIX小型機(jī)誤刪數(shù)據(jù)如何恢復(fù)!

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 存儲(chǔ)設(shè)備通過光纖通道將3個(gè)LUN映射到AIX小型機(jī)。通過AIX-LVM技術(shù)將物理卷(PV)構(gòu)建為卷組(VG),并在卷組空間內(nèi)創(chuàng)建2個(gè)邏輯卷(LV):oradata1
    的頭像 發(fā)表于 04-16 18:12 ?604次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—AIX小型機(jī)<b class='flag-5'>誤刪</b><b class='flag-5'>數(shù)據(jù)</b>如何<b class='flag-5'>恢復(fù)</b>!

    服務(wù)器數(shù)據(jù)恢復(fù)—如何預(yù)防服務(wù)器故障與恢復(fù)服務(wù)器數(shù)據(jù)

    服務(wù)器常見故障: 硬件故障:磁盤損壞、電池故障等。 軟件問題:操作系統(tǒng)崩潰、未知的程序運(yùn)行錯(cuò)誤等。 病毒破壞:勒索病毒加密、刪除服務(wù)器數(shù)據(jù)等。 不可控力量;
    的頭像 發(fā)表于 03-11 12:36 ?1220次閱讀