91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TiDB分布式數(shù)據(jù)庫運維實踐

馬哥Linux運維 ? 來源:馬哥Linux運維 ? 2026-03-04 15:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、概述

1.1 背景介紹

TiDB 是 PingCAP 開發(fā)的開源分布式關(guān)系型數(shù)據(jù)庫,兼容 MySQL 5.7 協(xié)議,底層存儲基于 TiKV(分布式 KV 存儲)和 RocksDB。它解決的核心問題是:當(dāng)單機(jī) MySQL 無法承載數(shù)據(jù)量或?qū)懭雺毫r,提供一個對應(yīng)用透明的水平擴(kuò)展方案。

TiDB 8.x 在性能、穩(wěn)定性和 MySQL 兼容性上都有顯著提升,TiFlash 列存引擎的成熟使其成為 HTAP(混合事務(wù)分析處理)場景的可行選擇。但 TiDB 不是 MySQL 的直接替代品,它有自己的架構(gòu)約束和使用邊界,盲目遷移會踩很多坑。

1.2 架構(gòu)組件

TiDB 集群由四個核心組件構(gòu)成,每個組件職責(zé)清晰:

TiDB Server:無狀態(tài)的 SQL 層,負(fù)責(zé)解析 SQL、生成執(zhí)行計劃、協(xié)調(diào)事務(wù)??梢运綌U(kuò)展,多個 TiDB Server 共享同一份數(shù)據(jù)。

TiKV:分布式 KV 存儲,數(shù)據(jù)以 Region(默認(rèn) 96MB)為單位分片,每個 Region 有 3 個副本分布在不同 TiKV 節(jié)點上,通過 Raft 協(xié)議保證一致性。

PD(Placement Driver):集群的大腦,負(fù)責(zé)存儲集群元數(shù)據(jù)、分配全局唯一時間戳(TSO)、調(diào)度 Region 分布。PD 是強(qiáng)一致的,必須部署奇數(shù)個節(jié)點(通常 3 個)。

TiFlash:列存引擎,異步從 TiKV 同步數(shù)據(jù),專為 OLAP 查詢優(yōu)化。TiFlash 副本與 TiKV 副本獨立,不影響 OLTP 性能。

1.3 適用場景

單表數(shù)據(jù)量超過 5 億行,MySQL 分庫分表方案維護(hù)成本過高

寫入 TPS 超過單機(jī) MySQL 上限(通常 > 5 萬 TPS)

需要同時支持 OLTP 和實時分析查詢(HTAP)

需要跨地域多活部署,對 RPO/RTO 有嚴(yán)格要求

1.4 環(huán)境要求

組件 最小規(guī)格(生產(chǎn)) 推薦規(guī)格 說明
TiDB Server 8C 16GB 16C 32GB 無狀態(tài),按負(fù)載水平擴(kuò)展
TiKV 8C 32GB,SSD 1TB 16C 64GB,NVMe 2TB 存儲節(jié)點,I/O 密集
PD 4C 8GB,SSD 200GB 8C 16GB 3 節(jié)點,存儲元數(shù)據(jù)
TiFlash 8C 32GB,SSD 1TB 16C 64GB,NVMe 2TB 按需部署,OLAP 場景
操作系統(tǒng) CentOS 7.6+ / Rocky 8+ Rocky Linux 8 需要關(guān)閉 NUMA 綁定

二、詳細(xì)步驟

2.1 部署前準(zhǔn)備

2.1.1 系統(tǒng)配置

TiDB 對系統(tǒng)配置有嚴(yán)格要求,以下配置必須在部署前完成:

# 關(guān)閉 swap(TiKV 對內(nèi)存壓力敏感,swap 會導(dǎo)致性能抖動)
swapoff -a
sed -i'/swap/d'/etc/fstab

# 設(shè)置系統(tǒng)參數(shù)
cat >> /etc/sysctl.conf <> /etc/security/limits.conf < /sys/kernel/mm/transparent_hugepage/enabled
echonever > /sys/kernel/mm/transparent_hugepage/defrag
# 持久化
cat >> /etc/rc.local < /sys/kernel/mm/transparent_hugepage/enabled
echonever > /sys/kernel/mm/transparent_hugepage/defrag
EOF

# 檢查 NTP 時間同步(PD 的 TSO 依賴時鐘同步)
timedatectl status
chronyc tracking | grep"System time"
# 要求各節(jié)點時鐘偏差 < 50ms

2.1.2 安裝 TiUP

TiUP 是 TiDB 的官方部署和管理工具,類似于 MySQL 的 mysqladmin:

# 安裝 TiUP(在中控機(jī)上執(zhí)行)
curl --proto'=https'--tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

# 加載環(huán)境變量
source~/.bashrc

# 驗證安裝
tiup --version

# 安裝 cluster 組件
tiup cluster

2.2 集群部署

2.2.1 拓?fù)渑渲梦募?/p>

# 文件路徑:/opt/tidb/topology.yaml
# 最小生產(chǎn)集群:3 PD + 3 TiKV + 2 TiDB

global:
user:"tidb"
ssh_port:22
deploy_dir:"/tidb-deploy"
data_dir:"/tidb-data"
# 日志目錄
log_dir:"/tidb-log"

# 服務(wù)器資源配置
server_configs:
tidb:
 log.slow-threshold:300    # 慢查詢閾值,單位 ms
 performance.max-procs:0    # 0 表示使用所有 CPU
 prepared-plan-cache.enabled:true# 開啟 prepared statement 緩存
 tikv-client.max-batch-wait-time:2000000# 批量請求等待時間,單位 ns

tikv:
 # RocksDB 配置
 rocksdb.defaultcf.block-cache-size:"8GB" # 根據(jù)內(nèi)存調(diào)整,建議內(nèi)存的 30-40%
 rocksdb.writecf.block-cache-size:"2GB"
 # Raft 配置
 raftstore.sync-log:true    # 生產(chǎn)環(huán)境必須開啟
 raftstore.raft-base-tick-interval:"1s"
 # 存儲配置
 storage.reserve-space:"5GB"  # 預(yù)留空間,防止磁盤寫滿導(dǎo)致 TiKV panic

pd:
 replication.max-replicas:3   # 數(shù)據(jù)副本數(shù)
 replication.location-labels:["host"]# 副本分布策略
 schedule.leader-schedule-limit:4
 schedule.region-schedule-limit:2048

pd_servers:
-host:10.0.1.10
-host:10.0.1.11
-host:10.0.1.12

tidb_servers:
-host:10.0.1.13
 port:4000
 status_port:10080
-host:10.0.1.14
 port:4000
 status_port:10080

tikv_servers:
-host:10.0.1.15
 port:20160
 status_port:20180
 config:
  server.labels:{host:"tikv-1"}
-host:10.0.1.16
 port:20160
 status_port:20180
 config:
  server.labels:{host:"tikv-2"}
-host:10.0.1.17
 port:20160
 status_port:20180
 config:
  server.labels:{host:"tikv-3"}

monitoring_servers:
-host:10.0.1.10

grafana_servers:
-host:10.0.1.10

2.2.2 部署和啟動

# 檢查拓?fù)渑渲?tiup cluster check /opt/tidb/topology.yaml --user root

# 自動修復(fù)可修復(fù)的問題
tiup cluster check /opt/tidb/topology.yaml --user root --apply

# 部署集群
tiup cluster deploy tidb-prod v8.1.0 /opt/tidb/topology.yaml --user root

# 啟動集群
tiup cluster start tidb-prod

# 查看集群狀態(tài)
tiup cluster display tidb-prod

# 連接 TiDB(默認(rèn) root 無密碼,立即修改)
mysql -h 10.0.1.13 -P 4000 -u root

# 修改 root 密碼
ALTER USER'root'@'%'IDENTIFIED BY'TiDB@Root2024!';

三、MySQL 兼容性邊界

3.1 支持的功能

TiDB 兼容 MySQL 5.7 協(xié)議,大多數(shù) DDL、DML、事務(wù)操作都能正常使用。以下功能完全支持:

標(biāo)準(zhǔn) SQL(SELECT/INSERT/UPDATE/DELETE/JOIN)

事務(wù)(BEGIN/COMMIT/ROLLBACK,支持悲觀和樂觀兩種模式)

存儲過程、函數(shù)、觸發(fā)器(8.x 版本已基本完善)

分區(qū)表(Range、Hash、List 分區(qū))

JSON 數(shù)據(jù)類型和函數(shù)

窗口函數(shù)

3.2 不支持或有差異的功能

這是遷移到 TiDB 前必須逐一確認(rèn)的清單:

-- 1. 不支持 FOREIGN KEY 約束(語法不報錯,但不強(qiáng)制執(zhí)行)
-- TiDB 會忽略外鍵約束,應(yīng)用層需要自行保證數(shù)據(jù)完整性

-- 2. 不支持 FULLTEXT 索引
-- 需要改用 Elasticsearch 或其他全文搜索方案

-- 3. AUTO_INCREMENT 行為不同
-- TiDB 的 AUTO_INCREMENT 在分布式環(huán)境下不保證連續(xù),只保證唯一和遞增
-- 如果業(yè)務(wù)依賴 AUTO_INCREMENT 的連續(xù)性,需要改造
-- 推薦使用 AUTO_RANDOM 替代,避免寫熱點:
CREATETABLEorders (
 idBIGINTAUTO_RANDOM PRIMARYKEY, -- 隨機(jī)分配,避免熱點
  user_idBIGINTNOTNULL,
  created_atTIMESTAMPDEFAULTCURRENT_TIMESTAMP
);

-- 4. 不支持 LOCK TABLES 和 UNLOCK TABLES
-- 需要改用事務(wù)或 SELECT ... FOR UPDATE

-- 5. 不支持 GET_LOCK() / RELEASE_LOCK()
-- 分布式鎖需要用 Redis 或其他方案實現(xiàn)

-- 6. 存儲過程中不支持游標(biāo)的某些用法
-- 建議在應(yīng)用層處理復(fù)雜邏輯

-- 7. 字符集:推薦使用 utf8mb4,其他字符集支持有限

3.3 事務(wù)模式選擇

TiDB 支持兩種事務(wù)模式,選擇錯誤會導(dǎo)致性能問題:

-- 悲觀事務(wù)(默認(rèn),8.x 版本):行為與 MySQL 一致,適合高沖突場景
-- 樂觀事務(wù):提交時才檢測沖突,適合低沖突場景,性能更好但需要處理沖突重試

-- 查看當(dāng)前事務(wù)模式
SHOWVARIABLESLIKE'tidb_txn_mode';

-- 會話級別切換
SETtidb_txn_mode ='optimistic';

-- 全局切換(my.cnf 中配置)
-- tidb_txn_mode = "pessimistic"

四、熱點問題排查

4.1 熱點的成因

TiDB 的數(shù)據(jù)按 Region 分片,每個 Region 有一個 Leader 負(fù)責(zé)讀寫。熱點問題是指大量請求集中到少數(shù)幾個 Region,導(dǎo)致這些 Region 所在的 TiKV 節(jié)點 CPU 和 I/O 打滿,而其他節(jié)點空閑。

常見熱點場景:

AUTO_INCREMENT 寫熱點:順序遞增的主鍵導(dǎo)致新數(shù)據(jù)總是寫入最后一個 Region

時間序列寫熱點:按時間排序的數(shù)據(jù)(日志、訂單)寫入模式與 AUTO_INCREMENT 類似

熱門數(shù)據(jù)讀熱點:某些 key 被頻繁讀?。衢T商品、用戶信息)

4.2 熱點排查

-- 通過 TiDB Dashboard 查看熱點(推薦)
-- 訪問 http://10.0.1.10:2379/dashboard

-- 通過 SQL 查看熱點 Region
SELECT*FROMinformation_schema.TIKV_REGION_STATUS
WHEREIS_INDEX =0
ORDERBYWRITTEN_BYTESDESC
LIMIT20;

-- 查看熱點表
SELECTTABLE_NAME, WRITTEN_BYTES, READ_BYTES
FROMinformation_schema.TIKV_REGION_STATUS
WHEREIS_INDEX =0
ORDERBYWRITTEN_BYTES + READ_BYTESDESC
LIMIT10;

-- 查看 Region 分布是否均勻
SELECTSTORE_ID,COUNT(*)asregion_count
FROMinformation_schema.TIKV_REGION_STATUS
GROUPBYSTORE_ID
ORDERBYregion_countDESC;

4.3 熱點解決方案

-- 方案一:使用 AUTO_RANDOM 替代 AUTO_INCREMENT(推薦)
-- AUTO_RANDOM 在高位隨機(jī)填充,數(shù)據(jù)均勻分布到所有 Region
ALTERTABLEordersMODIFYCOLUMNidBIGINTAUTO_RANDOM;

-- 方案二:SHARD_ROW_ID_BITS(對已有表)
-- 將行 ID 的高位用于分片,減少熱點
ALTERTABLElogsSHARD_ROW_ID_BITS =4; -- 分成 2^4=16 個分片

-- 方案三:PRE_SPLIT_REGIONS(建表時預(yù)分裂)
-- 建表時就創(chuàng)建多個 Region,避免初始寫入熱點
CREATETABLEevents(
 idBIGINTAUTO_RANDOM PRIMARYKEY,
  event_typeVARCHAR(50),
  created_atTIMESTAMP
) PRE_SPLIT_REGIONS =4; -- 預(yù)分裂為 4 個 Region

-- 方案四:手動分裂熱點 Region
-- 找到熱點 Region ID 后手動分裂
-- 通過 TiDB Dashboard 或 pd-ctl 操作

五、故障排查和監(jiān)控

5.1 Dashboard 監(jiān)控關(guān)鍵指標(biāo)

TiDB Dashboard(內(nèi)置于 PD)提供了最直觀的監(jiān)控視圖,訪問地址:http://:2379/dashboard

關(guān)鍵監(jiān)控面板:

Overview 面板:
- QPS:每秒查詢數(shù),區(qū)分 SELECT/INSERT/UPDATE/DELETE
- Latency:P99 延遲,正常應(yīng) < 100ms
- Connection Count:連接數(shù),接近 max_connections 時告警

TiKV 面板:
- gRPC Duration:TiDB 到 TiKV 的 RPC 延遲,P99 > 50ms 需關(guān)注
- Storage:各 TiKV 節(jié)點的磁盤使用量,不均勻說明有熱點
- Raft Store CPU:Raft 處理 CPU,持續(xù) > 80% 說明寫入壓力過大

PD 面板:
- Region Health:unhealthy region 數(shù)量,正常應(yīng)為 0
- Scheduler:Region 調(diào)度頻率,頻繁調(diào)度說明集群不均衡
- TSO:時間戳分配延遲,P99 > 2ms 需關(guān)注

5.2 慢查詢分析

-- 查看慢查詢?nèi)罩荆═iDB 將慢查詢存儲在系統(tǒng)表中)
SELECTquery_time, parse_time, compile_time, exec_details,
   query,user, db
FROMinformation_schema.SLOW_QUERY
WHEREquery_time >1-- 超過 1 秒
ORDERBYquery_timeDESC
LIMIT20;

-- 分析執(zhí)行計劃
EXPLAINANALYZESELECT*FROMordersWHEREuser_id =12345;

-- 查看是否走了全表掃描
-- 關(guān)注 task 列中的 "TableFullScan",應(yīng)盡量避免

-- 強(qiáng)制使用索引
SELECT*FROMordersUSEINDEX(idx_user_id)WHEREuser_id =12345;

-- 查看統(tǒng)計信息是否過期(統(tǒng)計信息不準(zhǔn)會導(dǎo)致執(zhí)行計劃退化)
SHOWSTATS_METAWHEREtable_name ='orders';

-- 手動更新統(tǒng)計信息
ANALYZETABLEorders;

5.3 常見問題排查

5.3.1 日志查看

# TiDB Server 日志
tail -f /tidb-log/tidb/tidb.log | grep -i"error|warn"

# TiKV 日志
tail -f /tidb-log/tikv/tikv.log | grep -i"error|slow"

# PD 日志
tail -f /tidb-log/pd/pd.log | grep -i"error|warn"

# 通過 TiUP 查看集群狀態(tài)
tiup cluster display tidb-prod

# 查看組件日志
tiup cluster audit tidb-prod

5.3.2 常見問題

問題一:寫入延遲突然升高

# 檢查 TiKV 磁盤 I/O
iostat -x 1 5

# 檢查是否有 Region 調(diào)度風(fēng)暴
# 訪問 Dashboard -> PD -> Scheduler 面板

# 檢查 RocksDB compaction 是否積壓
grep"compaction"/tidb-log/tikv/tikv.log | tail -20

問題二:事務(wù)沖突導(dǎo)致大量重試

-- 查看事務(wù)沖突統(tǒng)計
SHOWSTATUSLIKE'tidb_txn_retry%';

-- 查看鎖等待情況
SELECT*FROMinformation_schema.DATA_LOCK_WAITS;

-- 查看當(dāng)前活躍事務(wù)
SELECT*FROMinformation_schema.TIDB_TRXWHEREstate ='LockWaiting';

問題三:Region 不均衡

# 使用 pd-ctl 查看 Region 分布
tiup ctl:v8.1.0 pd -u http://10.0.1.10:2379 region --jq'.regions | map(select(.leader.store_id)) | group_by(.leader.store_id) | map({store: .[0].leader.store_id, count: length})'

# 觸發(fā)手動均衡
tiup ctl:v8.1.0 pd -u http://10.0.1.10:2379 operator add balance-region 

5.4 性能監(jiān)控指標(biāo)

指標(biāo)名稱 正常范圍 告警閾值 說明
QPS P99 延遲 < 50ms > 200ms 整體查詢延遲
TiKV gRPC P99 < 20ms > 100ms TiDB 到 TiKV 的 RPC 延遲
PD TSO P99 < 2ms > 10ms 時間戳分配延遲
Region 健康數(shù) 0 > 0 異常 Region 數(shù)量
TiKV CPU < 70% > 90% TiKV 節(jié)點 CPU 使用率
Raft apply log duration < 1ms > 10ms Raft 日志應(yīng)用延遲

5.5 備份與恢復(fù)

# 使用 BR(Backup & Restore)工具進(jìn)行全量備份
tiup br backup full 
 --pd"10.0.1.10:2379"
 --storage"local:///backup/tidb/$(date +%Y%m%d)"
 --log-file /var/log/tidb/br_backup.log 
 --concurrency 4

# 增量備份(基于上次備份的時間點)
tiup br backup full 
 --pd"10.0.1.10:2379"
 --storage"s3://your-bucket/tidb-backup/$(date +%Y%m%d)"
 --s3.endpoint"https://s3.amazonaws.com"
 --log-file /var/log/tidb/br_backup.log

# 恢復(fù)
tiup br restore full 
 --pd"10.0.1.10:2379"
 --storage"local:///backup/tidb/20240101"
 --log-file /var/log/tidb/br_restore.log

# 查看備份信息
tiup br validate decode 
 --field"end-version"
 --storage"local:///backup/tidb/20240101"

六、總結(jié)

6.1 TiFlash HTAP 場景

TiFlash 是 TiDB 的列存引擎,適合在不影響 OLTP 的前提下運行分析查詢:

-- 為表創(chuàng)建 TiFlash 副本
ALTERTABLEordersSETTIFLASH REPLICA1;

-- 查看 TiFlash 同步進(jìn)度
SELECT*FROMinformation_schema.TIFLASH_REPLICA
WHERETABLE_NAME ='orders';

-- 強(qiáng)制查詢走 TiFlash(分析查詢)
SELECT/*+ READ_FROM_STORAGE(TIFLASH[orders]) */
DATE(created_at)asdate,
COUNT(*)asorder_count,
SUM(amount)astotal_amount
FROMorders
WHEREcreated_at >='2024-01-01'
GROUPBYDATE(created_at)
ORDERBYdate;

-- TiDB 優(yōu)化器會自動選擇 TiKV 或 TiFlash
-- OLTP 查詢走 TiKV,OLAP 查詢走 TiFlash

6.2 遷移到 TiDB 的判斷標(biāo)準(zhǔn)

滿足以下條件之一,遷移到 TiDB 才有實際價值:

單表行數(shù)超過 5 億,MySQL 分庫分表方案的跨分片查詢已成為瓶頸

寫入 TPS 持續(xù)超過 3 萬,單機(jī) MySQL 主節(jié)點 CPU 長期 > 80%

需要在同一份數(shù)據(jù)上同時運行 OLTP 和 OLAP,不想維護(hù)兩套數(shù)據(jù)同步鏈路

需要跨地域多活,MySQL 的主從延遲無法滿足 RPO 要求

不適合遷移的場景:數(shù)據(jù)量 < 1TB、寫入 TPS < 1 萬、大量使用外鍵約束、依賴 MySQL 特有的存儲引擎特性。

6.3 技術(shù)要點回顧

架構(gòu)理解先行:TiDB Server 無狀態(tài)、TiKV 存數(shù)據(jù)、PD 管調(diào)度,三者職責(zé)分離,故障排查要對應(yīng)到具體組件

熱點是頭號敵人:AUTO_INCREMENT 在 TiDB 中是反模式,新表一律用 AUTO_RANDOM

兼容性邊界要摸清:外鍵、FULLTEXT、LOCK TABLES 不支持,遷移前必須逐一確認(rèn)

TiFlash 按需開啟:不是所有表都需要 TiFlash 副本,只對有分析查詢需求的表開啟

監(jiān)控要看 Dashboard:TiDB Dashboard 集成了熱點分析、慢查詢、集群拓?fù)?,是日常運維的主要工具

6.4 參考資料

TiDB 8.x 官方文檔

TiDB 最佳實踐

TiKV 架構(gòu)設(shè)計

TiUP 部署文檔

附錄

A. 命令速查表

# 查看集群狀態(tài)
tiup cluster display tidb-prod

# 啟動/停止/重啟集群
tiup cluster start tidb-prod
tiup cluster stop tidb-prod
tiup cluster restart tidb-prod

# 滾動重啟單個組件
tiup cluster restart tidb-prod -R tidb

# 擴(kuò)容(添加新 TiKV 節(jié)點)
tiup cluster scale-out tidb-prod scale-out.yaml

# 縮容(移除 TiKV 節(jié)點,會自動遷移數(shù)據(jù))
tiup cluster scale-in tidb-prod --node 10.0.1.18:20160

# 升級集群版本
tiup cluster upgrade tidb-prod v8.2.0

# 查看慢查詢
mysql -h 10.0.1.13 -P 4000 -u root -p -e 
"SELECT query_time, query FROM information_schema.SLOW_QUERY ORDER BY query_time DESC LIMIT 10;"

B. 配置參數(shù)詳解

參數(shù) 默認(rèn)值 說明
tidb_slow_log_threshold 300ms 慢查詢記錄閾值
tidb_txn_mode pessimistic 事務(wù)模式,pessimistic/optimistic
tidb_mem_quota_query 1GB 單個查詢最大內(nèi)存使用量
tidb_distsql_scan_concurrency 15 分布式掃描并發(fā)度
rocksdb.defaultcf.block-cache-size 系統(tǒng)內(nèi)存 45% RocksDB 塊緩存大小
storage.reserve-space 5GB TiKV 預(yù)留磁盤空間

C. 術(shù)語表

術(shù)語 英文 解釋
區(qū)域 Region TiKV 數(shù)據(jù)分片單位,默認(rèn) 96MB,每個 Region 有 3 個 Raft 副本
放置驅(qū)動 PD (Placement Driver) 集群元數(shù)據(jù)管理和調(diào)度中心
熱點 Hotspot 大量請求集中到少數(shù) Region,導(dǎo)致負(fù)載不均衡
列存引擎 TiFlash TiDB 的 OLAP 列存儲引擎,異步同步 TiKV 數(shù)據(jù)
混合事務(wù)分析 HTAP 在同一系統(tǒng)中同時支持 OLTP 和 OLAP 工作負(fù)載
全局事務(wù)標(biāo)識 TSO (Timestamp Oracle) PD 分配的全局唯一單調(diào)遞增時間戳,用于 MVCC

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    4018

    瀏覽量

    68327
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4203

    瀏覽量

    46110
  • MySQL
    +關(guān)注

    關(guān)注

    1

    文章

    905

    瀏覽量

    29508

原文標(biāo)題:TiDB分布式數(shù)據(jù)庫運維:從部署到監(jiān)控的完整實踐

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    小白求教:labview連接分布式數(shù)據(jù)庫

    我用Hadoop搭建了一個分布式數(shù)據(jù)庫,想讓labview作為client向數(shù)據(jù)庫中寫數(shù)據(jù),應(yīng)該怎么實現(xiàn)啊
    發(fā)表于 12-13 10:18

    分布式數(shù)據(jù)庫有什么優(yōu)缺點?

    分布式數(shù)據(jù)庫系統(tǒng)(DDBS)是數(shù)據(jù)庫技術(shù)和網(wǎng)絡(luò)技術(shù)兩者相互滲透和有機(jī)結(jié)合的結(jié)果。涉及數(shù)據(jù)庫基本理論和網(wǎng)絡(luò)通信理論。分布式數(shù)據(jù)庫由一組數(shù)據(jù)組成
    發(fā)表于 09-24 09:13

    【木棉花】分布式數(shù)據(jù)庫

    前言繼上一篇輕量級偏好數(shù)據(jù)庫的學(xué)習(xí),為了讓大伙更好的了解學(xué)習(xí)數(shù)據(jù)庫的類型,我今天就推出分布式數(shù)據(jù)庫的學(xué)習(xí),如果還不清楚輕量級偏好數(shù)據(jù)庫的童鞋,建議查看我的上一篇學(xué)習(xí)筆記:【木棉花】:輕
    發(fā)表于 09-05 10:43

    請問一下HarmonyOS的分布式數(shù)據(jù)庫是存在每個設(shè)備上的嗎

    請問一下HarmonyOS的分布式數(shù)據(jù)庫是存在每個設(shè)備上的嗎?數(shù)據(jù)同步時數(shù)據(jù)又是怎么存儲的?求解答
    發(fā)表于 03-18 11:14

    分布式數(shù)據(jù)庫系統(tǒng)及其應(yīng)用 PDF

    分布式數(shù)據(jù)庫系統(tǒng)是計算機(jī)網(wǎng)絡(luò)技術(shù)與數(shù)據(jù)庫技術(shù)互相滲透和有機(jī)結(jié)合的產(chǎn)物,它主要研究在計算機(jī)網(wǎng)絡(luò)上如何進(jìn)行數(shù)據(jù)分布和處理。    《
    發(fā)表于 09-26 23:18 ?0次下載
    <b class='flag-5'>分布式數(shù)據(jù)庫</b>系統(tǒng)及其應(yīng)用 PDF

    基于分布式數(shù)據(jù)庫技術(shù)的森林防火指揮系統(tǒng)的研究

    隨著信息技術(shù)的發(fā)展,分布式數(shù)據(jù)庫技術(shù)的應(yīng)用越來越廣泛。本文將分布式數(shù)據(jù)庫技術(shù)應(yīng)用于森林防火指揮系統(tǒng)中,討論如何利用分布式數(shù)據(jù)庫技術(shù)使得林業(yè)資源地圖,表和數(shù)據(jù)
    發(fā)表于 09-11 16:52 ?13次下載

    基于分布式數(shù)據(jù)庫系統(tǒng)的數(shù)據(jù)分配模型研究

    提出一種基于分布式數(shù)據(jù)庫數(shù)據(jù)分配策略問題,數(shù)據(jù)分配得好對整個應(yīng)用系統(tǒng)的改進(jìn)、數(shù)據(jù)的可用性、提高分布式數(shù)據(jù)庫(DDB)的效率和可靠性有很大影
    發(fā)表于 02-28 19:33 ?14次下載

    分布式數(shù)據(jù)庫,什么是分布式數(shù)據(jù)庫

    分布式數(shù)據(jù)庫,什么是分布式數(shù)據(jù)庫 分布式數(shù)據(jù)庫系統(tǒng)是在集中式數(shù)據(jù)庫系統(tǒng)成熟技術(shù)的基礎(chǔ)上發(fā)展起來的,但不是簡單地把集中式數(shù)
    發(fā)表于 03-18 15:25 ?4041次閱讀

    為什么我們需要分布式數(shù)據(jù)庫

    to be database systems.)” 數(shù)據(jù)庫系統(tǒng)經(jīng)過幾十年演進(jìn)后,分布式數(shù)據(jù)庫在近幾年發(fā)展如火如荼,國內(nèi)外出現(xiàn)了很多分布式數(shù)據(jù)庫創(chuàng)業(yè)公司,為什么分布式數(shù)據(jù)庫開始流行?在
    的頭像 發(fā)表于 09-06 10:37 ?3182次閱讀

    數(shù)據(jù)庫如何走向分布式

    to be database systems.)” 數(shù)據(jù)庫系統(tǒng)經(jīng)過幾十年演進(jìn)后,分布式數(shù)據(jù)庫在近幾年發(fā)展如火如荼,國內(nèi)外出現(xiàn)了很多分布式數(shù)據(jù)庫創(chuàng)業(yè)公司,為什么分布式數(shù)據(jù)庫開始流行?在
    的頭像 發(fā)表于 09-24 14:25 ?4605次閱讀
    <b class='flag-5'>數(shù)據(jù)庫</b>如何走向<b class='flag-5'>分布式</b>

    亞馬遜云科技讓用戶獲得更好的TiDB分布式數(shù)據(jù)庫云端體驗

    近日,領(lǐng)先的企業(yè)級開源分布式數(shù)據(jù)庫TiDB正式登陸亞馬遜云科技Marketplace(中國區(qū))。
    的頭像 發(fā)表于 10-22 17:41 ?2117次閱讀
    亞馬遜云科技讓用戶獲得更好的<b class='flag-5'>TiDB</b><b class='flag-5'>分布式數(shù)據(jù)庫</b>云端體驗

    數(shù)字化轉(zhuǎn)型下我國分布式數(shù)據(jù)庫應(yīng)用挑戰(zhàn)及發(fā)展建議

    當(dāng)前,金融等重點行業(yè)都在進(jìn)行數(shù)字化轉(zhuǎn)型,而分布式數(shù)據(jù)庫作為數(shù)據(jù)承載工具,為數(shù)字化轉(zhuǎn)型提供了有力的支撐。分布式數(shù)據(jù)庫近年來發(fā)展迅猛,在產(chǎn)品成熟度上有了很大提升,但在行業(yè)應(yīng)用和生態(tài)建設(shè)上仍有很多挑戰(zhàn)
    的頭像 發(fā)表于 06-29 16:45 ?1165次閱讀

    **分布式數(shù)據(jù)庫|數(shù)據(jù)庫數(shù)據(jù)類型**

    分布式數(shù)據(jù)庫是一種存儲在不同物理位置的數(shù)據(jù)庫。與單個數(shù)據(jù)庫系統(tǒng)的并行系統(tǒng)不同,分布式數(shù)據(jù)庫系統(tǒng)由不共享物理組件的松耦合站組成。分布式數(shù)據(jù)庫
    的頭像 發(fā)表于 07-17 13:33 ?1200次閱讀

    PingCAP推出TiDB開源分布式數(shù)據(jù)庫

    的性能表現(xiàn)。我們將繼續(xù)堅持開源的創(chuàng)新理念,將TiDB打造成一個領(lǐng)先的數(shù)據(jù)庫產(chǎn)品。” 部署新一代分布式數(shù)據(jù)庫已經(jīng)成為用戶釋放數(shù)據(jù)價值、推動數(shù)字化轉(zhuǎn)型的重要方式,但隨著
    的頭像 發(fā)表于 11-24 11:26 ?1575次閱讀
    PingCAP推出<b class='flag-5'>TiDB</b>開源<b class='flag-5'>分布式數(shù)據(jù)庫</b>

    分布式云化數(shù)據(jù)庫有哪些類型

    分布式云化數(shù)據(jù)庫有哪些類型?分布式云化數(shù)據(jù)庫主要類型包括:關(guān)系型分布式數(shù)據(jù)庫、非關(guān)系型分布式數(shù)據(jù)庫
    的頭像 發(fā)表于 01-15 09:43 ?1032次閱讀