背景
這里的索引說的是關系數據庫(MSSQL)中的索引。
本篇不是純技術性的內容,只是聊一次性能調優的經歷,包含到一些粗淺的實現和驗證手段,所以,大神忽略即可。
額…對了,筆者對數據庫的優化手段了解有限,文中若有原則性或者概念性錯誤的地方,歡迎大家指正。
提起索引,相信有部分同學跟我的感覺一樣,熟悉又陌生。熟悉是知道索引的概念,也知道它的利弊,但實際工作中并沒有太多利用過索引。
我個人比較喜歡所謂的CodeFirst的編碼方式,對關系數據庫的操作,大部分都是通過orm或者一些自動化腳本來完成,直接去操作數據庫的話,只有改造老項目,或者需要去庫里查詢一些數據的時候才會借助管理工具去直接操作數據庫。所以,對索引的實際操作經歷非常少。正巧,最近公司的一個常態化運行項目就遇到了檢索的性能瓶頸,而現階段又不能去修改業務代碼或者引入一些中間件來緩解,所以想到了是不是可以從索引入手,嘗試做一些性能優化。
結果,你猜怎么著,性能提升不多,也就10倍左右吧🚀
定位問題
發現性能瓶頸
首先,我發現這個問題的時候,在業務系統上做一次復雜的數據檢索最多竟然需要1-2秒左右才能返回,在遇到網絡不穩定的情況,返回時長還會更久,總之體驗非常不好。
數據庫性能查詢
由于賬號權限的問題,我沒辦法使用DTA(Database Engine Tuning Advisor)來具體的定位問題,所以使用了更直接的工具–執行計劃(Excution Plan)來輔助。
具體步驟如下
- 首先,在本地環境下,確定此接口生成的查詢語句;
- 將Sql直接放到數據庫中執行,并開啟執行計劃和實時查詢統計信息
- 獲取SSMS給出的優化建議。
按此操作執行后,我們能看到當前的查詢,究竟落到數據庫中的鏈條有多長,也就是這個查詢復雜度有多高,同時也能獲得一個優化建議。
這里,我們先不管復雜度的問題,因為當前情況下,修改業務代碼肯定是不可能的,所以目前只關注索引。
驗證問題
編寫測試接口
這里,我把這個常用的接口改造了一下,去掉了驗證,鑒權等環節,也把一些額外的屬性關掉了,確保每次請求都是直接打到服務端,且查詢數據庫
[AllowAnonymous]
//[ResponseCache(Duration = 10, VaryByQueryKeys = new string[] { "whereJsonStr", "adminId", "pageIndex", "pageSize", "rd" })]
public IActionResult GetApplyStatusListForTest(string whereJsonStr, int adminId, int pageIndex = 1, int pageSize = 10, int rd = 0)
{// 復雜查詢業務// ... 代碼省略
}
編寫測試腳本
這里還是使用Grafana的K6工具進行測試。
關于K6的內容,大家可以參見其官方文檔👉:https://grafana.com/docs/k6/latest/
筆者之前也寫過一篇類似的博客👉:https://juejin.cn/post/7442535460361109554
import http from 'k6/http';
import { check, sleep } from 'k6';export const options = {vus: 10,duration: '1m',thresholds: {checks: ['rate>0.95'], // 至少 95% 的請求必須成功http_req_duration: ['p(95)<500'] // 95% 的請求響應時間小于 500 毫秒}
}const urls = [`https://localhost:5001/matchai/getApplyStatusListForTest?pageindex=${Math.floor(Math.random() * 10) + 1}&pagesize=10&whereJsonStr=...`,`https://localhost:5001/matchai/getApplyStatusListForTest?pageindex=${Math.floor(Math.random() * 10) + 1}&pagesize=10&whereJsonStr=...`,`https://localhost:5001/matchai/getApplyStatusListForTest?pageindex=${Math.floor(Math.random() * 10) + 1}&pagesize=10&whereJsonStr=...`,`https://localhost:5001/matchai/getApplyStatusListForTest?pageindex=${Math.floor(Math.random() * 10) + 1}&pagesize=10&whereJsonStr=...`
]
export default function () {const url = urls[Math.floor(Math.random() * urls.length)];console.log(`-------------------start----------------------`);console.log(`Request URL: ${url}`);console.log(`--------------------end----------------------`);let params = {headers: {'Content-Type': 'application/json'}};let res = http.get(url, params);// 解析響應體let response = JSON.parse(res.body);// 定義檢查點let checks = {'status code is 200': (r) => r.status === 200,'API code is 1': (r) => response.code === 1};// 執行檢查點check(res, checks);// 記錄非成功的響應if (response.code !== 1) {console.log(`Error: code=${response.code}, msg=${response.msg}, data=${JSON.stringify(response.data)}`);}console.log(`Response Time: ${res.timings.duration}ms`);const sleepTime = Math.floor(Math.random() * 51) + 50; // 隨機生成50到100毫秒sleep(sleepTime / 1000); // 將毫秒轉換為秒}
簡單說明下這段測試腳本的含義
- 導入必要模塊,這里用到http,check,sleep
- 配置壓測參數,模擬10個并發,持續1分鐘
- 設定性能閾值,95%的請求必須成功,且響應時間小于500毫秒
- 定義URL列表,隨機抽取,模擬多種條件下的請求行為
- 主函數執行,即10個uv隨機發起請求,并輸出觀測日志
- 定義響應檢查行為,時間,并記錄失敗響應
- 模擬50-100毫秒的操作間隔
控制變量
首先,在沒有索引和有索引的前提下,跑一遍腳本
K6_WEB_DASHBOARD=true K6_WEB_DASHBOARD_EXPORT=html-report.html k6 run simulatescript1.js
通過上述命令,會得到一個比較完整的報表,這里我們只看Performance Overview部分,可以
- 無索引
- 有索引
對比可以看到,得到的測試性能提升了10倍,這期間,除了索引的建立,其余條件均一致。
由此,可以判定,根據SSMS執行計劃給出的建議,建立索引之后,性能的確可以得到明顯的改善。
這里的索引,就是根據SSMS執行計劃給出的建議,完成的,比如
CREATE NONCLUSTERED INDEX [IX_索引名稱] ON [dbo].[表名稱]
({待索引的字段}
)
INCLUDE({包含的字段}) WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, DROP_EXISTING = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY]
GO
需要說明的是,我這里真的就只關注了索引,實際上,執行計劃還會給出很多檢索執行過程的詳細信息,大家可以導出成xml或者直接在ssms窗口查看
其他可行手段
客戶端緩存
確定了增加索引,可以顯著提高檢索性能后,我還引入了客戶端緩存,設置一個合理的過期時間,這樣,再到正式站點測試后,得到的結果就是這樣了👇
雖然現在的結果也并不優秀,但相比之前秒級的響應,已經能明顯感覺到絲滑了許多。
索引維護
我們都知道,索引建立之后,是需要定期維護的,否則會產生過多碎片,造成性能下降。在SSMS中,可以使用Sql Agent來輔助完成。
筆者這里是建立了一個存儲過程,通過系統定期調用執行。
USE [數據庫]
GO
/****** Object: StoredProcedure [dbo].[IndexMaintenanceProcedure] Script Date: 2025-05-13 17:36:58 ******/
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GOALTER PROCEDURE [dbo].[IndexMaintenanceProcedure]
AS
BEGINSET NOCOUNT ON;DECLARE @schemaName NVARCHAR(128);DECLARE @tableName NVARCHAR(128);DECLARE @indexName NVARCHAR(128);DECLARE @avg_fragmentation_in_percent FLOAT;DECLARE @startTime DATETIME;DECLARE @endTime DATETIME;DECLARE @errorMessage NVARCHAR(MAX);DECLARE @actionTaken NVARCHAR(50);DECLARE @sql NVARCHAR(MAX);-- 定義游標,獲取所有碎片化超過5%的索引DECLARE curIndexFrag CURSOR FORSELECT s.name AS schema_name,t.name AS table_name,i.name AS index_name,ips.avg_fragmentation_in_percentFROM sys.dm_db_index_physical_stats(DB_ID(), NULL, NULL, NULL, 'LIMITED') ipsINNER JOIN sys.indexes i ON ips.object_id = i.object_id AND ips.index_id = i.index_idINNER JOIN sys.tables t ON i.object_id = t.object_idINNER JOIN sys.schemas s ON t.schema_id = s.schema_idWHERE i.name IS NOT NULL -- 排除堆(heap)AND t.is_ms_shipped = 0 -- 排除系統表AND ips.avg_fragmentation_in_percent > 5; -- 設置閾值OPEN curIndexFrag;FETCH NEXT FROM curIndexFrag INTO @schemaName, @tableName, @indexName, @avg_fragmentation_in_percent;WHILE @@FETCH_STATUS = 0BEGINSET @startTime = GETDATE();SET @errorMessage = NULL;BEGIN TRYIF @avg_fragmentation_in_percent >= 30BEGIN-- 碎片率高,重建索引SET @actionTaken = 'Rebuild';SET @sql = N'ALTER INDEX ' + QUOTENAME(@indexName) + N' ON ' + QUOTENAME(@schemaName) + N'.' + QUOTENAME(@tableName) + N' REBUILD;';ENDELSE IF @avg_fragmentation_in_percent >= 5 AND @avg_fragmentation_in_percent < 30BEGIN-- 中度碎片,重組索引SET @actionTaken = 'Reorganize';SET @sql = N'ALTER INDEX ' + QUOTENAME(@indexName) + N' ON ' + QUOTENAME(@schemaName) + N'.' + QUOTENAME(@tableName) + N' REORGANIZE;';ENDPRINT '執行操作: ' + @sql;EXEC sp_executesql @sql;END TRYBEGIN CATCHSET @errorMessage = ERROR_MESSAGE();PRINT '錯誤發生: ' + @errorMessage;END CATCHSET @endTime = GETDATE();-- 記錄日志INSERT INTO dbo.IndexMaintenanceLog (SchemaName, TableName, IndexName, Fragmentation, ActionTaken, StartTime, EndTime, ErrorMessage)VALUES (@schemaName, @tableName, @indexName, @avg_fragmentation_in_percent, @actionTaken, @startTime, @endTime, @errorMessage);FETCH NEXT FROM curIndexFrag INTO @schemaName, @tableName, @indexName, @avg_fragmentation_in_percent;ENDSELECT count(1) as cnt FROM dbo.IndexMaintenanceLog WHERE EndTime >= @startTime;CLOSE curIndexFrag;DEALLOCATE curIndexFrag;
END
至此,本次優化工作基本完成。
一點注意
對索引熟悉的同學,應該都知道,索引有很多類型,包括聚集索引,非聚集索引,唯一索引等等。索引的主要作用,還是提升讀性能,尤其在OLAP的場景,而不是和OLTP場景。
索引的建立也不是越多越好,尤其是聚集索引,是會明顯影響寫入性能的。本篇提到的優化過程,建立的都是非聚集索引,對寫性能的影響有限。
其他的,我就不多說了,大家一搜就能得到很多標準答案,我這里再推薦一本書《數據庫系統內幕》。筆者也是在有了這次優化經歷之后,發現自己在很多基礎性的知識還是有欠缺,分享給大伙共勉。
最后,說起性能調優,本篇聊到的內容只是冰山一角,但我們也要注意不要陷入過度優化的陷阱,所以還是看開發人員的綜合能力,開發習慣和開發經驗,最終找到一條適合自己項目的系統優化之路。總之呢,系統做好了,過度調整肯定不對,完全或者幾乎不調整更不對,這也是對團隊能力和軟件質量的考驗。當然了,如果你做的都是那種小項目,就幾千上萬條數據量,甚至是那種單機應用,一次性應用,那確實不太需要關注這方面,把功能做好,別出低級錯誤就可以了。
好了,這篇就聊到這里。
*附
最后附上k6測試的完整報表