Việc tăng giá trị default_statistic_target có thể làm cho cơ sở dữ liệu của bạn nhanh hơn, đặc biệt sau khi phân tích ....
Đọc bài viết này tôi thấy rằng https://discuss.pivotal.io/hc/en-us/articles/201581033-default-statistic-target-Explained
(...) Tóm lại và trong thuật ngữ cơ bản, tham số này kiểm soát cách thu thập số liệu thống kê, với giá trị 1 là thống kê ước tính / chính xác ít nhất và giá trị 1000 là thống kê chính xác nhất, rõ ràng là tốn thời gian / tài nguyên (CPU, bộ nhớ, v.v.) / không gian. Thông thường giá trị mặc định là đủ để có được một gói chính xác, nhưng nếu bạn có phân phối dữ liệu phức tạp / hoặc một cột được tham chiếu trong truy vấn khá thường xuyên, thì việc đặt giá trị cao hơn có thể giúp có được số liệu thống kê tốt hơn trên bảng và do đó kế hoạch tốt hơn cho trình tối ưu hóa để thực hiện.
Đó là một lời giải thích tốt, nhưng ví dụ nếu tôi đặt default_statistic_target = 1000 thì 1000 thực sự có nghĩa là gì? Đó là 1000 kilobyte số liệu thống kê được tạo ra? hoặc có thể là 1000 hàng của các bảng được phân tích? Có lẽ đó là 1000 cột? hoặc có lẽ 1000 giây cho mỗi phân tích ...
Vì vậy, câu hỏi của tôi là làm thế nào con số này thực sự ảnh hưởng đến phân tích hoặc kế hoạch truy vấn? Rõ ràng tôi hiểu rằng default_statistic_target = 1000 sẽ nhận được nhiều thời gian hơn 100, để chạy phân tích và 1000 sẽ tạo ra số liệu thống kê tốt hơn ...