Đó là bởi vì việc tăng băng thông của DRAM dễ dàng và rẻ hơn so với việc giảm độ trễ. Để có được dữ liệu từ một hàng ram mở, một khối lượng công việc không hề nhỏ là cần thiết.
Địa chỉ cột cần được giải mã, các mux chọn dòng cần truy cập cần được điều khiển và dữ liệu cần di chuyển qua chip đến bộ đệm đầu ra. Điều này cần một chút thời gian, đặc biệt là các chip SDRAM được sản xuất theo quy trình phù hợp với mật độ ram cao và tốc độ logic không cao. Để tăng băng thông bằng cách sử dụng DDR (1,2,3 hoặc 4), hầu hết logic có thể được mở rộng hoặc đường ống và có thể hoạt động ở cùng tốc độ như ở thế hệ trước. Điều duy nhất cần phải nhanh hơn là trình điều khiển I / O cho các chân DDR.
Ngược lại, để giảm độ trễ, toàn bộ thao tác cần được tăng tốc, khó hơn nhiều. Nhiều khả năng, các bộ phận của ram sẽ cần phải được thực hiện trên một quy trình tương tự như đối với CPU tốc độ cao, làm tăng đáng kể chi phí (quy trình tốc độ cao đắt hơn, cộng với mỗi chip cần trải qua 2 quy trình khác nhau).
Nếu bạn so sánh bộ nhớ CPU với RAM và ổ cứng / SSD, sẽ có mối quan hệ nghịch đảo giữa dung lượng lưu trữ lớn và dung lượng lưu trữ nhanh. Một L1 $ rất nhanh, nhưng chỉ có thể chứa từ 32 đến 256kB dữ liệu. Lý do nó nhanh như vậy là vì nó nhỏ:
- Nó có thể được đặt rất gần với CPU bằng cách sử dụng nó, có nghĩa là dữ liệu phải di chuyển một quãng đường ngắn hơn để đến được nó
- Các dây trên nó có thể được làm ngắn hơn, một lần nữa có nghĩa là mất ít thời gian hơn để dữ liệu truyền qua nó
- Nó không chiếm nhiều diện tích hoặc nhiều bóng bán dẫn, do đó, làm cho nó ở quy trình tối ưu hóa tốc độ và sử dụng nhiều năng lượng trên mỗi bit được lưu trữ không phải là quá đắt
Khi bạn di chuyển lên cấu trúc phân cấp, mỗi tùy chọn lưu trữ sẽ có dung lượng lớn hơn, nhưng cũng có diện tích lớn hơn và cách xa thiết bị sử dụng nó, nghĩa là thiết bị phải chậm hơn.