Nếu bạn đang nói về độ trễ, vâng, điều đó nghe có vẻ đúng với tôi. Giới hạn dưới của khoảng cách ngụ ý giới hạn dưới về độ trễ, do các cân nhắc về tốc độ ánh sáng. Tuy nhiên, trong thực tế, những cân nhắc về tốc độ ánh sáng này có thể không chiếm ưu thế cho đến khi dung lượng bộ nhớ cực lớn.
Nhân tiện, tình huống sẽ khác nếu chúng ta đang nói về băng thông (nghĩa là số lượng hoạt động bộ nhớ truy cập ngẫu nhiên được thực hiện mỗi giây), thay vì độ trễ. Người ta có thể xử lý đồng thời nhiều hoạt động bộ nhớ truy cập ngẫu nhiên, bằng cách sử dụng các mạng sắp xếp.
n--√n--√3n
Một chữ TMộtTT). Một kiến trúc tiêu chuẩn với một CPU mạnh mẽ và một bộ nhớ lớn không phải lúc nào cũng là kiến trúc tối ưu. Đôi khi bạn có thể có được sự tăng tốc lớn (nhiều hơn một yếu tố không đổi) bằng cách sử dụng tính toán song song hoặc các kiến trúc khác. Điều này ít nhất một phần là do chính xác vấn đề mà bạn đã đề cập: truy cập bộ nhớ ở gần bạn nhanh hơn nhiều so với truy cập bộ nhớ ở xa. Bộ nhớ đệm (ví dụ: bộ đệm L1, bộ đệm L2, v.v.) cũng dựa trên cùng một nguyên tắc.
Dưới đây là một ví dụ về một bài báo trong thế giới mật mã, xem xét việc thiết kế các mạch mục đích đặc biệt cho các nhiệm vụ mật mã, và tính đến các vấn đề này. Chẳng hạn, nó có một loạt các bộ xử lý, một bộ nhớ lớn và một mạng sắp xếp ở giữa hai để định tuyến truy cập bộ nhớ từ bộ xử lý đến bộ nhớ. Điều này cho phép một số lượng lớn các hoạt động bộ nhớ được "bay" cùng một lúc, mặc dù nó không loại bỏ độ trễ.
n−−√n−−√3