Nếu có một giao diện bộ nhớ duy nhất, sẽ có phần cứng để phân xử giữa các yêu cầu. Thông thường, bộ xử lý sẽ được ưu tiên hơn I / O mà không bỏ đói I / O, nhưng ngay cả khi I / O luôn được ưu tiên, bộ xử lý sẽ có một số cơ hội để truy cập bộ nhớ vì I / O có xu hướng có nhu cầu băng thông thấp hơn và không liên tục.
Ngoài ra, thường có nhiều hơn một giao diện cho bộ nhớ. Bộ xử lý hiệu suất cao hơn thường có bộ đệm (nếu DMA không kết hợp, bộ đệm thậm chí không phải bị rình mò; ngay cả khi rình mò, chi phí chung sẽ nhỏ do chênh lệch băng thông giữa bộ đệm và bộ nhớ chính hoặc (khi DMA chuyển sang L3 bộ đệm) giữa bộ đệm L3 và bộ đệm L1), cung cấp giao diện riêng để truy cập bộ nhớ. Bộ vi điều khiển thường sẽ truy cập các hướng dẫn từ một bộ nhớ dựa trên flash riêng biệt, cho phép tìm nạp trong bộ nhớ DMA sang bộ nhớ trên chip và thường có bộ nhớ kết hợp chặt chẽ với giao diện độc lập (cho phép nhiều truy cập dữ liệu để tránh xung đột DMA).
Ngay cả với một giao diện bộ nhớ duy nhất, băng thông cao nhất thường sẽ cao hơn băng thông thường được sử dụng. (Đối với tìm nạp lệnh, ngay cả một bộ đệm nhỏ có tải xuống trung bình rộng hơn từ bộ nhớ sẽ cho phép tìm nạp lệnh từ bộ đệm trong khi một tác nhân khác đang sử dụng giao diện bộ nhớ, khai thác xu hướng mã không phân nhánh.)
Cũng lưu ý rằng vì bộ xử lý truy cập dữ liệu, nếu có một giao diện bộ nhớ duy nhất, phải có cơ chế phân xử giữa truy cập dữ liệu và truy cập lệnh.
Nếu bộ xử lý (với giao diện bộ nhớ đơn) bị buộc phải thực hiện sao chép từ bộ đệm thiết bị I / O sang bộ nhớ chính, thì nó cũng sẽ phải tìm nạp các hướng dẫn để thực hiện sao chép. Điều này có thể có nghĩa là hai lần truy cập bộ nhớ cho mỗi từ được truyền ngay cả trong một ISA có các hoạt động của bộ nhớ (một ISA lưu trữ tải có thể yêu cầu ba lần truy cập bộ nhớ trở lên nếu không cung cấp địa chỉ bộ nhớ tăng sau); đó là ngoài truy cập I / O mà trong các hệ thống cũ có thể chia sẻ cùng giao diện với bộ nhớ chính. Một công cụ DMA không truy cập các hướng dẫn trong bộ nhớ và do đó tránh được chi phí này.