Các GPU không thực sự có "cổng" mỗi se. Họ thường có Bảng tra cứu (LUT). LUT thường được thực hiện bằng SRAM. Chẳng hạn, các Spartan 3 sử dụng SRAM 16 bit; có nghĩa là, bốn đầu vào địa chỉ tạo ra một tín hiệu đầu ra. "Lập trình" được thực hiện bằng cách tải SRAM với mẫu bit đại diện cho bảng chân lý, ví dụ như XOR 2 đầu vào, bạn có địa chỉ 00 = đầu ra 0, địa chỉ 01 = đầu ra 1, địa chỉ 10 = đầu ra 1, địa chỉ 11 = đầu ra 0.
Tất cả điều này có nghĩa là các GPU thực sự có nhiều, nhiều cổng phụ và không cần thiết để thực hiện cùng chức năng logic. Nếu bạn cần các GPU để lập trình lại và tạo mẫu nhanh, thì điều này thật tuyệt! Trên thực tế, một số người thực hiện thiết kế đầu tiên trong FPGA, gỡ lỗi nó và sau đó chuyển sang ASIC, nó sẽ nhỏ hơn, nhanh hơn và tiêu thụ ít năng lượng hơn, trong khi thực hiện điều tương tự với FPGA.
Bộ vi xử lý hiện đại cũng được lắp đặt. Chẳng hạn, trong một chương trình đơn giản, một phép tính rất lớn liên quan đến một số phép cộng và có thể là một vài bội số và việc so sánh có thể được thực hiện trong cùng một chu kỳ xung nhịp. Làm tất cả công việc này trong một chu kỳ đồng hồ có nghĩa là chu kỳ đồng hồ phải dài. Trong một triển khai theo đường ống (có thể thực hiện trong các GPU và thường được sử dụng để đạt được thời gian đóng), phép tính lớn được chia thành từng mảnh và mỗi phần được thực hiện trong một chu kỳ xung nhịp ngắn hơn nhiều. Việc tính toán vẫn mất khoảng thời gian như nhau, nhưng ưu điểm là sau khi phần đầu tiên được tính và phần dữ liệu một phần đầu tiên đã chuyển sang phần thứ hai, phần đầu tiên có thể ngay lập tức bắt đầu xử lý dữ liệu thứ hai. Tính toán đầu tiên vẫn sẽ mất nhiều chu kỳ để hoàn thành,
Vì vậy, một cách ngắn gọn, các GPU có logic chung trong khi CPU có logic cụ thể. FPGA có định tuyến chung trong khi CPU có định tuyến cụ thể. FPGA có thể là pipelined, nhưng CPU chắc chắn là pipelined.