Lĩnh vực điện toán phân tán đã giảm đáng kể trong việc phát triển một lý thuyết toán học duy nhất để mô tả các thuật toán phân tán. Có một số 'mô hình' và khung tính toán phân tán đơn giản là không tương thích với nhau. Sự bùng nổ tuyệt đối của các thuộc tính thời gian khác nhau (không đồng bộ, đồng bộ, đồng bộ một phần), các nguyên tắc giao tiếp khác nhau (truyền thông điệp so với bộ nhớ chia sẻ, phát sóng so với unicast), nhiều mô hình lỗi (dừng thất bại, khôi phục sự cố, gửi lỗi, gửi lỗi, v.v. trên) đã để lại cho chúng tôi một số lượng lớn các mô hình hệ thống, khung và phương pháp hệ thống, việc so sánh kết quả khả năng thanh toán tương đối và giới hạn thấp hơn giữa các mô hình và khung này đã trở nên khó khăn, khó hiểu và đôi khi không thể.
Câu hỏi của tôi rất đơn giản, tại sao lại như vậy? Điều gì khác biệt cơ bản về điện toán phân tán (từ đối tác tuần tự của nó) đến nỗi chúng ta không thể đối chiếu nghiên cứu thành một lý thuyết thống nhất về điện toán phân tán? Với tính toán tuần tự, Máy Turing, Hàm đệ quy và Phép tính Lambda tất cả đều tương đương nhau. Đây có phải chỉ là một sự may mắn, hay chúng ta đã thực sự làm tốt công việc đóng gói điện toán tuần tự theo cách chưa hoàn thành với điện toán phân tán?
Nói cách khác, tính toán phân tán vốn đã không chịu khuất phục trước một lý thuyết tao nhã (và nếu vậy, làm thế nào và tại sao?), Hay đơn giản là chúng ta không đủ thông minh để khám phá một lý thuyết như vậy?
Tài liệu tham khảo duy nhất tôi có thể tìm thấy giải quyết vấn đề này là: " Đánh giá hai thập kỷ nghiên cứu lý thuyết điện toán phân tán " của Fischer và Merritt DOI: 10.1007 / s00446-003-0096-6
Bất kỳ tài liệu tham khảo hoặc giải trình sẽ thực sự hữu ích.