Tôi sẽ giải thích câu hỏi một cách tự do. Đối với cấu trúc dữ liệu theo kiểu Okasaki, ghi nhớ là một dạng đột biến ngầm có tác dụng phụ đối với thời gian chạy. Do đó, tôi sẽ đặt câu hỏi liên quan đến các cấu trúc dữ liệu liên tục theo nghĩa chặt chẽ hơn là các cấu trúc dữ liệu với việc thực hiện chức năng thuần túy, là một tập hợp con trước đây. Theo tôi, nghiêm ngặt, ý tôi là bạn có thể truy cập các phiên bản cũ hơn của cấu trúc dữ liệu mà không bị phạt, cây phiên bản có thể phân nhánh tùy ý, v.v.
Trong bối cảnh đó, tôi coi UNION-FIND dai dẳng là một vấn đề mở quan trọng. Có bài Conchon-Filliâtre đã được đề cập trong chủ đề khác. Một nhà bình luận đã đưa ra một vấn đề với cái gọi là mảng liên tục của họ: đó thực sự chỉ là bán kiên trì. Nhưng giả sử bạn thay thế nó bằng một hàm băm hoặc một số mảng thực sự bền bỉ khác hoạt động tốt hơn trong trường hợp xấu nhất (và có thể nói là trung bình) nhưng tồi tệ hơn trong trường hợp tốt nhất. Điều đó vẫn để lại một vấn đề quan trọng mở:
Bài viết đưa ra một bằng chứng chính thức về tính đúng đắn trong Coq. Nhưng họ không giải quyết được sự phức tạp được khấu hao cả chính thức hay không chính thức. Tôi không rõ lắm về sự đột biến phức tạp phía sau hậu trường dẫn đến sự phức tạp được khấu hao dự kiến trong mọi trường hợp. Khi tôi nghĩ về nó lần cuối, tôi cảm thấy hơi tự tin rằng tôi có thể xây dựng một ví dụ mẫu nếu tôi nỗ lực vào nó. Ngay cả khi tôi sai về phần cuối cùng đó, việc thiếu một phân tích thích hợp là một khoảng cách lớn; rõ ràng là phân tích khấu hao cổ điển của Trajan về UNION-FIND không chuyển trực tiếp.