Phân tích sức mạnh tổng hợp của hai thuật toán so với mô phỏng của chúng song song


8

Hãy xem xét hai thuật toán sau để tìm kiếm trong một mảng n phần tử được sắp xếp :

A) tìm kiếm nội suy và tìm kiếm nhị phân được mô phỏng song song và

B) tìm kiếm thông qua các bước nội suy xen kẽ và các bước nhị phân.

Cả hai thuật toán đều có độ phức tạp trường hợp xấu nhất 2lgn+1 (và độ phức tạp trung bình 2lglgn để phân phối hợp lý). Có một mô hình phức tạp nào cho phép tách hai thuật toán đó (biểu thị khi cái này tốt hơn cái kia) không? Cụ thể, có một ví dụ trong đó mô phỏng song song vượt trội hơn thuật toán tìm kiếm hỗn hợp?

--- Một số nền tảng cơ bản ---

1) Nội suy cho phần tử x trong một mảng được sắp xếp T giữa vị trí ij tạo ra sự so sánh tại vị trí g=i+(ji)/(T[j]T[i])(xT[i]) và giảm khoảng thời gian tìm kiếm xuống [i,g] hoặc ]g,j]theo kết quả (trái ngược với tìm kiếm nhị phân, so sánh x với phần tử ở vị trí (i+j)/2 )

2lgn+1ABf(n)g(n)AB2min{f(n),g(n)}O(minf(n),g(n))2lgn+1 cũng vậy, bởi vì khoảng thời gian tìm kiếm ít nhất là giảm hai lần so với hai.


1
Làm thế nào để tìm kiếm nội suy làm việc?
Suresh Venkat

@Suresh Ý tưởng là ước tính vị trí tiếp theo sẽ được kiểm tra trong một mảng được sắp xếp dựa trên phép nội suy tuyến tính của khóa tìm kiếm và các giá trị cực trị của khoảng tìm kiếm.
Sylvain Peyronnet

1
Nếu tôi không nhầm, điểm chạy song song hai thuật toán khác nhau (hoặc xen kẽ hai thuật toán) là thời gian trong trường hợp xấu nhất trở thành nhanh hơn trong thời gian trường hợp xấu nhất của hai thuật toán.
Tsuyoshi Ito

2
@Tsuyoshi, bạn đã đúng. Tôi nghĩ rằng câu hỏi là (thực sự) hỏi về phân tích trường hợp không tệ nhất - ví dụ: thời gian chạy trường hợp trung bình hoặc thời gian chạy dự kiến ​​đối với các phân phối nhất định trên các khóa tìm kiếm. Về cơ bản, bất kỳ loại phân tích "cấp độ tốt hơn" nào chỉ tối ưu hóa cho trường hợp xấu nhất.
Daniel Apon

1
Bình chọn để đóng. Như tôi đã viết trong một bình luận, tôi không thể hiểu câu hỏi ở dạng hiện tại và tôi tin rằng đó không phải là lỗi của tôi.
Tsuyoshi Ito

Câu trả lời:


4

Trong Tìm kiếmloglogN của Willard Các tập tin được tạo không tập trung và không đồng nhất trong Time , ông đã tham khảo một phiên bản sơ bộ (của bài báo được liên kết) có tên "Các thuật toán tìm kiếm hiệu quả đáng ngạc nhiên cho các tập tin được tạo không đồng nhất" xuất hiện tại Hội nghị Allerton lần thứ 21 về Kiểm soát và tính toán truyền thông 1983, trang 656-662. Tôi không thể tìm thấy bài báo này trên web, nhưng trong phiên bản sau (được liên kết) ở trên, ông nói rằng bài báo cũ hơn cho thấy rằng sự kết hợp giữa tìm kiếm nhị phân và nội suy có thể giảm thời gian tìm kiếm xuống cho một số không phân phối -uniform của các khóa bản ghi.o(logn)

Cụ thể, hãy gọi PDF thường xuyên nếu có sao cho với hoặc và và cho . Đối với dữ liệu được tạo bởi các tệp PDF thông thường, tìm kiếm nội suy sẽ mất thời gian dự kiến, trong khi tìm kiếm nhị phân mất thời gian dự kiến. Tuy nhiên, việc xen kẽ chúng sẽ mất thời gian dự kiến .μb1,b2,b3,b4μ(x)=0x<b1x>b2μ(x)b3>0|μ(x)|<b4b1xb2Ω(logn)Θ(logn)O(logn)

Bạn cũng có thể quan tâm đến "Xử lý song song có thể có hại: Hành vi bất thường của tìm kiếm nội suy" của Willard và Reif , cho thấy "xử lý song song trước khi lặp lại theo nghĩa đen trong tìm kiếm tệp không theo thứ tự gần như không có ích".


Cảm ơn! Chính xác là loại kết quả mà tôi mong đợi đã được thực hiện. Tôi sẽ cố gắng tải các bài báo từ trường đại học.
Jeremy

1
Tôi đã cố lấy giấy từ Hội nghị Allerton, nhưng tôi thậm chí không thể tìm thấy nó trong thư viện, ngoại trừ tại ETH-Bibliothek Zurich, nơi rất xa nơi tôi sống. Tôi đã gửi email cho tác giả, nhưng tôi chưa nhận được phản hồi. Xin vui lòng cho tôi biết nếu bạn tìm thấy giấy ở bất cứ đâu.
jbapple
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.