Kết quả có ảnh hưởng nhất của Lipton


30

Richard J. Lipton đã được chọn là người chiến thắng Giải thưởng Knuth 2014 "Giới thiệu các ý tưởng và kỹ thuật mới".

Bạn nghĩ gì về những ý tưởng và kỹ thuật mới mà Lipton đã phát triển?

Chú thích. Câu hỏi này sẽ trở thành wiki cộng đồng, vui lòng đặt một ý tưởng, kỹ thuật hoặc kết quả như vậy cho mỗi câu trả lời.


11
Xin chúc mừng Richard J.Lipton! :-)
Marzio De Biasi

Blog của RJLipton (~ 5yr cũ) với các liên kết đến sách / nghiên cứu của anh ấy, v.v.
vzn

1
Sẽ thật tuyệt nếu ai đó viết một cái gì đó về sự phức tạp trong giao tiếp nhiều bên và số trên mô hình trán. Hiện tại tôi không có thời gian.
Sasho Nikolov

Đây là một liên kết đến Bài giảng Giải thưởng Knuth: techtalks.tv/talks/ triệt
Michael Wehar

1
Có hai bài báo chưa được đề cập ở đây, cả hai đều có hơn 500 trích dẫn trên Google Scholar: scholar.google.com.vn (Aleliunas et al., Trên L vs. NL, một bài báo phức tạp quan trọng) và scholar.google.com/ (De Millo và cộng sự, về lý do tại sao thử nghiệm có lẽ tốt hơn bằng chứng chính thức về tính đúng đắn của các chương trình - gây tranh cãi!)
András Salamon

Câu trả lời:


34

Các Planar Separator lý khẳng định rằng trong bất kỳ phẳng -vertex đồ thị G có tồn tại một tập hợp các O ( nGcác đỉnh có sự loại bỏ khiến đồ thị bị ngắt kết nối thành ít nhất hai thành phần gần như cân bằng. Hơn nữa, một bộ như vậy có thể được tìm thấy trong thời gian tuyến tính. Kết quả (chặt chẽ) này,được chứng minh bởi Lipton và Tarjan(cải thiện kết quả trước đó của Ungar) là một công cụ mạnh mẽ để thiết kế các thuật toán trên đồ thị phẳng. Nó đưa ra nhiều thuật toán thời gian phụ chính xác cho các bài toán NP-hard và các thuật toán xấp xỉ thời gian đa thức được cải thiện. Nhìn vàotrang wikipediacho thấy một khởi đầu tốt để khám phá nhiều ứng dụng. Mộtcuộc khảo sát ban đầuvới chi tiết về một số ứng dụng đã được Lipton và Tarjan viết vào năm 1980.O(n)


2
Hầu như tất cả các thuật toán đó đều dựa trên các kỹ thuật phân rã chứ không phải phân tách phẳng. Ngoài ra, có rất nhiều biến thể của bằng chứng về định lý phân tách đó, chúng ta nên nói cảm ơn tất cả những nhà phát minh bằng chứng đó. Theo cách bạn nói về dải phân cách, chúng ta nên nói lời cảm ơn đến anh chàng đã tìm thấy số đầu tiên (ban đầu họ thậm chí không tìm thấy dải phân cách phẳng nhỏ, họ chỉ cải thiện những cái cũ). Lưu ý rằng trong phân tách chúng ta cần loại phân tách đặc biệt hơn. Các kỹ thuật phân rã hầu hết thu được từ công việc của Robertson và Seymour, thường hoạt động ngay cả trên các vị thành niên bị loại trừ.
Saeed

14
@Saeed như bình thường, bạn có vẻ chiến đấu kỳ lạ. Đây là wiki cộng đồng, vui lòng cải thiện câu trả lời khi bạn thấy phù hợp. Tôi đã thêm rằng họ đã không phát hiện ra các dải phân cách phẳng nhỏ. Theo như tôi biết, đối với mỗi ứng dụng tôi đề cập có một ví dụ hoạt động thông qua định lý phân tách phẳng (và một số ví dụ có thể được tìm thấy trong một khảo sát năm 1980 của Lipton và Tarjan). Điều này không có nghĩa là các công cụ khác không cần thiết hoặc các phương pháp khác không tồn tại. Bài báo của Lipton và Tarjan trước kết quả của Alon, Robertson và Seymour sau hơn 10 năm.
Sasho Nikolov

3
@Saeed tôi cũng không thể tin rằng bạn đề nghị với một khuôn mặt thẳng rằng định lý phân tách phẳng không đóng vai trò quan trọng hơn trong các ứng dụng này so với việc xây dựng các số tự nhiên. Chuyện này thật vớ vẩn!
Sasho Nikolov

9
Trong mọi trường hợp, chúng ta hãy cố gắng xây dựng hơn. Đồ thị nhỏ Tôi là từ năm 1983, và là bài báo đầu tiên của Robertson và Seymour, vì vậy tôi không thấy quan điểm của bạn ở đó. Trong mọi trường hợp tôi không phủ nhận những ý tưởng này đã xuất hiện trước đây: kết quả của Ungar là từ những năm 1950. Vấn đề là, chứng minh ràng buộc chặt chẽ là kết quả mang tính bước ngoặt và có một số thuật toán chính xác và gần đúng chỉ cần định lý hoặc phân tách của Lipton và Tarjan sử dụng nó như một hộp đen. Cuộc khảo sát năm 1980 đã đưa ra khá nhiều ví dụ (trước đó là Đồ thị nhỏ I).
Sasho Nikolov

3
Kết quả của họ là rất tốt (giống như nhiều kết quả tốt đẹp khác) nhưng từ ngữ của câu trả lời này là theo cách phóng đại nó quá nhiều. ví dụ: Dấu phân cách Planar không thực sự là một công cụ chính để giải quyết vấn đề khó khăn trong đồ thị phẳng, ít nhất là hiện nay, Khi có rất nhiều kỹ thuật phân rã cho kịch bản tổng quát hơn. Ngoài ra tôi muốn nhấn mạnh rằng công việc của họ rất tuyệt nhưng không tuyệt vời lắm ngay cả trong thời gian của họ (+ -5 y). Tất cả những gì tôi nói trong hai bình luận này chỉ là lặp lại những lời trước đây của tôi chỉ vì bạn và ít nhất 4 người khác thích thực hiện tấn công cá nhân.
Saeed

26

Định lý Karp-Lipton tuyên bố rằng không thể có các mạch boolean kích thước đa thức trừ khi hệ thống phân cấp Polynomial sụp đổ đến cấp độ thứ hai của nó.NP

Hai ý nghĩa của định lý này đối với lý thuyết phức tạp:

  • có thể không có mạch boolean kích thước đa thức; do đó việc chứng minh các giới hạn thấp hơn về kích thước mạch là cách tiếp cận khả thi để phân tách các lớp phức tạp.NP
  • Một số kết quả dựa trên định lý này để chứng minh sự phân tách các lớp phức tạp (ví dụ Định lý Kannan).

23

Tự giảm ngẫu nhiên vĩnh viễn . Lipton đã chỉ ra rằng nếu tồn tại một thuật toán tính toán chính xác tỷ lệ vĩnh viễn của tất cả F n × n , trong đó F là trường hữu hạn có kích thước ít nhất 3 n , thì thuật toán này có thể được sử dụng như một hộp đen để tính toán vĩnh viễn của bất kỳ ma trận nào có xác suất cao.11/(3n)Fn×nF3n

Ý tưởng chính là vĩnh viễn là một đa thức bậc thấp, do đó, thành phần của nó với hàm affine đơn biến là một đa thức đơn biến bậc thấp (tính bằng x ) và có thể được học chính xác từ một số lượng nhỏ các giá trị thông qua phép nội suy . Bạn có thể chọn một B ngẫu nhiên để thành phần được phân phối là vĩnh viễn của một ma trận ngẫu nhiên cho bất kỳ x . Tại x = 0 các đa thức đơn biến chỉ là thường trực của Một . Chi tiết có thể được tìm thấy trong Chương 8 của Arora Barak .A+xBxBxx=0A

Phương pháp đại số này đã có ảnh hưởng rất lớn trong lý thuyết phức tạp. Cuối cùng, các ý tưởng của Lipton đã dẫn đến bằng chứng về định lý IP = PSPACE, bằng chứng của định lý PCP và dẫn đến kết quả về các mã sửa lỗi cục bộ.


16

Tôi không chắc chắn 100% nếu lời giải thích dưới đây là chính xác về mặt lịch sử. Nếu không, xin vui lòng chỉnh sửa hoặc xóa.

Thử nghiệm đột biến được phát minh bởi Lipton. Thử nghiệm đột biến có thể được coi là một cách để đo lường chất lượng hoặc hiệu quả của bộ thử nghiệm. Ý tưởng chính là đưa các lỗi vào chương trình được kiểm tra (nghĩa là làm thay đổi chương trình), tốt nhất là các loại lỗi mà một lập trình viên con người có thể mắc phải, và xem liệu bộ kiểm tra có tìm thấy các lỗi được giới thiệu hay không. Một ví dụ điển hình về loại thử nghiệm đột biến lỗi sẽ giới thiệu có thể là thay thế x> 0 bằng x <0 hoặc thay thế x bằng x + 1 hoặc x-1. Một phần lỗi được bộ kiểm tra bắt gặp là "điểm tương xứng đột biến" của bộ kiểm tra. Nói rất lỏng lẻo, người ta có thể nghĩ về điều này như một phương pháp Monte-Carlo để tính toán điểm số đầy đủ đột biến.

Một cách trừu tượng hơn người ta có thể nói rằng kiểm tra đột biến mang đến sự đối xứng hoặc đối ngẫu giữa một chương trình và các bộ kiểm thử của nó: không chỉ bộ kiểm thử có thể được sử dụng để tự tin hơn về tính chính xác của chương trình, mà ngược lại, một chương trình có thể được sử dụng để có được sự tự tin về chất lượng của một bộ thử nghiệm.

Trong ánh sáng của tính hai mặt này, thử nghiệm đột biến cũng về mặt khái niệm gần với tiêm lỗi . Cả hai đều giống nhau về mặt kỹ thuật nhưng có mục đích khác nhau. Kiểm tra đột biến tìm cách đo lường chất lượng của bộ kiểm thử, trong khi kiểm tra lỗi tìm cách thiết lập chất lượng của chương trình, thường là chất lượng xử lý lỗi của nó.

Gần đây, các ý tưởng từ kiểm tra đột biến đã được sử dụng để kiểm tra (chính thức hóa) các lý thuyết logic. Để diễn giải sự trừu tượng của (4): Khi phát triển các chính thức hóa không tầm thường trong một người ủng hộ định lý, một lượng thời gian đáng kể được dành cho việc gỡ lỗi của các định nghĩa và định lý của J. Thông thường, các thông số hoặc định lý không chính xác được phát hiện trong các lần thử chứng minh không thành công. Đây là một hình thức sửa lỗi đắt tiền. Do đó, thường rất hữu ích để kiểm tra phỏng đoán trước khi bắt tay vào chứng minh. Một cách có thể để làm điều này là gán các giá trị ngẫu nhiên cho các biến miễn phí của phỏng đoán và sau đó đánh giá nó. (4) sử dụng các đột biến để kiểm tra chất lượng của các bộ tạo trường hợp thử nghiệm đã sử dụng.

Lịch sử . Từ (1): Lịch sử thử nghiệm đột biến có thể được bắt nguồn từ năm 1971 trong một bài báo của sinh viên bởi Richard Lipton [...] Sự ra đời của lĩnh vực này cũng có thể được xác định trong các bài báo khác được xuất bản vào cuối những năm 1970 bởi Lipton et al. (2) cũng như Ấp (3).

  1. Kho lưu trữ kiểm tra đột biến: Lý thuyết kiểm tra đột biến .

  2. RA DeMillo, RJ Lipton, FG Sayward, Gợi ý về lựa chọn dữ liệu thử nghiệm: Trợ giúp cho lập trình viên thực hành .

  3. RG Hamlet, Các chương trình thử nghiệm với sự trợ giúp của Trình biên dịch .

  4. S. Berghofer, T. Nipkow, Thử nghiệm ngẫu nhiên trong Isabelle / HOL. .


15

Schwartz - Zippel - DeMillo-Lipton Lemma là một công cụ cơ bản trong độ phức tạp số học: Về cơ bản, nó nói rằng nếu bạn muốn biết liệu một mạch số học có đại diện cho đa thức không, tất cả những gì bạn cần là đánh giá mạch trên một đầu vào. Sau đó, bạn sẽ có được giá trị khác 0 với xác suất tốt nếu mạch không đại diện cho đa thức bằng không.

Đây là một bổ đề đặc biệt quan trọng vì không có thuật toán xác định thời gian đa thức nào được biết cho vấn đề này.

Bổ đề thường được gọi là Bổ đề Schwartz-Zippel . Một lịch sử của bổ đề này có thể được tìm thấy trên blog riêng của Lipton .


4
Như đã chỉ ra trong một bình luận được chôn ở dưới cùng của bài đăng trên blog đó, điều đáng nói là một trường hợp đặc biệt quan trọng của bổ đề này đã quay trở lại ít nhất là vào năm 1922, khi nó được chứng minh bởi Ore (xem "Trường hữu hạn" của Lidl và Niederreiter, Định lý 6.13 và ghi chú chương).
Ashley Montanaro

13

Khả năng bao phủ trong các hệ thống bổ sung véc tơ là EXPSPACE-hard : trong RJ Lipton, Vấn đề về khả năng tiếp cận đòi hỏi không gian theo cấp số nhân , báo cáo nghiên cứu 63, Đại học Yale, 1976.

dv0,Av0NdAZdNdvvuAv=v+uvvNdv0v1vnvnvNdvn(i)v(i)1id. Kết hợp với giới hạn trên EXPSPACE được chứng minh bởi C. Rackoff vào năm 1978 , kết quả của Lipton cho thấy sự hoàn chỉnh cho EXPSPACE.

vn=v


5

Sự phức tạp trong giao tiếp nhiều bên và mô hình Số trên trán được giới thiệu bởi Ashok K. Chandra , Merrick L. Furst và Richard J. Lipton trong Giao thức đa đảng , STOC 1983, doi: 10.1145 / 800061.808737 .

Mô hình đa nhóm là một phần mở rộng tự nhiên của mô hình giao tiếp hai bên của Yao , trong đó Alice và Bob mỗi bên có một nửa không chồng chéo của các bit đầu vào và muốn giao tiếp để tính toán một chức năng được xác định trước của toàn bộ đầu vào. Tuy nhiên, việc mở rộng phân vùng của các bit đầu vào cho nhiều bên thường không thú vị lắm (đối với giới hạn thấp hơn, người ta thường chỉ có thể xem xét hai bên đầu tiên).

kkn

n

NkNk=3NÔi(đăng nhậpN)Nk(2n-1)Ôi(n)

0

N


Trông rất đẹp, cảm ơn đã theo dõi qua gợi ý của tôi.
Sasho Nikolov
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.