Tách các từ với DFA ngẫu nhiên


15

Một trong những vấn đề mở thú vị về DFA được liệt kê trong Có bất kỳ vấn đề mở nào còn lại về DFA không? là kích thước của một DFA cần thiết để tách hai chuỗi có độ dài . Tôi tò mò liệu có bất kỳ kết quả nào về khả năng của một DFA ngẫu nhiên để tách hai chuỗi (không có giá trị) nhất định.n

Rõ ràng là một DFA ngẫu nhiên với đủ nhiều trạng thái phân tách các chuỗi có xác suất cao. Cụ thể, nếu , một DFA ngẫu nhiên với O ( n ) khẳng định là không bao giờ xem xét lại tình trạng tương tự khi nó đạt đến địa điểm đầu tiên nơi uv khác nhau, và do đó tách uv .u,vΣnO(n)uvuv

Chúng ta có thể làm tốt hơn không? Lý tưởng nhất, nhỏ nhất là những gì st rằng một DFA ngẫu nhiên với f ( n ) trạng thái tách chuỗi có độ dài n với xác suất tích cực (hoặc có lẽ khả năng 1 / 2 )? Một tìm kiếm ngắn gọn không cho thấy nhiều kết quả về các thuộc tính của DFA ngẫu nhiên; tất cả những gì tôi có thể tìm thấy là http://arxiv.org/abs/1311.6830 .f(n)f(n)n1/2


Xác suất tích cực không phải là một điều kiện đặc biệt hữu ích ở đây, với điều kiện đó chỉ là sự phục hồi của vấn đề mở. Xác suất cao vẫn có thể thú vị.
Geoffrey Irving

1
"Tách" có nghĩa là gì? Chấp nhận cái này và từ chối cái kia? Nếu vậy, rõ ràng là trạng thái đủ? O(n)
usul

Có, tách có nghĩa là chấp nhận chính xác một. Và bạn đã đúng: đối số phân tách tầm thường nhất thực sự yêu cầu các trạng thái (những gì tôi đã viết ở trên là sai), mặc dù tôi sẽ ngạc nhiên nếu nhiều điều ít hơn không đủ. O(n2)
Geoffrey Irving

1
Bạn có mong đợi các giới hạn phụ thuộc vào mức độ khác nhau của các từ không? Có vẻ như các từ khác nhau bởi một chữ cái sẽ khó phân biệt ngẫu nhiên hơn, bởi vì bạn cần phân biệt đối xử trong một lần chuyển đổi đó, và các từ rất khác nhau sẽ dễ dàng hơn. [Để khái quát hóa, bạn có thể quên đi tiền tố chung dài nhất (bạn đạt đến trạng thái ngẫu nhiên từ đó); sau đó, các chữ cái khác nhau sẽ gửi bạn đến cùng một trạng thái hoặc đến các trạng thái khác nhau; sau đó nếu các trạng thái khác nhau, bạn cần xem xét proba của việc đồng bộ hóa và duy trì đồng bộ hóa (bắt đầu lại tùy thuộc vào các từ) ...]
a3nm

Vâng, giống như vấn đề mở, tôi quan tâm đến những từ khó nhất có thể để phân biệt đối xử. Các từ chỉ khác nhau ở một vài nơi có thể được phân tách bằng trạng thái , vì vậy chúng không chắc là trường hợp khó. O(logn)
Geoffrey Irving

Câu trả lời:


2

[Chỉnh sửa: câu trả lời này không hoạt động, xem bình luận.]

Đây chỉ là một ý tưởng không chính thức và tôi không biết nó có giúp ích gì không, nhưng nó quá dài để được đưa ra như một nhận xét. Ngoài ra, tôi hoàn toàn không quen thuộc với các DFA ngẫu nhiên, vì vậy có lẽ tôi có một trực giác sai lầm về cách bạn nên suy luận về xác suất của chúng, nhưng hy vọng điều này không hoàn toàn vô giá trị.

Tôi sẽ cho rằng giới hạn của bạn nên phụ thuộc vào mức độ v khác nhau; nếu họ không làm như vậy, thì rõ ràng với tôi rằng trường hợp xấu nhất là các chuỗi chỉ khác nhau bởi ký tự đầu tiên của họ (các chuỗi khác nhau ở một vị trí X có nhiều cơ hội được phân biệt hơn các chuỗi khác nhau ở một vị trí Y X của các vị trí , Tôi nói, và đặt sự khác biệt càng sớm càng tốt cho bạn cơ hội để đồng bộ hóa lại).uvXYX

Tôi cũng sẽ xem xét khả năng các từ được phân biệt, cụ thể là chúng đạt đến các trạng thái khác nhau. Tôi đoán sau đó bạn sẽ cần thích nghi để được chấp nhận hoặc từ chối dựa trên cách các DFA ngẫu nhiên của bạn phân bổ các trạng thái cuối cùng. Nếu mỗi trạng thái có xác suất 1/2 là cuối cùng, thì khi các chuỗi kết thúc ở cùng một trạng thái, chúng không được phân biệt và khi chúng kết thúc ở các trạng thái khác nhau, chúng có xác suất 1/2 được phân biệt.

Bây giờ tôi sẽ xem xét từ thu được từ uv như sau: w i = 1 nếu u i = v iw i = 0 nếu không. Tôi nghĩ rõ ràng rằng w là điều thú vị duy nhất để xem xét về uv .wuvwi=1ui=viwi=0wuv

Bây giờ, hãy xác định xác suất chúng ta ở cùng trạng thái sau khi đọc các tiền tố có độ dài i của uv , và q ( i ) = 1 - p ( i ) xác suất mà chúng ta không có.p(i)iuvq(i)=1p(i)

Tôi nghĩ rằng chúng ta có khi w i + 11 . Theo trực giác, chúng ta ở cùng một trạng thái sau khi đọc các chữ cái i + 1 khi chúng ta ở cùng một trạng thái sau khi đọc i hoặc khi chúng ta ở hai trạng thái (ngẫu nhiên) khác nhau, chúng ta đã vẽ hai lần chuyển sang trạng thái ngẫu nhiên và chúng đã xảy ra là cùng một Tương tự, chúng ta có p ( i + 1 ) = 1p(i+1)=p(i)+q(i)/nwi+11i+1i khi w i + 1 0 : bạn đang vẽ hai trạng thái ngẫu nhiên, không có vấn đề nơi bạn bắt đầu từ đâu.p(i+1)=1/nwi+10

Từ đó tôi nghĩ bạn có thể tính xác suất ở cùng trạng thái sau khi đọc v .uv


Thật không may, rõ ràng là là tài sản thú vị duy nhất của uv . Cách dễ nhất để thấy điều này là có một xác suất không khác biệt để phân biệt bất kỳ w không cần thiết nào từ 0 n ; thật vậy, chỉ có hai trạng thái đủ bất kể n . Tuy nhiên, như đã thảo luận trong arxiv.org/pdf/1103.4513.pdf , có những từ u , v có độ dài n st no o ( log n ) trạng thái DFA có thể phân biệt chúng. Điều này mâu thuẫn với công thức của bạn cho p ( i )wuvw0nnu,vno(logn)p(i).
Geoffrey Irving

1
To clarify, your formulas would be correct if the DFA transitions were a random function of the string index; since they are independent of index, the probabilities are correlated in a rather complicated fashion.
Geoffrey Irving

Tôi sợ tôi không nhận được ví dụ của bạn. Có một prba, với hai trạng thái, phân biệt 0 nw 0 n , OK; và có thể có những từ có độ dài n không thể phân biệt được với trạng thái o ( log n ) . Nhưng làm thế nào nó mâu thuẫn với tuyên bố của tôi rằng w là điều quan trọng duy nhất, hoặc công thức của tôi cho p ( i )>00nw0nno(logn)wp(i)? Về mối tương quan, tôi thấy có thể có một loại bạn đang đề cập đến nhưng tôi không hiểu tại sao nó lại thất bại chính xác. Nếu bạn đi hai lần qua cùng một trạng thái, có một mối tương quan, nhưng có lý do nào để nghĩ rằng nó sẽ ảnh hưởng theo một hướng nhất định trung bình không?
a3nm

If p(n)<1, u and v are distinguished with positive probability. However, for sufficiently large n and small numbers of states we know that p(n)=1 for some u and v. Since your formulas imply that if p(i)<1 then p(i+1)=p(i)+(1p(i))/n=p(i)(11/n)+1/n<1, your formula is not capturing the fact that certain u and v are impossible to distinguish.
Geoffrey Irving

Ah... right, I understand. If no small DFA can distinguish two words, then no random DFA can distinguish them either. So indeed there is a problem with my approach, the probability q(i) should drop to zero eventually, because of those correlations, it seems. Sorry for providing an incorrect answer.
a3nm
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.