Xác định mã hóa của chuỗi trong C #


127

Có cách nào để xác định mã hóa của chuỗi trong C # không?

Giả sử, tôi có một chuỗi tên tệp, nhưng tôi không biết nếu nó được mã hóa bằng Unicode UTF-16 hoặc mã hóa mặc định của hệ thống, làm cách nào để tìm hiểu?


Bạn không thể "mã hóa" bằng Unicode. Và không có cách nào để tự động xác định mã hóa của bất kỳ Chuỗi nào, mà không có bất kỳ thông tin nào trước đó.
Nicolas Dumazet

5
để rõ ràng hơn có thể: bạn mã hóa các điểm Unicode thành các chuỗi byte của một bộ ký tự bằng cách sử dụng sơ đồ "mã hóa" (utf- , iso- , big5, shift-jis, v.v.) và bạn giải mã các chuỗi byte từ một ký tự được đặt thành Unicode. Bạn không mã hóa bytestrings bằng Unicode. Bạn không giải mã Unicode trong bytestrings.
Nicolas Dumazet

13
@NicDunZ - bản thân mã hóa (cụ thể là UTF-16) cũng thường được gọi là "Unicode". Đúng hay sai, đó là cuộc sống. Ngay cả trong .NET, hãy xem Encoding.Unicode - có nghĩa là UTF-16.
Marc Gravell

2
ồ, tôi không biết rằng .NET rất sai lệch. Trông giống như một thói quen khủng khiếp để học hỏi. Và xin lỗi @krebstar, đó không phải là ý định của tôi (tôi vẫn nghĩ rằng câu hỏi được chỉnh sửa của bạn bây giờ có ý nghĩa hơn nhiều so với trước đây)
Nicolas Dumazet

1
@Nicdumz # 1: Có một cách để xác định chính xác việc sử dụng mã hóa nào. Hãy xem IE (và bây giờ cũng là FF với Chế độ xem - Mã hóa ký tự - Tự động phát hiện) để biết: nó thử một mã hóa và xem liệu nó có thể "được viết tốt <đặt tên ngôn ngữ ở đây>" hay thay đổi nó và thử lại . Thôi nào, chuyện này có thể vui!
SnippyHolloW

Câu trả lời:


31

Hãy xem Utf8Checker, đây là lớp đơn giản thực hiện chính xác điều này trong mã được quản lý thuần túy. http://utf8checker.codeplex.com

Lưu ý: như đã chỉ ra "xác định mã hóa" chỉ có ý nghĩa đối với các luồng byte. Nếu bạn có một chuỗi, nó đã được mã hóa từ một người nào đó trên đường đi, người đã biết hoặc đoán mã hóa để có được chuỗi ở vị trí đầu tiên.


Nếu chuỗi là một giải mã không chính xác được thực hiện với Mã hóa 8 bit đơn giản và bạn đã sử dụng Mã hóa để giải mã nó, bạn thường có thể lấy lại các byte mà không bị hỏng.
Nyerguds

57

Mã dưới đây có các tính năng sau:

  1. Phát hiện hoặc cố gắng phát hiện UTF-7, UTF-8/16/32 (bom, không có bom, endian nhỏ & lớn)
  2. Quay trở lại bảng mã mặc định cục bộ nếu không tìm thấy mã hóa Unicode.
  3. Phát hiện (có xác suất cao) các tệp unicode bị thiếu BOM / chữ ký
  4. Tìm kiếm charset = xyz và mã hóa = xyz bên trong tệp để giúp xác định mã hóa.
  5. Để lưu xử lý, bạn có thể 'nếm' tệp (số byte có thể xác định).
  6. Các tập tin văn bản mã hóa và giải mã được trả lại.
  7. Giải pháp hoàn toàn dựa trên byte cho hiệu quả

Như những người khác đã nói, không có giải pháp nào có thể hoàn hảo (và chắc chắn người ta không thể dễ dàng phân biệt giữa các mã hóa ASCII mở rộng 8 bit khác nhau được sử dụng trên toàn thế giới), nhưng chúng ta có thể nhận được "đủ tốt", đặc biệt là nếu nhà phát triển cũng trình bày cho người dùng một danh sách các mã hóa thay thế như được hiển thị ở đây: Mã hóa phổ biến nhất của mỗi ngôn ngữ là gì?

Một danh sách đầy đủ các bảng mã có thể được tìm thấy bằng cách sử dụng Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: /programming/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}

Điều này hoạt động cho các tệp
.rl

UTF-7 thực sự không thể được giải mã một cách ngây thơ; phần mở đầu đầy đủ của nó dài hơn và bao gồm hai bit của ký tự đầu tiên. Hệ thống .Net dường như hoàn toàn không hỗ trợ cho hệ thống mở đầu của UTF7.
Nyerguds 17/03/2016

Làm việc cho tôi khi không có phương pháp nào khác tôi kiểm tra không giúp được! Cảm ơn Dân.
Tejasvi Hegde

Cảm ơn giải pháp của bạn. Tôi đang sử dụng nó để xác định mã hóa trên các tệp từ các nguồn hoàn toàn khác nhau. Mặc dù vậy, điều tôi tìm thấy là nếu tôi sử dụng giá trị taster quá thấp, kết quả có thể sai. (ví dụ: mã đang trả về Encoding.Default cho tệp UTF8, mặc dù tôi đang sử dụng b.Lipse / 10 làm người khai thác của mình.) Vì vậy, tôi đã tự hỏi, đối số của việc sử dụng một taster nhỏ hơn b.Lipse là gì? Dường như tôi chỉ có thể kết luận rằng Encoding.Default có thể chấp nhận được khi và chỉ khi tôi quét toàn bộ tệp.
Sean

@Sean: Đó là khi tốc độ quan trọng hơn độ chính xác, đặc biệt là đối với các tệp có thể có kích thước hàng chục hoặc hàng trăm megabyte. Theo kinh nghiệm của tôi, ngay cả một giá trị taster thấp cũng có thể mang lại kết quả chính xác ~ 99,9% thời gian. Kinh nghiệm của bạn có thể khác nhau.
Dan W

33

Nó phụ thuộc vào nơi chuỗi 'đến từ'. Một chuỗi .NET là Unicode (UTF-16). Cách duy nhất có thể khác nếu bạn nói, đọc dữ liệu từ cơ sở dữ liệu thành một mảng byte.

Bài viết CodeProject này có thể được quan tâm: Phát hiện mã hóa cho văn bản trong và ngoài

Chuỗi của Jon Skeet trong C # và .NET là một lời giải thích tuyệt vời về chuỗi .NET.


Nó đến từ một ứng dụng không phải là Unicode C ++ .. Bài viết CodeProject có vẻ hơi phức tạp, tuy nhiên nó dường như làm những gì tôi muốn làm .. Cảm ơn ..
krebstar

18

Tôi biết điều này hơi muộn - nhưng phải rõ ràng:

Một chuỗi không thực sự có mã hóa ... trong .NET, chuỗi là một tập hợp các đối tượng char. Về cơ bản, nếu nó là một chuỗi, nó đã được giải mã.

Tuy nhiên, nếu bạn đang đọc nội dung của một tệp được tạo bằng byte và muốn chuyển đổi nó thành một chuỗi thì phải sử dụng mã hóa của tệp.

.NET bao gồm các lớp mã hóa và giải mã cho: ASCII, UTF7, UTF8, UTF32 và hơn thế nữa.

Hầu hết các bảng mã này chứa các dấu thứ tự byte nhất định có thể được sử dụng để phân biệt loại mã hóa nào đã được sử dụng.

Lớp .NET System.IO.StreamReader có thể xác định mã hóa được sử dụng trong một luồng, bằng cách đọc các dấu thứ tự byte đó;

Đây là một ví dụ:

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }

3
Điều này sẽ không hoạt động để phát hiện UTF 16 mà không có BOM. Nó cũng sẽ không quay trở lại codepage mặc định cục bộ của người dùng nếu nó không phát hiện ra bất kỳ mã hóa unicode nào. Bạn có thể sửa lỗi sau bằng cách thêm Encoding.Defaultdưới dạng tham số StreamReader, nhưng sau đó mã sẽ không phát hiện UTF8 mà không có BOM.
Dan W

1
@DanW: Mặc dù vậy, UTF-16 không có BOM có thực sự được thực hiện không? Tôi sẽ không bao giờ sử dụng nó; nó chắc chắn là một thảm họa để mở trên hầu hết mọi thứ.
Nyerguds

11

Một lựa chọn khác, rất muộn trong việc đến, xin lỗi:

http://www.architectshack.com/TextFileEncodingDetector.ashx

Nếu lớp C # nhỏ này sử dụng BOMS nếu có, cố gắng tự động phát hiện các mã hóa unicode có thể, và quay lại nếu không có khả năng mã hóa Unicode nào.

Nghe có vẻ như UTF8Checker được tham chiếu ở trên có nội dung tương tự, nhưng tôi nghĩ rằng phạm vi này hơi rộng hơn - thay vì chỉ UTF8, nó cũng kiểm tra các mã hóa Unicode có thể khác (UTF-16 LE hoặc BE) có thể thiếu BOM.

Hy vọng điều này sẽ giúp được ai đó!


Mã khá đẹp, nó đã giải quyết vấn đề phát hiện mã hóa của tôi :)
CARLOS LOTH

9

Gói Nuget SimpleHelpers.FileEncoding bao bọc một cổng C # của Trình phát hiện bộ ký tự phổ quát Mozilla thành một API đơn giản chết người:

var encoding = FileEncoding.DetectFileEncoding(txtFile);

cái này nên cao hơn, nó cung cấp một giải pháp rất đơn giản: hãy để người khác thực hiện công việc: D
Buddybubble

Thư viện này là GPL
Một

Là nó? Tôi thấy một giấy phép MIT và nó sử dụng một thành phần được cấp phép ba (UDE), một trong số đó là MPL. Tôi đã cố gắng xác định xem UDE có vấn đề đối với một sản phẩm độc quyền hay không, vì vậy nếu bạn có thêm thông tin, nó sẽ được đánh giá rất cao.
Simon Woods

5

Giải pháp của tôi là sử dụng các công cụ tích hợp với một số dự phòng.

Tôi đã chọn chiến lược từ một câu trả lời cho một câu hỏi tương tự khác trên stackoverflow nhưng tôi không thể tìm thấy nó ngay bây giờ.

Trước tiên, nó kiểm tra BOM bằng cách sử dụng logic tích hợp trong StreamReader, nếu có BOM, mã hóa sẽ là thứ gì đó khác hơn Encoding.Defaultvà chúng ta nên tin tưởng vào kết quả đó.

Nếu không, nó sẽ kiểm tra xem chuỗi byte có phải là chuỗi UTF-8 hợp lệ hay không. nếu có, nó sẽ đoán UTF-8 là mã hóa, và nếu không, một lần nữa, mã hóa ASCII mặc định sẽ là kết quả.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}

3

Lưu ý: đây là một thử nghiệm để xem cách mã hóa UTF-8 hoạt động bên trong. Giải pháp được cung cấp bởi vilicvane , để sử dụng một UTF8Encodingđối tượng được khởi tạo để đưa ra một ngoại lệ về giải mã thất bại, đơn giản hơn nhiều và về cơ bản cũng làm điều tương tự.


Tôi đã viết đoạn mã này để phân biệt giữa UTF-8 và Windows-1252. Nó không nên được sử dụng cho các tệp văn bản khổng lồ, vì nó tải toàn bộ vào bộ nhớ và quét nó hoàn toàn. Tôi đã sử dụng nó cho các tệp phụ đề .srt, để có thể lưu chúng trở lại trong mã hóa mà chúng được tải.

Mã hóa được cung cấp cho hàm dưới dạng ref phải là mã hóa dự phòng 8 bit để sử dụng trong trường hợp tệp được phát hiện là không hợp lệ UTF-8; nói chung, trên các hệ thống Windows, đây sẽ là Windows-1252. Điều này không làm bất cứ điều gì ưa thích như kiểm tra phạm vi ascii hợp lệ thực tế và không phát hiện UTF-16 ngay cả trên dấu thứ tự byte.

Lý thuyết đằng sau việc phát hiện bitwise có thể được tìm thấy ở đây: https://ianthehenry.com/2015/1/17/decoding-utf-8/

Về cơ bản, phạm vi bit của byte đầu tiên xác định có bao nhiêu sau khi nó là một phần của thực thể UTF-8. Các byte sau nó luôn nằm trong cùng một phạm vi bit.

/// <summary>
/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii.
/// If not, decodes the text using the given fallback encoding.
/// Bit-wise mechanism for detecting valid UTF-8 based on
/// https://ianthehenry.com/2015/1/17/decoding-utf-8/
/// </summary>
/// <param name="docBytes">The bytes read from the file.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>
/// <returns>The contents of the read file, as String.</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    Int32 len = docBytes.Length;
    // byte order mark for utf-8. Easiest way of detecting encoding.
    if (len > 3 && docBytes[0] == 0xEF && docBytes[1] == 0xBB && docBytes[2] == 0xBF)
    {
        encoding = new UTF8Encoding(true);
        // Note that even when initialising an encoding to have
        // a BOM, it does not cut it off the front of the input.
        return encoding.GetString(docBytes, 3, len - 3);
    }
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < len; ++i)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip == 0)
            continue;
        if (isPureAscii)
            isPureAscii = false;
        if (skip < 0)
        {
            isUtf8Valid = false;
            // if invalid utf8 is detected, there's no sense in going on.
            break;
        }
        i += skip;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given encoding. This should be an 8-bit encoding like Windows-1252.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and
/// returns the amount of bytes to skip ahead to do the next read if it is.
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    // 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,
    // but in reality it only goes up to 3, meaning the full amount is 4.
    const Int32 maxUtf8Length = 4;
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    Int32 len = binFile.Length;
    for (Int32 addedlength = 1; addedlength < maxUtf8Length; ++addedlength)
    {
        Int32 fullmask = 0x80;
        Int32 testmask = 0;
        // This code adds shifted bits to get the desired full mask.
        // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
        // effectively always the previous step in the iteration I just store it each time.
        for (Int32 i = 0; i <= addedlength; ++i)
        {
            testmask = fullmask;
            fullmask += (0x80 >> (i+1));
        }
        // figure out bit masks from level
        if ((current & fullmask) == testmask)
        {
            if (offset + addedlength >= len)
                return -1;
            // Lookahead. Pattern of any following bytes is always 10xxxxxx
            for (Int32 i = 1; i <= addedlength; ++i)
            {
                if ((binFile[offset + i] & 0xC0) != 0x80)
                    return -1;
            }
            return addedlength;
        }
    }
    // Value is greater than the maximum allowed for utf8. Deemed invalid.
    return -1;
}

Ngoài ra không có elsetuyên bố cuối cùng sau if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. Tôi cho rằng elsetrường hợp đó sẽ không hợp lệ utf8 : isUtf8Valid = false;. Bạn sẽ
nửa

@hal Ah, đúng ... Tôi đã cập nhật mã của riêng mình với một hệ thống tổng quát hơn (và nâng cao hơn) sử dụng một vòng lặp lên đến 3 nhưng về mặt kỹ thuật có thể được thay đổi thành vòng lặp tiếp theo Tôi nghĩ có thể mở rộng UTF-8 lên đến 6 byte được thêm vào, nhưng chỉ có 3 byte được sử dụng trong các triển khai hiện tại), vì vậy tôi đã không cập nhật mã này.
Nyerguds

@hal Cập nhật nó vào giải pháp mới của tôi. Nguyên tắc vẫn giữ nguyên, nhưng mặt nạ bit được tạo và kiểm tra trong một vòng lặp chứ không phải tất cả được viết rõ ràng bằng mã.
Nyerguds 14/03/2016

1

Tôi đã tìm thấy thư viện mới trên GitHub: CharsetDetector / UTF-unknown

Trình phát hiện bộ ký tự xây dựng trong C # - .NET Core 2-3, .NET tiêu chuẩn 1-2 & .NET 4+

nó cũng là một cổng của Bộ phát hiện ký tự phổ quát Mozilla dựa trên các kho lưu trữ khác.

CharsetDetector / UTF-unknown có một lớp được đặt tên CharsetDetector.

CharsetDetector chứa một số phương pháp phát hiện mã hóa tĩnh:

  • CharsetDetector.DetectFromFile()
  • CharsetDetector.DetectFromStream()
  • CharsetDetector.DetectFromBytes()

kết quả được phát hiện là trong lớp DetectionResultcó thuộc tínhDetected là thể hiện của lớp DetectionDetailvới các thuộc tính dưới đây:

  • EncodingName
  • Encoding
  • Confidence

dưới đây là một ví dụ để hiển thị việc sử dụng:

// Program.cs
using System;
using System.Text;
using UtfUnknown;

namespace ConsoleExample
{
    public class Program
    {
        public static void Main(string[] args)
        {
            string filename = @"E:\new-file.txt";
            DetectDemo(filename);
        }

        /// <summary>
        /// Command line example: detect the encoding of the given file.
        /// </summary>
        /// <param name="filename">a filename</param>
        public static void DetectDemo(string filename)
        {
            // Detect from File
            DetectionResult result = CharsetDetector.DetectFromFile(filename);
            // Get the best Detection
            DetectionDetail resultDetected = result.Detected;

            // detected result may be null.
            if (resultDetected != null)
            {
                // Get the alias of the found encoding
                string encodingName = resultDetected.EncodingName;
                // Get the System.Text.Encoding of the found encoding (can be null if not available)
                Encoding encoding = resultDetected.Encoding;
                // Get the confidence of the found encoding (between 0 and 1)
                float confidence = resultDetected.Confidence;

                if (encoding != null)
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");
                }
                else
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");
                }
            }
            else
            {
                Console.WriteLine($"Detection failed: {filename}");
            }
        }
    }
}

ảnh chụp màn hình kết quả ví dụ: nhập mô tả hình ảnh ở đây

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.