Tôi có những câu hỏi lấy cảm hứng từ vụ bê bối tuyển dụng gần đây của Amazon, nơi họ bị buộc tội phân biệt đối xử với phụ nữ trong quá trình tuyển dụng của họ. Thêm thông tin ở đây :
Các chuyên gia về máy học của Amazon.com Inc đã phát hiện ra một vấn đề lớn: công cụ tuyển dụng mới của họ không thích phụ nữ.
Nhóm đã xây dựng các chương trình máy tính từ năm 2014 để xem xét hồ sơ xin việc của người xin việc với mục đích cơ giới hóa việc tìm kiếm tài năng hàng đầu ...
... Công cụ tuyển dụng thử nghiệm của công ty đã sử dụng trí thông minh nhân tạo để cho điểm số ứng viên từ một đến năm sao ...
... Nhưng vào năm 2015, công ty nhận ra hệ thống mới của mình không xếp hạng các ứng cử viên cho các công việc của nhà phát triển phần mềm và các bài đăng kỹ thuật khác theo cách trung lập về giới.
Đó là bởi vì các mô hình máy tính của Amazon đã được đào tạo cho các ứng viên thú y bằng cách quan sát các mẫu trong sơ yếu lý lịch được gửi cho công ty trong khoảng thời gian 10 năm. Hầu hết đến từ nam giới, một sự phản ánh của sự thống trị của nam giới trong ngành công nghệ. (Đối với một hình ảnh về sự cố giới tính trong công nghệ, xem: tại đây ) Thực tế, hệ thống của Amazon tự dạy rằng các ứng cử viên nam thích hợp hơn. Nó đã phạt các sơ yếu lý lịch bao gồm từ "phụ nữ", như trong "đội trưởng câu lạc bộ cờ vua của phụ nữ." Và nó đã hạ bậc sinh viên tốt nghiệp của hai trường đại học toàn nữ, theo những người quen thuộc với vấn đề này. Họ không chỉ định tên của các trường.
Amazon đã chỉnh sửa các chương trình để làm cho chúng trung lập với các điều khoản cụ thể này. Nhưng điều đó không đảm bảo rằng các máy móc sẽ không nghĩ ra các cách sắp xếp ứng viên khác có thể chứng minh sự phân biệt đối xử, người dân nói.
Công ty Seattle cuối cùng đã giải tán đội vào đầu năm ngoái vì các giám đốc điều hành đã mất hy vọng cho dự án ...
... Thí nghiệm của công ty ... đưa ra một nghiên cứu trường hợp về những hạn chế của học máy.
... Các nhà khoa học máy tính như Nihar Shah, người dạy học máy tại Đại học Carnegie Mellon, nói rằng vẫn còn nhiều việc phải làm.
"Làm thế nào để đảm bảo rằng thuật toán là công bằng, làm thế nào để đảm bảo thuật toán thực sự có thể hiểu và giải thích được - điều đó vẫn còn khá xa vời", ông nói.NGÔN NGỮ MASCULINE
[Amazon] đã thành lập một nhóm trong trung tâm kỹ thuật tại Edinburgh của Amazon, nơi đã phát triển lên đến hàng chục người. Mục tiêu của họ là phát triển AI có thể nhanh chóng thu thập dữ liệu trên web và phát hiện ra các ứng cử viên đáng tuyển dụng, những người quen thuộc với vấn đề này cho biết.
Nhóm đã tạo ra 500 mô hình máy tính tập trung vào các chức năng và vị trí công việc cụ thể. Họ đã dạy mỗi người nhận ra khoảng 50.000 điều khoản xuất hiện trong hồ sơ của các ứng cử viên trước đây. Các thuật toán được học để gán ít ý nghĩa cho các kỹ năng phổ biến trong các ứng viên CNTT, chẳng hạn như khả năng viết mã máy tính khác nhau ...
Thay vào đó, công nghệ ưa thích các ứng viên tự mô tả bằng cách sử dụng các động từ thường thấy trên sơ yếu lý lịch của các kỹ sư nam, như "thực hiện" và "bị bắt", một người nói.
Giả sử tôi muốn xây dựng một mô hình thống kê để dự đoán một số đầu ra từ dữ liệu cá nhân, như xếp hạng năm sao để giúp tuyển dụng người mới. Hãy nói rằng tôi cũng muốn tránh sự phân biệt giới tính, như một hạn chế về đạo đức. Cho hai hồ sơ hoàn toàn bằng nhau ngoài giới tính, đầu ra của mô hình nên giống nhau.
Tôi có nên sử dụng giới tính (hoặc bất kỳ dữ liệu nào tương quan với nó) làm đầu vào và cố gắng sửa hiệu ứng của chúng hoặc tránh sử dụng những dữ liệu này?
Làm cách nào để kiểm tra sự vắng mặt của phân biệt đối xử đối với giới?
Làm cách nào để sửa mô hình của tôi cho dữ liệu phân biệt đối xử nhưng tôi không muốn vì lý do đạo đức?