Vào tháng 10 năm 2014, Tiến sĩ Mark Riedl đã xuất bản một cách tiếp cận để kiểm tra trí thông minh AI, được gọi là "Lovelace Test 2.0" , sau khi được truyền cảm hứng từ Thử nghiệm Lovelace ban đầu (xuất bản năm 2001). Mark tin rằng Thử nghiệm Lovelace ban đầu sẽ không thể vượt qua, và do đó, đã đề xuất một phiên bản yếu hơn và thực tế hơn.
Lovelace Test 2.0 đưa ra giả định rằng để một AI thông minh, nó phải thể hiện sự sáng tạo. Từ tờ giấy:
Thử nghiệm Lovelace 2.0 như sau: tác nhân nhân tạo a bị thách thức như sau:
a phải tạo ra một tạo tác o loại t;
o phải tuân theo một tập hợp các ràng buộc C trong đó ci ∈ C là bất kỳ tiêu chí nào có thể biểu thị bằng ngôn ngữ tự nhiên;
một người đánh giá con người h, đã chọn t và C, hài lòng rằng o là một thể hiện hợp lệ của t và gặp C; và
một trọng tài người r xác định sự kết hợp của t và C để không phi thực tế đối với một người bình thường.
Vì người đánh giá con người có thể đưa ra một số ràng buộc khá dễ dàng để AI đánh bại, người đánh giá con người sau đó dự kiến sẽ tiếp tục đưa ra các ràng buộc ngày càng phức tạp hơn cho AI cho đến khi AI thất bại. Quan điểm của Lovelace Test 2.0 là so sánh sự sáng tạo của các AI khác nhau, không đưa ra một ranh giới phân chia rõ ràng giữa 'trí thông minh' và 'không thông minh' như Thử nghiệm Turing.
Tuy nhiên, tôi tò mò về việc liệu bài kiểm tra này có thực sự được sử dụng trong môi trường học thuật hay không, hay nó chỉ được xem như một thử nghiệm tư duy vào lúc này. Thử nghiệm Lovelace có vẻ dễ áp dụng trong môi trường học thuật (bạn chỉ cần phát triển một số hạn chế có thể đo được mà bạn có thể sử dụng để kiểm tra tác nhân nhân tạo), nhưng nó cũng có thể quá chủ quan (con người có thể không đồng ý với những hạn chế nhất định và một tạo tác sáng tạo được tạo ra bởi một AI thực sự đáp ứng kết quả cuối cùng).