Tôi đã nghe một bài nói chuyện của hội thảo bao gồm hai nhà khoa học có ảnh hưởng của Trung Quốc: Wang Gang và Yu Kai và những người khác.
Khi được hỏi về nút thắt lớn nhất của sự phát triển trí tuệ nhân tạo trong tương lai gần (3 đến 5 năm), Yu Kai, người có nền tảng trong ngành công nghiệp phần cứng, nói rằng phần cứng sẽ là vấn đề thiết yếu và chúng ta nên trả phần lớn sự chú ý của chúng tôi về điều đó. Ông đã cho chúng tôi hai ví dụ:
- Trong sự phát triển ban đầu của máy tính, chúng tôi so sánh các máy của mình bằng chip của nó;
- Trí thông minh nhân tạo rất phổ biến trong những năm này sẽ gần như không thể nếu không được GPU của Nvidia trao quyền.
Các thuật toán cơ bản đã tồn tại từ những năm 1980 và 1990, nhưng trí tuệ nhân tạo đã trải qua 3 mùa đông AI và không theo kinh nghiệm cho đến khi chúng ta có thể đào tạo các mô hình với các máy chủ lớn được tăng cường GPU.
Sau đó, Tiến sĩ Wang đã bình luận với ý kiến của mình rằng chúng ta cũng nên phát triển hệ thống phần mềm vì chúng ta không thể chế tạo một chiếc xe tự động ngay cả khi chúng ta đã kết hợp tất cả các GPU và tính toán trên thế giới lại với nhau.
Sau đó, như thường lệ, tâm trí tôi lang thang và tôi bắt đầu nghĩ rằng điều gì sẽ xảy ra nếu những người có thể vận hành siêu máy tính trong những năm 1980 và 1990 sử dụng các thuật toán mạng thần kinh tồn tại sau đó và huấn luyện chúng với hàng tấn dữ liệu khoa học? Một số người tại thời điểm đó rõ ràng có thể cố gắng xây dựng các hệ thống AI mà chúng ta đang xây dựng bây giờ. Nhưng tại sao AI lại trở thành một chủ đề nóng và trở thành kinh nghiệm cho đến hàng thập kỷ sau? Có phải chỉ là vấn đề phần cứng, phần mềm và dữ liệu?