Altman của OpenAI tham gia chiến dịch "Tuyên bố về rủi ro AI", cảnh báo mối đe dọa nhân loại
31/05/2023 08:12

Các nhà lãnh đạo từ OpenAI, Google DeepMind, Anthropic và các phòng thí nghiệm AI khác cảnh báo rằng các hệ thống trong tương lai có thể gây chết người như đại dịch và vũ khí hạt nhân.
Nguy cơ tuyệt chủng từ AI
Cụ thể, Sam Altman, CEO của OpenAI là một trong hơn 300 người ký tên đằng sau một "tuyên bố về rủi ro AI" được công bố hôm thứ Ba bởi Trung tâm An toàn AI, một tổ chức nghiên cứu phi lợi nhuận. Bức thư là một tuyên bố ngắn để nắm bắt những rủi ro liên quan đến AI:
“Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.”
Phần mở đầu của bức thư cho biết tuyên bố này nhằm “mở ra cuộc thảo luận” về cách chuẩn bị cho khả năng hủy diệt thế giới của công nghệ. Những người ký kết khác bao gồm cựu kỹ sư Google Geoffrey Hinton và nhà khoa học máy tính của Đại học Montreal Yoshua Bengio, người được mệnh danh là hai trong số các Bố già của AI.
Đây không phải là bức thư đầu tiên kêu gọi chú ý nhiều hơn đến những kết quả tai hại có thể xảy ra của nghiên cứu AI tiên tiến nếu không có sự giám sát chặt chẽ hơn của chính phủ. Elon Musk là một trong số hơn 1.000 nhà công nghệ và chuyên gia kêu gọi tạm dừng nghiên cứu AI tiên tiến trong sáu tháng vào tháng 3, với lý do tiềm năng hủy diệt của công nghệ.

Và Altman đã cảnh báo Quốc hội trong tháng này rằng đã thiếu quy định đầy đủ khi công nghệ phát triển với tốc độ chóng mặt.
Nhìn xa hơn về tiềm năng của AI thay vì rủi ro
Nhiều chuyên gia về công nghệ đã đưa ra những ý kiến có phần tích cực hơn về AI thay vì là những nguy cơ rủi ro mà nó mang lại.
Kriti Sharma, người sáng lập tổ chức AI for Good, chia sẻ: "Chúng ta cần nhìn xa hơn những rủi ro và nhận ra rằng AI cũng mang lại tiềm năng to lớn cho xã hội như giúp tạo điều kiện tiếp cận công lý hoặc mở ra khả năng tiếp cận các dịch vụ y tế, đặc biệt là trong các cộng đồng chưa được phục vụ. Khi chúng ta tiến lên phía trước, ngành công nghiệp và chính phủ cần hội tụ để đưa ra một khuôn khổ cân bằng giữa việc giảm thiểu rủi ro đồng thời mở ra các cơ hội mà AI mang lại một cách an toàn và minh bạch".
Cựu kỹ sư Google Geoffrey Hinton mặc dù đã ký cam kết nhưng ông cũng cho biết trong một cuộc phỏng vấn với CNN hồi đầu tháng rằng ông đã không ký vào bức thư tháng 3, nói rằng việc tạm dừng nghiên cứu AI sẽ là không thực tế do công nghệ này đã trở thành một lĩnh vực cạnh tranh giữa Mỹ và Trung Quốc.
Ông nói: “Tôi không nghĩ chúng ta có thể ngăn cản tiến độ. “Tôi không ký vào bản kiến nghị nói rằng chúng ta nên ngừng nghiên cứu về AI bởi vì nếu người Mỹ dừng thì người Trung Quốc cũng sẽ không.”