Các công ty AI hàng đầu bao gồm OpenAI, Alphabet (GOOGL.O) và Meta Platforms (META.O) đã đưa ra các cam kết tự nguyện với Nhà Trắng để thực hiện các biện pháp như đánh dấu nội dung do AI tạo ra để giúp công nghệ trở nên an toàn hơn, chính quyền Biden cho biết hôm thứ Sáu.
Các công ty - bao gồm Anthropic, Inflection, Amazon.com (AMZN.O) và đối tác của OpenAI là Microsoft (MSFT.O) - cũng cam kết kiểm tra kỹ lưỡng các hệ thống trước khi phát hành và chia sẻ thông tin về cách giảm thiểu rủi ro và đầu tư vào an ninh mạng.
Chiến thắng cho đảng Biden
Động thái này được coi là một chiến thắng cho nỗ lực của chính quyền Biden trong việc điều chỉnh công nghệ đã trải qua sự bùng nổ về đầu tư và mức độ phổ biến của người tiêu dùng.
Kể từ khi trí tuệ nhân tạo phát triển, việc sử dụng dữ liệu để tạo nội dung mới như đoạn văn tự nhiên của ChatGPT đã trở nên cực kỳ phổ biến trong năm nay, các nhà lập pháp trên toàn thế giới đã bắt đầu xem xét cách giảm thiểu nguy cơ của công nghệ mới nổi này đối với an ninh quốc gia và kinh tế.
Đa số Thượng viện Hoa Kỳ Chuck Schumer, người đã kêu gọi "luật pháp toàn diện" để thúc đẩy và đảm bảo các biện pháp bảo vệ trí tuệ nhân tạo, đã ca ngợi các cam kết vào thứ Sáu và cho biết ông sẽ tiếp tục làm việc để xây dựng và mở rộng các cam kết đó.
Người đứng đầu đảng đa số Thượng viện Mỹ, Chuck Schumer, người đã kêu gọi "luật pháp toàn diện" để đẩy mạnh và đảm bảo các biện pháp bảo vệ trên trí tuệ nhân tạo, đã khen ngợi những cam kết vào ngày Thứ Sáu và nói rằng ông sẽ tiếp tục làm việc để xây dựng và mở rộng các cam kết đó.
Nhà Trắng đại diện chính quyền Biden cho biết họ sẽ nỗ lực thiết lập một khuôn khổ quốc tế để quản lý việc phát triển và sử dụng AI.
Quốc hội đang xem xét một dự luật yêu cầu các quảng cáo chính trị tiết lộ liệu AI có được sử dụng để tạo hình ảnh hoặc nội dung khác hay không.
Cam kết của từ các gã công nghệ
Là một phần của nỗ lực, bảy công ty đã cam kết phát triển một hệ thống để "tạo hình mờ" cho tất cả các dạng nội dung, từ văn bản, hình ảnh, âm thanh đến video do AI tạo ra để người dùng biết khi nào công nghệ đã được sử dụng.
Hình mờ này, được nhúng vào nội dung theo cách kỹ thuật, có lẽ sẽ giúp người dùng dễ dàng phát hiện ra những hình ảnh hoặc âm thanh giả mạo sâu sắc, chẳng hạn như có thể cho thấy hành vi bạo lực chưa xảy ra, tạo ra một trò lừa đảo hay hơn hoặc bóp méo hình ảnh của một chính trị gia nhằm đưa người đó ra ánh sáng không mấy tốt đẹp.
Các công ty cũng cam kết tập trung vào việc bảo vệ quyền riêng tư của người dùng khi AI phát triển và đảm bảo rằng công nghệ này không thiên vị và không được sử dụng để phân biệt đối xử với các nhóm dễ bị tổn thương. Các cam kết khác bao gồm phát triển các giải pháp AI cho các vấn đề khoa học như nghiên cứu y tế và giảm thiểu biến đổi khí hậu.