Trong khi hai tập đoàn công nghệ lớn Microsoft và Google đã công bố kết quả kinh doanh lạc quan, khi nhu cầu về dịch vụ Trí tuệ Nhân tạo (AI) thì ChatGPT một mô hình ngôn ngữ lớn được phát triển bởi OpenAI, lại đang vướng vào kiện tụng vì vi phạm các quy tắc bảo mật dữ liệu của Liên minh châu Âu (EU).
Sau gần 10 tháng điều tra, cơ quan bảo vệ dữ liệu của Italy chính thức đưa ra cáo buộc ChatGPT đã vi phạm các quy tắc bảo mật dữ liệu người dùng.
Cơ quan cho biết ChatGPT đã thu thập dữ liệu cá nhân của người dùng mà không có sự đồng ý rõ ràng của họ. Cụ thể, ChatGPT đã thu thập thông tin về vị trí, ngôn ngữ và sở thích của người dùng. Họ cũng cáo buộc ChatGPT đã sử dụng dữ liệu này để nhắm mục tiêu quảng cáo cho người dùng.
ChatGPT đã bị cấm tạm thời ở Italia vào tháng 3 năm 2023 vì những cáo buộc tương tự. OpenAI đã giải quyết các vấn đề liên quan đến sự đồng ý của người dùng và ChatGPT đã được kích hoạt lại.
Tuy nhiên, Cơ quan bảo vệ dữ liệu của Ý cho rằng OpenAI vẫn chưa giải quyết đầy đủ các vấn đề về bảo mật dữ liệu. Cơ quan này đã yêu cầu OpenAI cung cấp thêm thông tin về cách ChatGPT thu thập và sử dụng dữ liệu người dùng. OpenAI có 30 ngày để đáp ứng yêu cầu của Garante.
Nếu OpenAI không đáp ứng yêu cầu của Cơ quan bảo vệ dữ liệu của Ý, cơ quan này có thể phạt OpenAI lên tới 4% doanh thu toàn cầu.
ChatGPT là một mô hình ngôn ngữ lớn được phát triển bởi OpenAI. Mô hình này có thể tạo văn bản, dịch ngôn ngữ, viết các loại nội dung sáng tạo khác nhau và trả lời câu hỏi của bạn một cách đầy đủ thông tin. Tuy nhiên, ChatGPT cũng đã bị cáo buộc tạo ra các nội dung có hại, chẳng hạn như nội dung phân biệt chủng tộc, phân biệt giới tính và bạo lực.
OpenAI sẽ có 30 ngày để phản hồi cáo buộc này, chúng ta sẽ chờ xem kết quả của vụ kiện này trong những bản tin tiếp theo nhé.