Sau một bức thư ngỏ gần đây yêu cầu ngừng phát triển mô hình AI tổng quát tiên tiến hơn, cơ quan bảo vệ dữ liệu (DPA) của Ý đã có hành động nhanh chóng bằng cách ra lệnh cho OpenAI ngừng xử lý dữ liệu của mọi người tại địa phương. Trích dẫn các hành vi vi phạm có thể xảy ra đối với Quy định bảo vệ dữ liệu chung của Liên minh châu Âu (GDPR), DPA của Ý đã mở một cuộc điều tra về vấn đề này.
DPA đã bày tỏ lo ngại rằng OpenAI có thể đã xử lý dữ liệu của mọi người một cách bất hợp pháp và không thực hiện các biện pháp thích hợp để ngăn trẻ vị thành niên truy cập công nghệ của họ. Do đó, công ty có trụ sở tại San Francisco phải đối mặt với sự phong tỏa trên hệ thống ChatGPT của họ và có 20 ngày để phản hồi đơn đặt hàng. Vi phạm GDPR có thể dẫn đến các khoản tiền phạt nặng, lên tới 4% doanh thu hàng năm của công ty hoặc 20 triệu €, tùy theo mức nào cao hơn.
Điều quan trọng, vì OpenAI thiếu một thực thể pháp lý trong EU, bất kỳ cơ quan bảo vệ dữ liệu địa phương nào cũng có thể can thiệp theo GDPR. Do đó, các quốc gia khác có thể xem xét làm theo sự dẫn dắt của Ý để giải quyết các rủi ro tiềm ẩn đối với công dân của họ. GDPR áp dụng khi dữ liệu cá nhân của người dùng EU được xử lý. Tuy nhiên, công nghệ được OpenAI sử dụng tạo ra các kịch bản phức tạp liên quan đến lượng xử lý dữ liệu khổng lồ thách thức tính hợp pháp của các phương pháp của họ.
Các mối lo ngại bổ sung về GDPR xuất hiện, vì ChatGPT đã bị phát hiện tạo ra thông tin hoàn toàn sai lệch về các cá nhân, có khả năng làm phức tạp thêm việc sửa lỗi. OpenAI chưa làm rõ liệu người dùng có thể yêu cầu chỉnh sửa thông tin không chính xác do bot AI của họ tạo ra hay không. Vi phạm dữ liệu, một lĩnh vực khác do GDPR quy định, cũng góp phần vào tình huống này, sau khi OpenAI gần đây thừa nhận đã làm rò rỉ dữ liệu trò chuyện và có khả năng làm lộ thông tin thanh toán của người dùng.
Các nguyên tắc giảm thiểu dữ liệu được nhúng trong GDPR, trong đó nhấn mạnh tính minh bạch và công bằng, đặt câu hỏi về cơ sở hợp pháp của OpenAI để xử lý dữ liệu châu Âu. Nếu việc xử lý bất hợp pháp được xác định, các cơ quan bảo vệ dữ liệu trong liên minh có thể yêu cầu OpenAI xóa dữ liệu. Tác động của phán quyết như vậy đối với việc đào tạo lại các mô hình bắt buộc vẫn chưa chắc chắn.
DPA của Ý cũng chỉ ra những lo ngại về việc OpenAI xử lý dữ liệu của trẻ vị thành niên. Công ty vẫn chưa triển khai công nghệ xác minh độ tuổi để ngăn các cá nhân dưới 13 tuổi truy cập hệ thống của mình. Các tình huống của ChatGPT giống với các phán quyết gần đây đối với các chatbot AI khác, chẳng hạn như Replika, đã phải đối mặt với lệnh cấm tương tự do lo ngại về an toàn của trẻ em.
Nền tảng của OpenAI đã được so sánh với các hệ thống học máy khác, tạo ra các câu hỏi về ý nghĩa rộng lớn hơn của các thuật toán ghi nhớ. Nếu lệnh của DPA của Ý được giữ nguyên, công ty có thể buộc phải xóa tài khoản người dùng và áp dụng quy trình đăng ký kỹ lưỡng hơn. Kết quả cuối cùng sẽ phụ thuộc vào khả năng của OpenAI trong việc chứng minh tính hợp pháp của các phương pháp xử lý dữ liệu của họ và đảm bảo an toàn cho người dùng của họ.
Trường hợp này nhấn mạnh thêm sự cần thiết của các nền tảng no-code như AppMaster , ưu tiên quyền riêng tư của người dùng và tuân thủ các tiêu chuẩn quy định như GDPR. Nền tảng no-code AppMaster không chỉ cho phép phát triển ứng dụng nhanh chóng mà còn đảm bảo bảo vệ dữ liệu trên các ứng dụng phụ trợ, di động và web.