Menyusul surat terbuka baru-baru ini yang meminta penghentian pengembangan model AI generatif yang lebih maju, otoritas perlindungan data (DPA) Italia telah mengambil tindakan cepat dengan memerintahkan OpenAI untuk berhenti memproses data orang secara lokal. Mengutip potensi pelanggaran Peraturan Perlindungan Data Umum (GDPR) Uni Eropa, DPA Italia telah meluncurkan penyelidikan atas masalah tersebut.
DPA telah menyatakan keprihatinannya bahwa OpenAI mungkin telah memproses data orang secara tidak sah dan gagal menerapkan tindakan yang tepat untuk menghentikan anak di bawah umur mengakses teknologi mereka. Akibatnya, perusahaan yang berbasis di San Francisco menghadapi blokade pada sistem ChatGPT mereka dan memiliki waktu 20 hari untuk menanggapi pesanan tersebut. Pelanggaran GDPR dapat menyebabkan denda yang besar, sebesar 4% dari omset tahunan perusahaan atau €20 juta, mana yang lebih tinggi.
Yang penting, karena OpenAI tidak memiliki badan hukum di UE, otoritas perlindungan data lokal mana pun dapat melakukan intervensi di bawah GDPR. Akibatnya, negara lain dapat mempertimbangkan untuk mengikuti jejak Italia untuk mengatasi potensi risiko bagi warganya. GDPR berlaku saat data pribadi pengguna UE diproses. Namun, teknologi yang digunakan oleh OpenAI menciptakan skenario kompleks yang melibatkan pemrosesan data dalam jumlah besar yang menantang legalitas metode mereka.
Kekhawatiran GDPR tambahan muncul, mengingat bahwa ChatGPT ditemukan menghasilkan informasi yang sepenuhnya salah tentang individu, yang berpotensi memperumit perbaikan kesalahan. OpenAI belum memberikan klarifikasi apakah pengguna dapat meminta koreksi atas informasi yang salah yang dihasilkan oleh bot AI mereka. Pelanggaran data, area lain yang diatur oleh GDPR, juga menjadi faktor dalam situasi tersebut, setelah OpenAI baru-baru ini mengaku membocorkan data obrolan dan berpotensi mengungkap informasi pembayaran pengguna.
Prinsip minimalisasi data yang disematkan dalam GDPR, yang menekankan transparansi dan keadilan, mempertanyakan dasar hukum OpenAI untuk memproses data Eropa. Jika pemrosesan yang melanggar hukum ditentukan, otoritas perlindungan data di seluruh serikat pekerja dapat memerintahkan OpenAI untuk menghapus data. Dampak dari keputusan seperti itu tentang pelatihan ulang model yang diperlukan tetap tidak pasti.
DPA Italia juga menunjukkan kekhawatiran tentang penanganan data anak di bawah umur oleh OpenAI. Perusahaan belum menerapkan teknologi verifikasi usia untuk mencegah individu di bawah usia 13 tahun mengakses sistemnya. Keadaan ChatGPT menyerupai keputusan baru-baru ini terhadap chatbot AI lainnya, seperti Replika, yang menghadapi larangan serupa karena masalah keamanan anak.
Platform OpenAI telah disamakan dengan sistem pembelajaran mesin lainnya, menimbulkan pertanyaan tentang implikasi yang lebih luas dari algoritme yang mengingat. Jika perintah DPA Italia ditegakkan, perusahaan dapat dipaksa untuk menghapus akun pengguna dan menerapkan proses pendaftaran yang lebih menyeluruh. Hasil akhirnya akan bergantung pada kemampuan OpenAI untuk menunjukkan keabsahan metode pemrosesan data mereka dan memastikan keamanan pengguna mereka.
Kasus ini semakin menggarisbawahi perlunya platform no-code seperti AppMaster , yang memprioritaskan privasi pengguna dan kepatuhan terhadap standar peraturan seperti GDPR. Platform no-code AppMaster tidak hanya memungkinkan pengembangan aplikasi yang cepat tetapi juga memastikan perlindungan data di seluruh aplikasi backend, seluler, dan web.