Regulator Data Inggris Raya Memperingatkan Perusahaan Teknologi Atas Masalah Perlindungan Data AI Generatif
Kantor Komisi Informasi (ICO) Inggris Raya telah mengeluarkan peringatan kepada perusahaan teknologi tentang undang-undang perlindungan data saat mengembangkan model AI generatif.

Di tengah kekhawatiran atas perlindungan data AI generatif, Kantor Komisi Informasi Inggris Raya (ICO) mengingatkan perusahaan teknologi untuk menegakkan undang-undang perlindungan data. Ini terjadi tak lama setelah regulator privasi data Italia melarang penggunaan ChatGPT, dengan tuduhan pelanggaran privasi.
ICO merilis posting blog yang menekankan kepada organisasi bahwa peraturan perlindungan data masih berlaku, bahkan jika informasi pribadi yang diproses bersumber dari sumber daya yang tersedia untuk umum. Stephen Almond, Direktur Teknologi dan Inovasi ICO, mendesak organisasi yang mengembangkan atau menggunakan AI generatif untuk mengadopsi perlindungan data dengan desain dan pendekatan default sejak awal.
Dalam pernyataannya, Almond menekankan bahwa organisasi yang bekerja dengan data pribadi untuk tujuan AI generatif harus mempertimbangkan dasar hukum mereka untuk memproses data pribadi. Mereka juga harus mempertimbangkan bagaimana mereka dapat mengurangi risiko keamanan dan menangani permintaan hak individu. Almond menegaskan bahwa tidak ada pembenaran untuk mengabaikan implikasi privasi AI generatif.
Selain ICO dan regulator data Italia, tokoh terkenal lainnya telah menyuarakan keprihatinan mereka terkait potensi risiko AI generatif. Bulan lalu, lebih dari 1.100 pemimpin teknologi, termasuk salah satu pendiri Apple Steve Wozniak dan pengusaha Elon Musk, menyerukan jeda enam bulan dalam pengembangan sistem AI yang lebih kuat daripada GPT-4 OpenAI. Dalam sebuah surat terbuka, para penandatangan memperingatkan masa depan distopia, mempertanyakan apakah AI tingkat lanjut dapat mengakibatkan hilangnya kendali atas peradaban kita dan kemungkinan ancaman terhadap demokrasi melalui chatbot yang menyebarkan propaganda dan berita palsu di platform media sosial. Mereka juga mengemukakan kekhawatiran tentang pekerjaan otomatisasi AI, termasuk pekerjaan yang memuaskan.
Regulasi AI menghadirkan tantangan unik saat inovasi bergerak dengan kecepatan tinggi, melampaui kecepatan tindakan regulasi. Frank Buytendijk, seorang analis di Gartner, menunjukkan bahwa peraturan yang terlalu spesifik dapat kehilangan keefektifan begitu teknologi berkembang, sementara peraturan tingkat tinggi berjuang dengan kejelasan. Dia berpendapat bahwa kepercayaan yang terkikis dan penerimaan sosial akibat kesalahan yang mahal, daripada regulasi, dapat menghambat inovasi AI. Meskipun demikian, peraturan AI yang menuntut model diperiksa untuk bias dan algoritme dibuat lebih transparan dapat mendorong inovasi untuk mendeteksi bias dan mencapai transparansi dan penjelasan, tambah Buytendijk.
Mengingat keprihatinan ini, platform pengembangan no-code dan low-code, seperti AppMaster, bertujuan untuk menyederhanakan pengembangan aplikasi sambil memprioritaskan perlindungan data, keamanan, dan kepatuhan. Dengan membuat aplikasi backend, web, dan seluler tanpa menghasilkan utang teknis, pengguna dapat secara efisien mengembangkan solusi perangkat lunak yang dapat diskalakan lengkap dengan backend server, situs web, portal pelanggan, dan aplikasi seluler asli. Merangkul penggunaan AI yang bertanggung jawab memastikan bahwa inovasi tidak mengorbankan privasi dan keamanan, memungkinkan industri teknologi berkembang secara bertanggung jawab.


