Birleşik Krallık Veri Düzenleyicisi, Teknoloji Şirketlerini Üretken Yapay Zeka Veri Koruma Endişeleri Konusunda Uyardı
Birleşik Krallık Bilgi Komisyonu Ofisi (ICO), üretken yapay zeka modelleri geliştirirken teknoloji şirketlerine veri koruma yasaları hakkında bir uyarı yayınladı.

Birleşik Krallık Bilgi Komisyonu Ofisi (ICO), üretken AI veri korumasıyla ilgili endişelerin ortasında, teknoloji şirketlerine veri koruma yasalarını desteklemeleri için bir hatırlatma yayınladı. Bu, İtalya'nın veri gizliliği düzenleyicisinin gizlilik ihlalleri iddiasıyla ChatGPT kullanımını yasaklamasından kısa bir süre sonra geldi.
ICO, işlenen kişisel bilgiler halka açık kaynaklardan alınsa bile, veri koruma düzenlemelerinin hala yürürlükte olduğunu kuruluşlara vurgulayan bir blog yazısı yayınladı. ICO'nun Teknoloji ve İnovasyon Direktörü Stephen Almond, üretici yapay zeka geliştiren veya kullanan kuruluşları en başından itibaren tasarım gereği ve varsayılan yaklaşımla veri koruma yaklaşımını benimsemeye çağırdı.
Almond yaptığı açıklamada, üretken AI amaçları için kişisel verilerle çalışan kuruluşların, kişisel verileri işlemek için yasal dayanaklarını düşünmeleri gerektiğini vurguladı. Ayrıca güvenlik risklerini nasıl azaltabileceklerini ve bireysel hak taleplerini nasıl ele alabileceklerini de düşünmelidirler. Almond, üretici yapay zekanın mahremiyet üzerindeki etkilerini ihmal etmenin hiçbir gerekçesi olmadığında ısrar ediyor.
ICO ve İtalyan veri düzenleyicisinin yanı sıra, diğer önemli kişiler, üretici yapay zekanın potansiyel risklerine ilişkin endişelerini dile getirdiler. Geçen ay, Apple kurucu ortağı Steve Wozniak ve girişimci Elon Musk da dahil olmak üzere 1.100'den fazla teknoloji lideri, OpenAI'nin GPT-4'ünden daha güçlü AI sistemlerinin geliştirilmesinde altı aylık bir duraklama çağrısında bulundu. Açık bir mektupta imzacılar, distopik bir gelecek konusunda uyarıda bulunarak, gelişmiş yapay zekanın sosyal medya platformlarında propaganda ve sahte haberler yayan sohbet robotları aracılığıyla medeniyetimiz üzerinde kontrol kaybına ve demokrasiye yönelik olası tehditlere yol açıp açmayacağını sorguladı. Ayrıca, yerine getirme işleri de dahil olmak üzere AI otomatikleştirme işleri hakkında endişelerini dile getirdiler.
Yapay zeka düzenlemesi, inovasyonun düzenleyici önlemlerin hızını geride bırakarak hızlı bir şekilde ilerlemesi nedeniyle benzersiz bir zorluk sunuyor. Gartner'da bir analist olan Frank Buytendijk, aşırı derecede spesifik düzenlemelerin teknoloji ilerledikçe etkinliğini kaybedebileceğine, üst düzey düzenlemelerin ise netlik konusunda mücadele ettiğine dikkat çekti. Düzenlemeden ziyade maliyetli hatalardan kaynaklanan aşınmış güven ve sosyal kabulün yapay zeka inovasyonunu engelleyebileceğini düşündü. Bununla birlikte, Buytendijk, modellerin önyargı için kontrol edilmesini ve algoritmaların daha şeffaf hale getirilmesini talep eden AI düzenlemesinin, önyargıyı tespit etmek ve şeffaflık ve açıklanabilirlik elde etmek için inovasyonu teşvik edebileceğini de sözlerine ekledi.
Bu endişelerin ışığında, AppMaster gibi no-code ve low-code geliştirme platformları veri koruma, güvenlik ve uyumluluğa öncelik verirken uygulama geliştirmeyi basitleştirmeyi amaçlar. Teknik borç oluşturmadan arka uç, web ve mobil uygulamalar oluşturarak, kullanıcılar sunucu arka ucu, web siteleri, müşteri portalları ve yerel mobil uygulamalarla tamamlanmış ölçeklenebilir yazılım çözümlerini verimli bir şekilde geliştirebilirler. Sorumlu AI kullanımını benimsemek, inovasyonun gizlilik ve güvenlik pahasına gelmemesini sağlayarak teknoloji endüstrisinin sorumlu bir şekilde gelişmesine izin verir.


