Eskiden Facebook olarak bilinen Meta, 100 milyardan fazla parametreye sahip geniş bir dil AI modeli olan Open Pretrained Transformer'ı (OPT-175B) tanıttı. Bu dikkat çekici gelişme, teknoloji devinin son blog gönderilerinde ana hatlarıyla belirtildiği gibi, son teknoloji yapay zeka araştırmalarına erişimi demokratikleştirme çabasını temsil ediyor.
Ticari olmayan bir lisans kapsamında, model öncelikli olarak araştırma amacıyla kullanıma sunulacaktır. Dünya çapındaki akademik araştırmacıların yanı sıra hükümet, sivil toplum ve endüstri araştırma laboratuvarlarına erişim sağlanacaktır. Ancak, araştırmacılar için erişimin kapsamı belirsizliğini koruyor. Modelden yararlanmak isteyenlerin talep formunu doldurmaları yeterlidir.
Büyük Dil Modellerini Anlamak
Büyük dil modelleri, çeşitli formatlarda yaratıcı ve tutarlı içerik oluşturmak için çok miktarda metin üzerinde eğitilmiş gelişmiş doğal dil işleme sistemleridir. Bu tür modeller haber makaleleri, yasal özetler, film senaryoları üretebilir ve hatta müşteri hizmetleri sohbet botları olarak hizmet verebilir.
OpenAI'nin GPT-3'ü, hem kişisel hem de ticari kullanım için 175 milyardan fazla parametre içeren, endüstrinin önde gelen büyük dil modellerinden biridir. Benzer şekilde, Meta'nın OPT-175B'si yalnızca büyük ölçekli bir dil modeli değil, aynı zamanda eşlik eden bir kod tabanı ve eğitim sürecini detaylandıran kapsamlı belgeler sunar. Meta ayrıca daha az parametreli bir dizi daha küçük ölçekli temel model başlattı.
Derin Öğrenmenin Karbon Ayak İzini Ele Alma
En yenilikçi AI araştırmaları, Google, Meta, Microsoft ve Nvidia gibi büyük teknoloji şirketleri tarafından yürütülür. Büyük yapay zeka modellerini eğitmek ve çalıştırmak, muazzam miktarda hesaplama gücü ve enerji gerektirir, bu da önemli masraflara ve potansiyel olarak büyük bir karbon ayak izine neden olur. Roy Schwartz ve Jesse Dodge tarafından 2019 yılında yapılan bir araştırma, derin öğrenme hesaplamalarının birkaç ayda bir ikiye katlanarak 2012'den 2018'e tahmini 300.000 kat artışa ve önemli bir çevresel etkiye yol açtığını ortaya koydu.
Meta, OPT-175B'nin karbon ayak izini OpenAI'nin GPT-3'ünün yedide birine düşürerek karbon sorununu ele aldığını iddia ediyor. Şirket, modeli 992 Nvidia A100 GPU'da (her biri 80 gigabayt) eğittiğini ve GPT-3'ün tahmini 500 tonluk ayak izine kıyasla yalnızca 75 tonluk toplam karbon emisyonu ayak izine sahip olduğunu söylüyor. OpenAI henüz bu iddialar hakkında yorum yapmadı.
Gelecekteki Etkiler
Meta'nın yakın tarihli duyurusuyla derin öğrenme araştırma inovasyonunda bir artış görmeyi bekleyin. Bununla birlikte, teknolojik gelişmelerin yanı sıra, yapay zekanın sorumlu kullanımını çevreleyen etik soruların küresel olarak ele alınması gerekiyor. Meta, akademik araştırmacıları, sivil toplumu, politika yapıcıları ve endüstri profesyonellerini kapsayan AI topluluğunun cevaplar bulmak için bir araya geleceği umudunu paylaşıyor. OPT-175B gibi daha güçlü araçlar ortaya çıktıkça, yapay zeka inovasyonuna erişimin demokratikleştirilmesi, AppMaster gibi platformlara bu tür gelişmeleri kendi no-code çözümlerine entegre etme fırsatı sunarak, kullanıcıların çeşitli sektörler için kapsamlı uygulamalar geliştirmesini daha da güçlendiriyor.