Apple, OpenELM adını verdiği yeni küçük dil modellerini tanıttı. Bu adım, üretken yapay zeka modellerinin gelişimi için önemli bir adım olarak kabul ediliyor. Ayrıca, Apple’ın bulut tabanlı yapay zeka hizmetlerine ek olarak cihazlar içinde yapay zekâ özellikleri sunma niyetini güçlendiriyor.
Apple, Haziran ayında iPhone’lara getireceği yapay zeka özelliklerini açıklamaya hazırlanırken, bu alandaki adımlarını hızla ilerletiyor. Apple’ın araştırmacıları, son aylarda çeşitli yapay zeka modellerini kullanıma sundular ve bu konuda yeni bir adım daha attılar.
Araştırmacılar, “OpenELM” adını verdikleri dil modellerini Hugging Face Hub platformu üzerinden yayımladılar. Bu modeller, cihazlarda üretken yapay zekanın nasıl kullanılabileceği konusunda önemli bir adım olarak değerlendiriliyor.
Modeller, yapay zekanın direkt cihazdan çalışmasını sağlıyor
“Açık Kaynaklı Verimli Dil Modelleri” (OpenELM) olarak adlandırılan bu modeller, metin odaklı görevlerde, özellikle e-posta yazma gibi alanlarda “son derece verimli” olarak tanımlanıyor. Ayrıca, bu modeller açık kaynaklı olup, herhangi bir geliştirici tarafından kullanılabiliyorlar.
OpenELM modelleri, dört farklı boyutta sunulmakta ve gerçekten “küçük dil modelleri” olarak nitelendirilebilecek seviyededirler. Bu modellerin boyutları sırasıyla 270 milyon parametre, 450 milyon parametre, 1,1 milyar parametre ve 3 milyar parametre olarak belirlenmiş. Parametreler, modellerin eğitim veri kümelerinden ne kadar değişken öğrenebildiğini belirtiyor.
Küçüklüğünü anlamanız için örnek vermek gerekirse, Microsoft geçen gün yeni yapay zeka modeli Phi-3’ü duyurmuştu ve bunu “en küçük yapay zeka modelimiz” olarak nitelendirmişti. Bu modelin boyutu sadece 3.8 milyar parametre içeriyordu. Karşılık olarak, Apple’ın modelleri 270 milyon parametreye kadar düşebiliyor. Bu küçük boyutların anlamı nedir diye soracak olursanız daha az maliyetli olmaları ve cep telefonları, dizüstü bilgisayarlar gibi cihazlarda daha etkin şekilde çalışabilecek şekilde optimize edilebilmeleri.