Yapay zeka alanında faaliyet gösteren büyük teknoloji şirketleri, milyarlarca dolar harcayarak büyük dil modelleri oluşturmak için yatırım yapmaktaydı. Ancak son zamanlarda gelirlerini artırmak ve kurumsal müşterileri çekmek amacıyla daha küçük dil modellerine yöneldiler. Apple, Microsoft, Meta ve Google gibi şirketler, daha az parametre içeren ancak yine de güçlü yeteneklere sahip yeni yapay zeka modellerini piyasaya sundular.
Yapay zeka yazılımlarının performansı genellikle parametre sayısıyla doğru orantılıdır. OpenAI’nin GPT-4o modeli ve Google’ın Gemini 1.5 Pro modeli gibi son modeller, milyonlarca parametreye sahipken Meta, 400 milyar parametreli Llama modelinin versiyonunu eğitmekte. Ancak büyük parametre sayısına sahip modelleri çalıştırmak için gereken maliyetler, şirketleri daha küçük modellere yönlendirdi.
Meta ve Google gibi teknoloji devleri, sadece birkaç milyar parametreye sahip küçük dil modellerini geliştirmeye başladı. Bu modeller, daha ucuz, enerji tasarruflu ve verileri koruyabilen özelleştirilebilir alternatifler olarak sunuldu. Şirketler arasında Google, Meta, Microsoft ve Mistral gibi Fransız bir start-up, küçük modellerinin yeteneklerini sürekli olarak geliştiriyor.
Meta’nın küresel ilişkiler başkanı Nick Clegg, Llama 3’ün yeni 8 milyar parametreli modelinin GPT-4’e rakip olduğunu belirtirken Microsoft ise Phi-3-küçük modelinin daha iyi performans gösterdiğini ifade etti. Daha küçük modeller aynı zamanda cep telefonları gibi cihazlarda da çalışabilmekte ve yeni uygulamaların önünü açabilmektedir.
Apple da iPhone gibi ürünlerinde yapay zeka modelleri kullanmayı planladığını belirtirken Microsoft, Boyd’un da teyit ettiği gibi, küçük modellerin farklı cihazlarda ilginç kullanım alanlarına sahip olacağını vurguladı. OpenAI başkanı Sam Altman, şirketlerin farklı boyutlarda yapay zeka modelleri sunmaya devam edeceğini ve büyük modeller üzerindeki çalışmalarına devam edeceklerini söyledi. Altman, daha küçük modellerin belirli görevlerde daha iyi çalışabileceğini ekledi.
Sonuç olarak, teknoloji şirketleri artık daha küçük dil modellerine yönelerek hedef kitlelerine daha uygun maliyetli ve enerji tasarruflu yapay zeka çözümleri sunmayı amaçlamaktadır. Bu modeller, hem daha geniş kullanım alanına sahip olacak hem de daha hassas verilerin korunmasına yardımcı olacaktır. Bu gelişmelerle birlikte yapay zeka alanında daha çeşitli ve özelleştirilmiş çözümlerin önümüzdeki dönemde daha fazla yaygınlaşması beklenmektedir.