1. Anasayfa
  2. Haber
Trendlerdeki Yazı

Opera, Kullanıcıların LLM’leri Yerel Olarak Çalıştırmasına İzin Verecek

Opera, Kullanıcıların LLM’leri Yerel Olarak Çalıştırmasına İzin Verecek
Opera, Kullanıcıların LLM’leri Yerel Olarak Çalıştırmasına İzin Verecek
0

Opera, kullanıcıların Büyük Dil Modellerini (LLM’ler) bilgisayarlarına yerel olarak indirip kullanmalarına olanak sağlayacak yeni bir özellik tanıttı. Özelliğin geliştirici akışı güncellemelerini alan Opera One kullanıcılarına açık olduğunu belirtelim. Bu sayede kullanıcılar, Meta’dan Llama, Google’dan Gemma, Vicuna, Mistral AI ve daha fazlası dahil olmak üzere 50’den fazla aileden 150’den fazla modele erişebilecek.

Opera, bu yeni özellikleri “Yapay Zeka Özellik Düşürme Programı”nın bir parçası olarak adlandırıyor ve kullanıcı verilerinin yerel olarak cihazlarında tutulacağına, böylece bir sunucuya bilgi göndermeye gerek kalmadan üretken yapay zekayı kullanmalarına olanak sağlanacağının altını çiziyor. Şirket, bu modelleri kullanıcıların bilgisayarlarında çalıştırmak için Ollama açık kaynak çerçevesini kullanıyor. Modellerin her çeşidinin yerel sistemde 2-10 GB arası alanı bulunuyor.

Geçen yıl Opera One‘ın piyasaya sürülmesiyle şirketin yapay zeka merkezli bir amiral gemisi tarayıcısı olmaya çalıştığını açıkça ortaya koyduğunu ve yapay zeka asistanı Aria‘yı sunduğunu hatırlatalım.

Opera’daki bu yeni özelliği denemek için Opera Developer’ın en yeni sürümüne yükseltebilir ve aşağıdaki adımları izleyerek yerel LLM’leri bilgisayarınızda etkinleştirebilirsiniz.

Bu konu hakkında ne düşünüyorsunuz?
Hep beraber teknoloji haber‘da tartışalım.

Reaksiyon Göster
  • 0
    alk_
    Alkış
  • 0
    be_enmedim
    Beğenmedim
  • 0
    sevdim
    Sevdim
  • 0
    _z_c_
    Üzücü
  • 0
    _a_rd_m
    Şaşırdım
  • 0
    k_zd_m
    Kızdım
Paylaş

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir