Şimdi Ara

Nostaljik donanımda modern teknoloji: Pentium II'de yapay zeka çalıştırıldı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
3
Cevap
0
Favori
278
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
1 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Nostaljik donanımda modern teknoloji: Pentium II'de yapay zeka çalıştırıldı
    Oxford Üniversitesi'nden araştırmacı ve mühendislerden oluşan EXO Labs ekibi, 1998 yılında piyasaya çıkan eski bir Windows 98 bilgisayarda güçlü bir dil modelini çalıştırmayı başardı. Hem de sadece 128MB RAM'e sahip, 350MHz hızında bir Pentium II işlemci ile!



    EXO Labs, bu deneyimi bir video ile sosyal medya platformu X'te paylaştı. Videoda, tozlanmış bir Elonex Pentium II sistemine yüklenen Llama2.c tabanlı bir modelin, bir hikaye oluşturma komutunu başarıyla yerine getirdiği görüldü. Üstelik hız açısından da tatmin edici bir performans sergiledi.



    Başarı büyük, amaç farklı






    Ekibin karşılaştığı en büyük zorluklardan biri, 1998 yılına ait bir işletim sistemi üzerinde modern bir yapay zeka modelini derleyip çalıştırmaktı. Ancak bu zorlukların üstesinden gelerek 260.000 parametreli bir LLaMA modelini saniyede 39.31 token işleme hızında çalıştırmayı başardılar. Daha büyük modellerde ise performans kaybı yaşandı; örneğin, 1 milyar parametreli bir model saniyede sadece 0.0093 token hızına ulaşabildi.



    Nostaljik donanımda modern teknoloji: Pentium II'de yapay zeka çalıştırıldı
    Peki, bu deneyin amacı neydi? EXO Labs, yapay zeka modellerini en mütevazı donanımlarda bile çalıştırabilecek hale getirerek, bu teknolojiyi evrenselleştirmeyi hedefliyor. Günümüzde yapay zeka teknolojisi, genellikle güçlü sunucu altyapılarına ve pahalı GPU'lara bağımlı. Ancak EXO Labs, bu durumu tersine çevirmek için çalışıyor.



    Ayrıca Bkz.2025’te teknoloji dünyasının odağı “yapay zeka ajanları” olacak



    EXO Labs, "BitNet" adını verdikleri bir transformer mimarisi üzerinde çalışıyor. Bu teknoloji, model boyutunu küçültmek için üçlü ağırlıklar (ternary weights) kullanıyor ve 7 milyar parametreli bir modeli sadece 1.38GB depolama alanında çalıştırmayı mümkün kılıyor. Daha da etkileyici olan ise, BitNet'in yalnızca CPU ile çalışmak üzere tasarlanmış olması. Bu mimari, 100 milyar parametreli bir modeli tek bir CPU üzerinde, saniyede 5-7 token işleme hızında çalıştırabiliyor.




    Kaynak:https://www.techspot.com/news/106136-llama-language-model-tamed-ancient-windows-98-computer.html







  • 2025'ten selamlar, büyük resim kursu notlarımdan ilk paylaşımımı yapıyorum.

    Optimize sistemin Llama tabanlı olması şaşırtmadı. Hikayenin gerisinde deli kaynak ayıran Mark Zuckerberg var.

    Bu elemanın iki karakteristik özelliği var.

    İlki, gizlilik konusunda aşırı takıntılı. Bunun kökleri üniversite yıllarına dayanıyor. İnsanları stalklayarak başladığı bu yolculukta, gördükleri yüzünden ciddi travmalar yaşamış olmalı. İnsanların bilgilerini platforma kolayca teslim etmesiyle birlikte, kendisi ilk elden paranoya geliştirdi. Bu yüzden webcam'ini bantlıyor, sistemlere asla güvenmiyor ve sürekli bir tedirginlik hali içinde.

    İkincisi, bulduklarını herkesin benimseyeceğini düşünüyor. Yine onun da sebebi Facebook. Daha kısıtlı bir çevrede kalacağını düşünürken milyarlarca insan benimsedi. Bu patlayan özgüvenle gaza gelip NFT, metaverse gibi işlere girdi (tabi terste kalarak darbe yedi)

    Şimdi, bu yapay zeka meselesini de iki tipik özelliği ile şekillendirdi. Açık kaynak olup herkesin bunu benimseyeceğini, işlerin oradan yürüyeceğini düşünüyor.

    Bu da çok iyi oldu. Lokal çalışan sistemlerin gelişmesini hızlandıracak. Sonuçta, istedikleri kadar verilerinizi kaydetmiyoruz desinler, sunucuya teslim ettiğimizde teoride her şey mümkün.




  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
    
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.