Şimdi Ara

AMD, yapay zeka için Ultra Ethernet'e hazır sektörün ilk ağ kartını tanıttı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
9
Cevap
0
Favori
409
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
4 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • AMD, yapay zeka için Ultra Ethernet'e hazır sektörün ilk ağ kartını tanıttı
    Ultra Ethernet Konsorsiyumu (UEC) her ne kadar standardın ilk sürümünü 2025’in ilk çeyreğine kadar yayınlamayacak olsa da AMD, yapay zeka (AI) ve yüksek performanslı bilgi işlem (HPC) veri merkezleri için geliştirilen sektörün ilk Ultra Ethernet uyumlu ağ kartını duyurdu. AMD Pensando Pollara 400 olarak adlandırılan bu yeni ağ kartı, AI iş yüklerinde 6 kata kadar performans artışı vaat ediyor.



    Veri merkezleri için



    AMD Pensando Pollara 400, şirketin Pensando birimi tarafından tasarlanan bir işlemciye dayanan 400 GbE Ultra Ethernet kartı konumunda. Kartın dikkat çeken özelliklerinden biri, akıllı çok yollu yönlendirme (intelligent multipathing) olarak bilinen, veri paketlerini en uygun rotalara dinamik olarak dağıtma kabiliyeti. Bu sayede ağda sıkışıklık önlenirken, genel verimlilik artırılıyor. Ayrıca, yola duyarlı sıkışıklık kontrolü (path-aware congestion control) sayesinde, geçici sıkışıklık yaşanan rotalardan veri yönlendirilerek sürekli yüksek hızlı veri akışı sağlanıyor.



    AMD, yapay zeka için Ultra Ethernet'e hazır sektörün ilk ağ kartını tanıttı
    Pollara 400'ün bir diğer önemli özelliği ise hızlı arızadan kurtulma (fast failover) yeteneği. Bu yetenek, ağ hatalarını hızlı bir şekilde tespit ederek, verinin kesintisiz olarak GPU'lar arasında aktarılmasını sağlıyor. Bu da büyük AI kümelerinde performansın sağlam kalmasına ve gecikmelerin minimize edilmesine olanak tanıyor. Tüm bu gelişmiş özellikler, AI altyapısının ölçeklenebilirliğini ve güvenilirliğini artırarak, büyük çaplı dağıtımlar için ideal bir çözüm sunuyor.



    Ayrıca Bkz.AMD, CDNA4 tabanlı 288 GB bellekli Instinct MI355X’in özelliklerini açıkladı



    AMD'nin bu yeni ürünü, Ultra Ethernet Konsorsiyumu’nun hedeflediği ağ altyapısını tamamlayacak şekilde piyasaya sürülecek ve 2025’in ilk yarısında ticari olarak erişilebilir olacak.



    Yeni standardın amacı ne?



    AMD’nin bu hamlesi, Ultra Ethernet Konsorsiyumu’nun (UEC) 1.0 spesifikasyonunu 2025’in ilk çeyreğinde yayınlama planıyla örtüşüyor. Konsorsiyum, Ethernet teknolojisini AI ve HPC iş yüklerinin ihtiyaçlarını karşılayacak şekilde yeniden şekillendirmeyi amaçlıyor. Mart 2024'te 55 olan üye sayısını Ekim 2024 itibarıyla 97'ye çıkaran konsorsiyum, Ethernet teknolojisini maliyet etkinliği ve birlikte çalışabilirlik açısından en verimli şekilde kullanmayı planlıyor.



    Yeni spesifikasyon, AI ve HPC iş yükleri için farklı profiller içerecek. Her iki alanın iş yükleri bazı ortak yönlere sahip olsa da, maksimum verimlilik için farklı protokollerle optimize edilmeleri gerekiyor.




    Kaynak:https://www.tomshardware.com/networking/amd-unveils-industrys-first-ultra-ethernet-ready-network-card-for-ai-and-hpc







  • Ağ kartlarına yapay zeka yetenekleri entegre etmenin temel amacının performans artışı olduğuna inanmak zor.

    Monitörden, ağ kartlarına her donanımın içine yapay zeka çipleri doldurmalarının sebebi her verinin, görüntünün ölçeklenebilir şekilde analiz edilmesi, fişlenmesi, gerektiğinde duraklatılması.

    Yakın gelecekte Snowden, Assange gibi birileri çıkıp insanlık adına kamuoyuyla bazı ifşaatları paylaşmak istediklerinde bunlar daha ethernet kartından geçerken analiz edilip bloklanacak ve ilgili birimler bu kişileri ortadan kaldıracak.

    Bu söylediklerimin kimilerine komplo teorisi gibi geldiğini biliyorum. Yapacak bir şey yok, herkes belli bir farkındalığa ulaşana kadar ve özgürlüklerini artık tamamen feda edip duvara çarpana kadar erken öten horoz veya deli diye anılacağız.

  • Fiberoptik kabloyu direk entegre etselerdi :) . Hız zaten AMD in çölde kum tane gibi ufacık kalıyor 400Gbps ... Elbette kendi içinde anlamı vardır.

  • Kseo kullanıcısına yanıt

    Öyle olsa bile ağ kartlarında yapay zeka kullanılması gecikme özellikle mikrogecikmeler üzerinde büyük fark yaratacaktır.2 seçenek sunmaları Yeter yüksek verim için optimize et düşük gecikme için optimize et.Ve bunlar diğer rotalar üzerinde kullanılan ağ ekipmanları iletişim kurarak en iyi verimi ayarlayacaktır.Artık kullanıcıların manual ayarlamasına gerek yok.


    < Bu ileti mobil sürüm kullanılarak atıldı >
  • NVIDIA Mellanox ürünlerinden pazar payı almak için GPU tarafında da ezmeleri lazım yoksa beyhude uğraşıyorlar.

  • Bu kartlar yapay zeka sunucuları için özel; benzer kart NVIDIA tarafında da mevcut halihazırda. Burada ben şahsen Nvidia bir AI sistem kurduysam Nvidia Ağ kartı ve Nvidia Switch kullanırım. AMD'de sanırım bu konularda atılım yapacak ve şimdiden sistemini buna hazırlıyor.

    Nvidia Spectrum SN5600 switch 800Gbit'lik portlara sahip. Nvidia BluField-3 ağ kartları 400Gbit destekliyor. Nvidia Blackwell çiplere sahip sunucuları aynı markanın ağ ekipmanları ile konuşturmak daha mantıklı olacaktır. Özellikle Nvidia kendi AI sunucusu Blackwell DGX B200 ( 8 adet Blackwell çip içeriyor bu sunucu) 515.000$ dolar civarında bir fiyatla açıklandı. Bunlardan binlercesi verimerkezinde olacaktır.

  • Ya 400Gb/s tamam da. Satın alırlarken Xilinx'in hızlandırıcılı FPGA'larında çift 100 Gb/s vardı zaten. Nasıl bir pazarlama açlığıdır bu.


    Bu arada en son bir buçuk sene önce 802.3'e bakmıştım. 1,6 Tb/s taslak, geliştirme aşamasında idi. Onu halledip geçmişler midir 3,2 Tb/s'ye acaba... :)




    < Bu mesaj bu kişi tarafından değiştirildi cafyon -- 14 Ekim 2024; 23:55:28 >
  • Kseo kullanıcısına yanıt

    Ya yapay zeka ürünün pazarlama stratejisi. Burada kilit özellik RDMA. Standartlaştırılma yolunda.

  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.