Duże premiery układów do centrów danych spodziewane się po firmach Nvidia i Intel w 2024 roku

Duże premiery układów do centrów danych spodziewane się po firmach Nvidia i Intel w 2024 roku

Duże premiery układów do centrów danych spodziewane się po firmach Nvidia i Intel w 2024 roku

Nvidia szykuje się do znaczącej premiery układów do centrów danych w 2024 roku. Oczekuje się, że przyspieszacze H200, wyposażone w stosy pamięci HBM3e, zapewnią doskonałe osiągi w przypadku obciążeń związanych z sztuczną inteligencją. Mimo że wydajność zmiennoprzecinkowa pozostaje taka sama jak w przypadku H100, pojemność pamięci i przepustowość H200 mają odgrywać kluczową rolę w przyspieszaniu wydajności wnioskowania.

Poważnie podchodząc do swojego zobowiązania co do cotygodniowych premier, Nvidia przygotowuje się również do wprowadzenia na rynek karty graficznej B100, zasilanej mikroarchitekturą Blackwell. Chociaż szczegółowe informacje są skąpe, oczekuje się, że B100 dostarczy jeszcze większą wydajność FLOPS i zwiększoną ilość stosów pamięci HBM3e, mając na celu przewyższenie osiągów konkurencyjnych kart AMD MI300X.

Ponadto, w planach Nvidii znajdują się superukłady CPU-GPU, takie jak GB200 i GB200NVL, które mogą nadal wykorzystywać jednostki procesora CPU oparte na rdzeniach Arm Neoverse V2 znalezione w aktualnej ofercie firmy. Dodatkowo, B40 ma zastąpić L40 i L40S, upraszczając ofertę kart graficznych dla przedsiębiorstw Nvidii pod jedną architekturą.

Warto zauważyć, że zainteresowanie Nvidii wykracza poza karty graficzne do postępów w dziedzinie sieciowania. Dzięki kartom Blackwell firma dąży do osiągnięcia łączności o przepustowości 800 Gb/s, ale istnieją wyzwania związane z prędkościami PCIe. Niemniej jednak, Nvidia ma doświadczenie w zapowiedziach produktów przed ich dostępnością, co sugeruje, że wkrótce mogą pojawić się kolejne szczegóły dotyczące części opartych na architekturze Blackwell.

Tymczasem Intel przygotowuje się do wprowadzenia na rynek swoich trzeciej generacji układów Gaudi AI, Gaudi3, w 2024 roku. Jako następca Ponte Vecchio i po anulowaniu Rialto Bridge, Gaudi3 ma być flagowym rozwiązaniem Intela do szkolenia i wnioskowania AI. Jednak Intel do tej pory kładł nacisk na utajnienie szczegółów, dzięki czemu większość informacji ogranicza się do slajdów prezentacji. Przewiduje się, że układ dostarczy znaczącej poprawy wydajności operacji Brain Float 16 (BF16), przepustowości sieciowej i przepustowości HBM.

Premiery układów do centrów danych z firmy Nvidia i Intel są oznaką zaciekłej konkurencji na rynku. Obie firmy starają się sprostać rosnącym wymaganiom związanym z obciążeniami sztucznej inteligencji, przesuwając granice wydajności, pojemności pamięci i możliwości sieciowania. W 2024 roku czekają nas emocjonujące czasy dla silikonów do centrów danych.

FAQ:
Q: Jakie premiery układów do centrów danych możemy się spodziewać od Nvidii w 2024 roku?
A: Nvidia planuje wprowadzenie przyspieszaczy H200, wyposażonych w stosy pamięci HBM3e, które obiecują doskonałe osiągi w przypadku obciążeń związanych z sztuczną inteligencją. Wydadzą również kartę graficzną B100 opartą na mikroarchitekturze Blackwell.

Q: Jakie są cechy przyspieszaczy H200 firmy Nvidia?
A: Przyspieszacze H200 oferują wyższą pojemność pamięci i większą przepustowość w porównaniu do swojego poprzednika, H100. Oczekuje się, że odgrywać będą kluczową rolę w przyspieszaniu wydajności wnioskowania.

Q: Czym wyróżnia się karta graficzna B100 firmy Nvidia?
A: Karta graficzna B100 ma na celu dostarczenie jeszcze wyższej wydajności FLOPS i większej ilości stosów pamięci HBM3e, przewyższając osiągi konkurencyjnych kart AMD MI300X.

Q: Czym są superukłady CPU-GPU w planach Nvidii?
A: W planach Nvidii znajdują się superukłady CPU-GPU, takie jak GB200 i GB200NVL, które mogą nadal wykorzystywać jednostki procesora CPU oparte na rdzeniach Arm Neoverse V2 znalezione w aktualnej ofercie firmy.

Q: Jakie plany ma Intel na rok 2024?
A: Intel planuje wprowadzenie na rynek swoich trzeciej generacji układów Gaudi AI, Gaudi3, które będą flagowym rozwiązaniem w zakresie szkolenia i wnioskowania AI.

Q: Jakie usprawnienia możemy się spodziewać od układów Gaudi3 firmy Intel?
A: Prognozuje się, że układy Gaudi3 firmy Intel dostarczą znaczącej poprawy wydajności operacji Brain Float 16 (BF16), przepustowości sieciowej i przepustowości HBM.

FAQ:

Q: Jakie premiery układów do centrów danych możemy się spodziewać od Nvidii w 2024 roku?
A: Nvidia planuje wprowadzenie przyspieszaczy H200, wyposażonych w stosy pamięci HBM3e, które obiecują doskonałe osiągi w przypadku obciążeń związanych z sztuczną inteligencją. Wydadzą również kartę graficzną B100 opartą na mikroarchitekturze Blackwell.

Q: Jakie są cechy przyspieszaczy H200 firmy Nvidia?
A: Przyspieszacze H200 oferują wyższą pojemność pamięci i większą przepustowość w porównaniu do swojego poprzednika, H100. Oczekuje się, że odgrywać będą kluczową rolę w przyspieszaniu wydajności wnioskowania.

Q: Czym wyróżnia się karta graficzna B100 firmy Nvidia?
A: Karta graficzna B100 ma na celu dostarczenie jeszcze wyższej wydajności FLOPS i większej ilości stosów pamięci HBM3e, przewyższając osiągi konkurencyjnych kart AMD MI300X.

Q: Czym są superukłady CPU-GPU w planach Nvidii?
A: W planach Nvidii znajdują się superukłady CPU-GPU, takie jak GB200 i GB200NVL, które mogą nadal wykorzystywać jednostki procesora CPU oparte na rdzeniach Arm Neoverse V2 znalezione w aktualnej ofercie firmy.

Q: Jakie plany ma Intel na rok 2024?
A: Intel planuje wprowadzenie na rynek swojej trzeciej generacji układów Gaudi AI, Gaudi3, które będą flagowym rozwiązaniem w zakresie szkolenia i wnioskowania AI.

Q: Jakie usprawnienia możemy się spodziewać od układów Gaudi3 firmy Intel?
A: Prognozuje się, że układy Gaudi3 firmy Intel dostarczą znaczącej poprawy wydajności operacji Brain Float 16 (BF16), przepustowości sieciowej i przepustowości HBM.

Definicje:

1. Przyspieszacz H200: Układ firmy Nvidia wyposażony w stosy pamięci HBM3e, zapewniający doskonałe osiągi w przypadku obciążeń związanych z sztuczną inteligencją.
2. HBM3e: Skrót od „High Bandwidth Memory 3e”, rodzaj technologii pamięci w układach elektronicznych.
3. FLOPS: Skrót od „Floating Point Operations Per Second”, miara wydajności obliczeniowej w systemach komputerowych.
4. Mikroarchitektura Blackwell: Architektura mikroprocesora używana w karcie graficznej B100 firmy Nvidia.
5. GPU: Skrót od „Graphics Processing Unit”, jednostka przetwarzania grafiki.
6. CPU: Skrót od „Central Processing Unit”, jednostka centralna, czyli główny procesor komputera.
7. HBM: Skrót od „High Bandwidth Memory”, rodzaj technologii pamięci stosowanej w układach komputerowych.
8. PCIe: Skrót od „Peripheral Component Interconnect Express”, standard komunikacji pomiędzy urządzeniami w komputerach.
9. Gaudi3: Trzecia generacja układów Gaudi AI, flagowe rozwiązanie firmy Intel do szkolenia i wnioskowania AI.
10. Brain Float 16 (BF16): Rodzaj formatu danych używany w operacjach sztucznej inteligencji.
11. HBM: Skrót od „High Bandwidth Memory”, rodzaj technologii pamięci stosowanej w układach komputerowych.

Linki:

Nvidia
Intel

The source of the article is from the blog mgz.com.tw

Tags: