Chip NVIDIA AI truyền hai tín hiệu mới

Trung Đào
Trung Đào
Phản hồi: 0

Trung Đào

Writer
Trung Đào

Trung Đào Đã xác thực

Vào ngày 13/11 theo giờ Mỹ, tại Hội nghị Siêu máy tính Toàn cầu 2023 (SC23), Nvidia đã ra mắt GPU H200 thế hệ mới. Vào ngày hôm đó, giá cổ phiếu của Nvidia đã tăng 0,6% lên 486,2 USD tính đến thời điểm đóng cửa, dữ liệu cho thấy Nvidia đã lập kỷ lục về mức tăng liên tiếp dài nhất trong 7 năm qua. Lần này, Nvidia đã định hướng phát triển chip AI hướng tới khả năng lưu trữ và suy luận.
Các sản phẩm mới của NVIDIA lặp lại kế hoạch phát hành chip AI được Intel và AMD tiết lộ trước đó. Chip AI đang phát triển từ một cuộc cạnh tranh tập trung vào sức mạnh tính toán sang một cuộc cạnh tranh đa dạng hơn.

Trọng tâm của cuộc cạnh tranh chip AI có chuyển sang lưu trữ không?​

So với H100 thế hệ trước, hiệu năng của H200 đã được cải thiện từ 60%-90%, tuy nhiên chỉ xét riêng chỉ số sức mạnh tính toán thì sức mạnh tính toán của H200 về cơ bản tương đương với H100. Bảng thông số kỹ thuật sản phẩm của cả hai dưới đây cho thấy điểm mấu chốt cho bước nhảy vọt về hiệu suất là bộ nhớ.
Chip NVIDIA AI truyền hai tín hiệu mới
So sánh thông số kỹ thuật giữa H100 và H200
Khi NVIDIA ra mắt H200, họ đã tuyên bố rằng sản phẩm này là GPU đầu tiên trên thế giới được trang bị HBM3e, trong khi HBM3 vẫn được sử dụng trong H100. Điều này được hiểu rằng HBM3e có thể cung cấp cho H200 bộ nhớ video 141GB với tốc độ truyền 4,8TB/giây. So với người tiền nhiệm A100, vốn thường được các đối thủ khác coi là "đơn vị đo lường", dung lượng đã tăng gần gấp đôi và băng thông cũng tăng gấp 2,4 lần.

Chip NVIDIA AI truyền hai tín hiệu mới
AMD sẽ phát hành MI300X
Trên thực tế, AMD, đối thủ của Nvidia trong lĩnh vực chip AI, đã nhấn mạnh tầm quan trọng của dung lượng lưu trữ chip AI cách đây vài tháng. Giám đốc điều hành AMD Su Zifeng cho biết sản phẩm GPU thuần Instinct MI300X của AMD sẽ ra mắt vào tháng 12 năm nay sử dụng HBM3 với bộ nhớ video 192GB và băng thông 5,2GB/giây. Điều đáng chú ý là sản phẩm của AMD có 8 ngăn xếp bộ nhớ HBM3, trong khi sản phẩm của Nvidia chỉ có 6. Đồng thời, sản phẩm tăng tốc AI đầu tiên MI300A của AMD còn có tới 13 chip nhỏ, chứa tổng cộng 146 tỷ bóng bán dẫn, được trang bị bộ nhớ HBM3 128GB, so với MI250 thế hệ trước thì hiệu năng của MI300A được tăng lên 8 lần và hiệu quả tăng lên 5 lần.
Về phía Intel, Giám đốc điều hành Intel Pat Gelsinger đã công bố lộ trình cho chip Intel AI tại Hội nghị thượng đỉnh đổi mới công nghệ Intel diễn ra vào tháng 9: Đến năm 2024, Intel sẽ ra mắt Gaudi3 sử dụng tiến trình 5nm, là thế hệ AI tiếp theo Gaudi2 được ra mắt vào năm 2022. Đánh giá từ thông số kỹ thuật của sản phẩm, Gaudi2 sử dụng 6 ngăn xếp HBM2 với tổng dung lượng 96GB. Intel cho biết sức mạnh tính toán của Guadi3 sẽ gấp đôi sản phẩm Gaudi2 thế hệ trước, đồng thời băng thông mạng và dung lượng HBM sẽ gấp 1,5 lần so với Gaudi2.
Chip NVIDIA AI truyền hai tín hiệu mới
Thông số kỹ thuật Intel Gaudi2
Có thể thấy rằng, được thúc đẩy bởi nhiều hãng chip khác nhau, cuộc cạnh tranh về chip AI đang mở rộng từ sự cạnh tranh ban đầu về các chỉ số sức mạnh tính toán cho đến lĩnh vực lưu trữ, HBM (lưu trữ băng thông cao) gần như đã trở thành thứ bắt buộc phải có và phải thắng trong số đó. Ian Buck, phó chủ tịch phụ trách điện toán siêu quy mô và hiệu năng cao tại NVIDIA, cho biết: “Nếu bạn muốn tạo ra trí thông minh thông qua các ứng dụng AI và HPC tổng hợp, bạn phải sử dụng bộ nhớ GPU lớn, nhanh để xử lý lượng dữ liệu khổng lồ ở tốc độ và hiệu quả cao".
Chuyên gia ngành bán dẫn Sheng Linghai nói với phóng viên của China Electronics News: "Từ góc độ kỹ thuật, hiệu suất lưu trữ là điểm nghẽn trong việc cải thiện khả năng đào tạo AI. Nếu khả năng lưu trữ không thể theo kịp sức mạnh tính toán, việc đào tạo toàn bộ mô hình sẽ bị hủy bỏ" khó vận hành hiệu quả; từ góc độ doanh nghiệp, phát triển hiệu suất lưu trữ cũng là một trong những cách tương đối tiết kiệm chi phí". Điều này được hiểu rằng HBM3e, bộ nhớ băng thông cao có thông số kỹ thuật cao nhất hiện nay, chủ yếu được cung cấp bởi SK Hynix, Samsung và Micron.

Suy luận có phải là yếu tố có giá trị nhất trong việc cải thiện hiệu suất chip AI?​

Hiệu suất và hiệu quả của việc đào tạo và suy luận mô hình lớn là những chỉ số quan trọng để đo lường hiệu suất GPU. Các nhà sản xuất lớn cũng không ngừng cải thiện khả năng của họ xung quanh việc đào tạo và suy luận mô hình lớn.
Chip NVIDIA AI truyền hai tín hiệu mới
So sánh hiệu năng suy luận giữa H200 và H100
Dữ liệu cải thiện hiệu suất của H200 chủ yếu được phản ánh trong suy luận mô hình. Nvidia cho biết tốc độ suy luận của H200 trên mô hình ngôn ngữ lớn 70 tỷ tham số Llama2 gần gấp đôi so với H100 và mức tiêu thụ điện năng sẽ giảm 50%. Đồng thời, do NVIDIA H200 và H100 đều dựa trên kiến trúc Hopper nên chúng có khả năng tương thích mạnh mẽ với nhau và có thể được thay thế ở một mức độ nhất định, đồng thời NVIDIA tiết lộ rằng GPU B100 thế hệ tiếp theo sử dụng kiến trúc mới kiến trúc cũng sẽ được ra mắt vào năm 2024 để tăng cường hơn nữa hiệu suất đào tạo và suy luận.
Để đáp ứng nhu cầu đào tạo, các nhà sản xuất chất bán dẫn đã đưa ra giải pháp kết nối đa chip để hỗ trợ đào tạo mô hình với thông số lớn hơn. GAUDI 2 HLBA-225 của Intel hỗ trợ 8 chip Gaudi2 chạy cùng nhau; nền tảng Instinct của AMD cũng được trang bị 8 MI300X, mà Su Zifeng gọi là "giải pháp tối ưu cho lý luận và đào tạo trí tuệ nhân tạo"; NVIDIA dựa vào NVLink và NV Switch High- công nghệ kết nối tốc độ cao, ra mắt bo mạch chủ máy chủ HGXH200. Nvidia cho biết khách hàng có thể chọn cài đặt 4 hoặc 8 H200 và chip Grace Hopper có thể mang lại hiệu suất cao nhất cho nhiều khối lượng công việc ứng dụng khác nhau, bao gồm đào tạo và suy luận LLM cho các mô hình rất lớn với hơn 175 tỷ tham số.
“Từ góc độ đào tạo, mặc dù có cái thường được gọi là ‘trận chiến của hàng trăm mô hình’ nhưng các thông số và độ chính xác của nó cần phải được tối ưu hóa hơn nữa. Đồng thời, độ trưởng thành của các mô hình lớn chuyên nghiệp cũng không được tốt như vậy, nên nhu cầu chính hiện nay vẫn là đào tạo mô hình lớn", Sheng Linghai nói: "Đồng thời, nhu cầu suy luận sẽ tăng dần trong tương lai, bởi vì việc ứng dụng trí tuệ nhân tạo cuối cùng phụ thuộc vào khả năng suy luận".
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng

Thương hiệu gia dụng nổi tiếng từ Cộng hoà Séc tạo làn sóng trên thị trường Việt Nam

  • 144
  • 0
Elmich là một thương hiệu gia dụng cao cấp đến từ Cộng hòa Séc, được thành lập vào năm 1995 tại thành phố Ostrava. Với gần 30 năm phát triển...

Siêu máy tính tương lai sẽ "ngốn điện" ngang với 1 thành phố

  • 143
  • 0
Theo báo cáo của Epoch AI (viện nghiên cứu tại San Francisco, công bố cuối tháng 4/2025), đến năm 2030, các siêu máy tính hàng đầu dùng để huấn...

LG đồng hành cùng Hòa Minzy, Obito và Hứa Kim Tuyền tung ra MV “Nếp Nhà”

  • 99
  • 0
LG Electronics Việt Nam vừa giới thiệu MV “Nếp Nhà” với sự kết hợp của ca sĩ Hòa Minzy, rapper Obito và nhạc sĩ Hứa Kim Tuyền. Đây là món quà âm...

Lần đầu tiên một đại gia Việt có tài sản hơn 9 tỉ USD, vượt cả chủ tịch Samsung

  • 206
  • 0
Cổ phiếu VIC của Tập đoàn Vingroup tiếp tục tăng mạnh trong phiên ngày 8-5, góp phần nâng quy mô tài sản ròng của ông Phạm Nhật Vượng vượt 9 tỉ...

Đây là cách "xem YouTube" nhanh nhất có thể bạn chưa thử

  • 248
  • 1
Mô hình Gemini 2.5 Flash có thể tóm tắt nội dung video dài trên YouTube, giúp người dùng tiết kiệm thời gian và nắm bắt thông tin nhanh chóng...

Sạc siêu nhanh xe điện: sự tiện lợi phải trả giá bằng tuổi thọ pin

  • 181
  • 0
Năm 2025 được ca ngợi là "năm bùng nổ sạc siêu nhanh" đối với xe điện. Mặc dù sự tiến bộ nhanh chóng của công nghệ sạc nhanh và sạc siêu nhanh đã...

Cách phục hồi ảnh cũ bằng AI miễn phí nhanh gọn, ai cũng làm được

  • 236
  • 0
Phục hồi ảnh cũ bằng AI miễn phí là giải pháp lý tưởng cho những ai muốn tái hiện lại hình ảnh xưa mà không cần biết quá nhiều về Photoshop hay kỹ...

Samsung công bố hàng loạt TV Neo QLED 8K đến QLED 4K vừa đạt chuẩn chấm lượng tử đích thực từ tổ chức của Đức

  • 134
  • 0
Samsung vừa thông báo rằng dòng TV QLED mới nhất của hãng đã nhận được chứng nhận ‘Màn hình Chấm lượng tử Đích thực’ (Real Quantum Dot Display) từ...

Sếp Apple dự đoán "ngày tàn" của iPhone chỉ trong 10 năm tới: Lý do từ kẻ mà "ai cũng biết là ai"

  • 1,237
  • 0
Phó chủ tịch cấp cao phụ trách mảng dịch vụ của Apple, ông Eddy Cue, vừa đưa ra một nhận định gây sửng sốt về tương lai của chính sản phẩm chủ lực...

"Cú lừa" của Apple và Samsung về dung lượng lưu trữ điện thoại

  • 287
  • 0
Chi phí tăng đáng kể khi nâng cấp bộ nhớ được cho là chiến lược tối đa hóa lợi nhuận của các hãng smartphone, đặc biệt ở phân khúc cao cấp...
Back
Top