‘Vũ khí bí mật’ của Nvidia

Giống như Apple, Nvidia xây dựng vị thế nghìn tỷ USD của mình bằng cách nhốt khách hàng vào “khu vườn đóng”, triệt tiêu mọi đối thủ cạnh tranh.

bởi stevenlam

Nvidia được biết đến với những bộ vi xử lý AI rất mạnh mẽ. Thực tế, điều quan trọng nhất mà công ty này cung cấp chính là một hệ thống khép kín, nhằm giữ chân khách hàng và loại bỏ sự cạnh tranh. Hệ thống này được hình thành từ phần mềm cùng với các chip bán dẫn siêu nhỏ.

Trong suốt 20 năm qua, Nvidia đã xây dựng một “khu vườn khép kín”, tương tự như khu vườn nổi tiếng của Apple. Tuy nhiên, trong khi hệ sinh thái phần mềm và dịch vụ của Apple tập trung vào người tiêu dùng, thì Nvidia lại chú trọng tới các đối tác mong muốn phát triển hệ thống trí tuệ nhân tạo và phần mềm dựa trên chip.

Theo Wall Street Journal, chính hệ thống khép kín này là nguyên nhân giúp Nvidia dễ dàng duy trì vị thế dẫn đầu, mặc cho sự cạnh tranh từ các nhà sản xuất chip khác, bao gồm cả các gã khổng lồ công nghệ như Google và Amazon.

“Hệ điều hành” cho AI Nvidia

Chìa khóa để mở ra tiềm năng của Nvidia chính là nền tảng phần mềm CUDA. Được giới thiệu vào năm 2007, nền tảng này đã cung cấp giải pháp cho một vấn đề mà chưa ai từng đối mặt trước đó.

Vào thời điểm đó, các nhà sản xuất chip cần chạy các phần mềm không yêu cầu đồ họa, chẳng hạn như thuật toán mã hóa và khai thác tiền số, bằng cách sử dụng đơn vị xử lý đồ họa (GPU) của Nvidia. Những con chip này đã được thiết kế chủ yếu cho các ứng dụng đòi hỏi cao về đồ họa như 3D và trò chơi điện tử.

CUDA mở ra khả năng tính toán đa dạng trên các bộ xử lý. Phần mềm trí tuệ nhân tạo (AI) là một trong những ứng dụng mà CUDA hỗ trợ trên chip Nvidia. Công nghệ này đã phát triển nhanh chóng trong những năm gần đây, giúp nhà sản xuất chip AI trở thành một trong những công ty giá trị nhất thế giới.

Ceo Nvidia Jensen Huang. Ảnh Annabelle Chih:bloomberg

CEO Nvidia Jensen Huang. Ảnh: Annabelle Chih/Bloomberg

Tuy nhiên, CUDA chỉ là bước khởi đầu. Trong nhiều năm qua, Nvidia đã đáp ứng nhu cầu của lập trình viên bằng cách ra mắt các thư viện cung cấp mã nguồn chuyên dụng. Những thư viện này cho phép họ thực hiện nhiều tác vụ phức tạp trên GPU với tốc độ không thể đạt được bằng các bộ xử lý truyền thống của Intel và AMD.

Khả năng của nền tảng phần mềm giải thích lý do tại sao trong nhiều năm qua, Nvidia luôn chú trọng đến việc phát triển đội ngũ kỹ sư phần mềm hơn là kỹ sư phần cứng trong công ty.

Giám đốc điều hành Jensen Huang nhấn mạnh rằng Nvidia muốn tập trung vào sự kết hợp giữa phần cứng và phần mềm, và ông gọi đây là “điện toán toàn diện”. Điều này có nghĩa là Nvidia sản xuất tất cả từ chip đến phần mềm nhằm xây dựng AI. Ông còn mô tả phần mềm mà Nvidia phát triển như là “hệ điều hành” cho AI.

Mỗi khi đối thủ công bố chip AI mới để cạnh tranh với Nvidia, những sản phẩm đó sẽ gặp khó khăn khi tương tác với hệ thống mà khách hàng của Nvidia đã sử dụng trong suốt hơn 15 năm để phát triển lượng mã lớn. Do phụ thuộc vào chip của Nvidia, những phần mềm này có thể gặp khó khăn trong việc chuyển đổi sang hệ thống mới của đối thủ.

Tại cuộc họp cổ đông diễn ra vào tháng 6, nhà sản xuất chip AI thông báo rằng CUDA hiện đã có hơn 300 thư viện mã và 600 mô hình AI, và đồng thời hỗ trợ 3.700 ứng dụng được tăng tốc bởi GPU. Tài nguyên phong phú này được hơn 5 triệu lập trình viên từ 40.000 công ty sử dụng.

Cuộc đua “hạ bệ” ngôi vương của Nvidia

Thị trường điện toán AI đang có quy mô lớn, điều này đã thúc đẩy nhiều công ty liên minh lại để cạnh tranh với Nvidia. Atif Malik, một nhà phân tích trong lĩnh vực thiết bị mạng và bán dẫn tại Citi Research, dự đoán rằng doanh thu của thị trường chip AI có thể đạt 400 tỷ USD mỗi năm vào năm 2027.

Nhiều nhà đầu tư đang tập trung vào các start-up nghiên cứu những giải pháp thay thế cho CUDA. Họ tin tưởng rằng các kỹ sư từ những công ty công nghệ lớn có khả năng giúp các doanh nghiệp sử dụng bất kỳ loại chip nào mà họ mong muốn và không còn phải trả “thuế CUDA” do Nvidia áp đặt.

Các công ty công nghệ lớn cũng đang đổ tiền vào việc phát triển các sản phẩm nội bộ nhằm thay thế chip của Nvidia. Cả Google và Amazon đều đã tạo ra các chip tùy chỉnh của riêng mình để phục vụ cho việc đào tạo và triển khai AI. Đến năm 2023, Microsoft cũng đã công bố kế hoạch theo đuổi xu hướng tương tự.

AMD hiện là một trong những đối thủ cạnh tranh nổi bật nhất trong bối cảnh Nvidia thống trị thị trường chip AI. Andrew Dieckman, Phó giám đốc tại AMD cho biết rằng công ty vẫn còn nhỏ bé so với quy mô của Nvidia trên thị trường. Hãng dự kiến doanh thu sẽ đạt 4,5 tỷ USD vào năm 2024, nhờ vào dòng chip AI mang tên Instinct. Đồng thời, AMD cũng đang đầu tư mạnh mẽ vào việc tuyển dụng nhân tài trong lĩnh vực kỹ sư phần mềm.

Microsoft và Meta – hai khách hàng lớn của Nvidia – cũng đã bắt đầu mua chip AI từ AMD. Điều này cho thấy rằng các công ty công nghệ lớn đang tìm kiếm sự cạnh tranh hơn nữa trên thị trường chip trí tuệ nhân tạo, một trong những khoản chi phí lớn nhất trong ngân sách của họ.

Đơn Vị Xử Lý đồ Họa (gpu) Siêu Máy Tính Trí Tuệ Nhân Tạo Hgx H100 Của Nvidia. Ảnh I Hwa Cheng:bloomberg

Đơn vị xử lý đồ họa (GPU) siêu máy tính trí tuệ nhân tạo HGX H100 của Nvidia. Ảnh: I-Hwa Cheng/Bloomberg

CEO Babak Pahlavan của start-up NinjaTech AI đã cho biết ông từng có ý định thành lập công ty sử dụng phần cứng và phần mềm từ Nvidia nếu tài chính cho phép. Tuy nhiên, tình trạng khan hiếm chip H100 do Nvidia sản xuất đã khiến giá cả tăng vọt, khiến các doanh nghiệp AI nhỏ gặp khó khăn trong việc mua sắm.

Cuối cùng, Pahlavan và nhóm đồng sáng lập đã quyết định chuyển sang sử dụng dịch vụ của Amazon. Tập đoàn này đang phát triển dòng chip tùy biến riêng để phục vụ cho việc đào tạo AI. Sau nhiều tháng nỗ lực, nhóm đã đào tạo thành công AI của họ trên chip Trainium của Amazon, điều này không hề dễ dàng, theo nhận định của Wall Street Journal.

Các khách hàng sử dụng chip AI tùy chỉnh từ Amazon bao gồm Anthropic, Airbnb, Pinterest và Snap. Dù Amazon cũng cung cấp chip Nvidia cho khách hàng điện toán đám mây, nhưng chi phí sẽ cao hơn so với việc sử dụng chip AI của Amazon.

NinjaTech AI là một minh chứng rõ nét cho thấy lý do tại sao nhiều start-up chấp nhận hy sinh thời gian và công sức để phát triển AI bên ngoài hệ sinh thái kín của Nvidia. Vấn đề chính của họ nằm ở chi phí.

Pahlavan chia sẻ rằng để phục vụ hơn một triệu người dùng hàng tháng, công ty phải chi khoảng 250.000 USD/tháng cho Amazon. Ngược lại, nếu họ sử dụng chip Nvidia cho cùng một AI, chi phí sẽ lên tới khoảng 750.000-1,2 triệu USD.

Nvidia cũng nhận thức rõ sự gia tăng áp lực cạnh tranh trong thị trường chip AI, do chi phí mua và vận hành chip của họ rất tốn kém. CEO Jensen Huang đã hứa hẹn rằng thế hệ chip AI tiếp theo của công ty sẽ giúp giảm thiểu chi phí cho việc đào tạo AI trên phần cứng của hãng.

Trong tương lai gần, sự tồn vong của Nvidia sẽ phụ thuộc vào tốc độ phát triển của các dòng chip AI đối thủ. Điều này sẽ xác định xem các doanh nghiệp và khách hàng có còn bị ràng buộc trong hệ sinh thái khép kín của nhà sản xuất chip này hay không.

0 0 đánh giá
Đánh giá bài viết

Bài viết liên quan

Theo dõi
Thông báo của
guest

0 Góp ý
Cũ nhất
Mới nhất Được bỏ phiếu nhiều nhất
Phản hồi nội tuyến
Xem tất cả bình luận
0
Rất thích suy nghĩ của bạn, hãy bình luận.x