Microsoft đã mua một số lượng lớn chip Hopper của Nvidia trong năm nay, vượt xa khả năng tiếp cận của các đối thủ cạnh tranh. Với lợi thế đáng kể và mối quan hệ sâu sắc với OpenAI, công ty này đang ở vị trí thuận lợi khi các gã khổng lồ công nghệ cạnh tranh để giành quyền thống trị trong lĩnh vực trí tuệ nhân tạo.
Microsoft đã trở thành người dẫn đầu trong việc thu mua các chip Hopper của Nvidia. Theo ước tính từ công ty tư vấn công nghệ Omdia được đăng tải trên Financial Times, Microsoft đã mua 485.000 bộ vi xử lý hàng đầu này trong năm nay, gấp đôi số đơn hàng của các đối thủ gần nhất tại Hoa Kỳ và Trung Quốc.
Chiến lược mua sắm mạnh mẽ này đã đưa Microsoft lên vị trí hàng đầu trong phát triển cơ sở hạ tầng AI, vượt qua các gã khổng lồ công nghệ như Meta, Amazon và Google. Quyết định này diễn ra khi nhu cầu về các GPU tiên tiến của Nvidia tiếp tục vượt quá nguồn cung, một xu hướng đã kéo dài gần hai năm qua.
Khoản đầu tư đáng kể của Microsoft vào các chip của Nvidia gắn liền với cổ phần trị giá 13 tỷ đô la của họ tại OpenAI. Sự hợp tác này đã thúc đẩy Microsoft mở rộng nhanh chóng khả năng trung tâm dữ liệu của mình, không chỉ để cung cấp dịch vụ AI của riêng mình như Copilot mà còn để cung cấp giải pháp điện toán đám mây mạnh mẽ thông qua nền tảng Azure.
Tình trạng khát khao về khả năng AI trong ngành công nghệ đã dẫn đến những khoản đầu tư chưa từng có vào hạ tầng trung tâm dữ liệu. Alistair Speirs, giám đốc cấp cao của Microsoft về Hạ tầng Toàn cầu Azure, đã mô tả sự phức tạp của các dự án này với FT, nhấn mạnh rằng: “Hạ tầng trung tâm dữ liệu tốt là những dự án rất phức tạp và tiêu tốn nhiều vốn. Chúng cần nhiều năm để lập kế hoạch. Do đó, việc dự đoán sự tăng trưởng của chúng tôi với một chút không gian dư là rất quan trọng.”
Trong khi Microsoft đang dẫn đầu tại Mỹ, các gã khổng lồ công nghệ Trung Quốc như ByteDance và Tencent cũng đã có những bước tiến đáng kể, mỗi công ty đặt hàng khoảng 230.000 chip của Nvidia. Những đơn hàng này bao gồm mẫu H20, phiên bản điều chỉnh của chip Hopper được thiết kế để tuân thủ quy định xuất khẩu của Mỹ đối với khách hàng Trung Quốc.
Cuộc đua để đạt được vị thế thống trị trong lĩnh vực AI không chỉ giới hạn ở việc thu mua phần cứng. Các công ty công nghệ ngày càng phát triển các chip AI tùy chỉnh của riêng họ nhằm giảm bớt sự phụ thuộc vào Nvidia. Google đã cải tiến các Đơn vị Xử lý Tensor (TPUs) trong suốt một thập kỷ, trong khi Meta gần đây đã giới thiệu chip Tăng tốc Huấn luyện và Suy diễn Meta. Amazon cũng đang tiến xa với các chip Trainium và Inferentia, được thiết kế cho khách hàng điện toán đám mây.
Vlad Galabov, giám đốc nghiên cứu về điện toán đám mây và trung tâm dữ liệu tại Omdia, đã lưu ý rằng nhu cầu về chip AI có tác động to lớn đến chi phí máy chủ, ông cho biết với FT rằng: “Các GPU của Nvidia đã chiếm một tỷ lệ rất cao trong chi phí đầu tư cho máy chủ. Chúng tôi đang gần đến đỉnh điểm.”
Khi cảnh quan AI tiếp tục phát triển, các thương vụ mua chip chiến lược và các mối quan hệ đối tác của Microsoft đã định vị công ty như một lực lượng mạnh mẽ trong ngành. Tuy nhiên, công ty nhận thức rằng không chỉ phần cứng là cần thiết. “Để xây dựng hạ tầng AI, theo kinh nghiệm của chúng tôi, không chỉ cần có chip tốt nhất, mà còn cần các thành phần lưu trữ đúng, hạ tầng phù hợp, lớp phần mềm phù hợp, lớp quản lý máy chủ chính xác, sửa lỗi và tất cả các thành phần khác để xây dựng hệ thống đó,” Speirs cho biết.
Theo Techspot