Bí quyết để Nvidia giữ ngôi vương trên thị trường chip AI
Nvidia nổi tiếng với việc sản xuất chip trí tuệ nhân tạo (AI), nhưng thành tựu quan trọng nhất của “ông lớn” này là xây dựng được một bức tường thành để giữ chân khách hàng và ngăn chặn đối thủ.
Nvidia nổi tiếng với việc sản xuất chip trí tuệ nhân tạo (AI), nhưng thành tựu quan trọng nhất của “ông lớn” này là xây dựng được một bức tường thành để giữ chân khách hàng và ngăn chặn đối thủ.
Trong 20 năm qua, tương tự Apple, Nvidia đã tạo ra cái được gọi là "walled garden" (tức một khu vườn có tường bao quanh, chỉ một nền tảng khép kín do nhà cung cấp công nghệ kiểm soát).
Tuy nhiên, trong khi hệ sinh thái phần mềm và dịch vụ của Apple hướng đến người tiêu dùng, thì trọng tâm của Nvidia lâu nay là các nhà phát triển sử dụng chip của công ty này để xây dựng các hệ thống trí tuệ nhân tạo (AI) và phần mềm khác.
“Khu vườn” của Nvidia là lý do tại sao, bất chấp sự cạnh tranh từ các nhà sản xuất chip khác và thậm chí cả các “gã khổng lồ” công nghệ như Google và Amazon, Nvidia rất khó có thể đánh mất lãnh địa mà mình đang thống trị trên thị trường AI trong vài năm tới.
Mấu chốt trong “khu vườn” của Nvidia là một nền tảng phần mềm có tên CUDA. Khi ra mắt vào năm 2007, nền tảng này là giải pháp cho một vấn đề mà chưa ai giải quyết được.
Đó là làm thế nào để chạy phần mềm không đồ họa, chẳng hạn như các thuật toán mã hóa và hoạt động đào tiền số, bằng cách sử dụng chip chuyên dụng của Nvidia, được thiết kế cho các ứng dụng “nặng đô” như đồ họa 3D và trò chơi điện tử.
CUDA cho phép thực hiện tất cả các tác vụ điện toán khác trên các chip này, hay còn gọi là bộ xử lý đồ họa, hay GPU. Trong số các ứng dụng mà CUDA cho phép chip của Nvidia chạy là phần mềm AI.
Do đó, sự phát triển bùng nổ của các phần mềm AI trong những năm gần đây đã biến Nvidia trở thành một trong những công ty có giá trị nhất thế giới.
Và điều quan trọng là CUDA chỉ là sự khởi đầu. Nvidia đang đáp ứng nhu cầu của các nhà phát triển phần mềm bằng cách tung ra các thư viện mã chuyên dụng, cho phép thực hiện một loạt các tác vụ trên GPU với tốc độ không thể đạt được khi sử dụng các bộ xử lý đa năng thông thường như của Intel và AMD.
Mỗi khi một đối thủ tung ra một loại chip AI nào đó nhằm cạnh tranh với Nvidia, họ sẽ phải đối mặt với các hệ thống mà khách hàng của Nvidia đã sử dụng hơn 15 năm qua. Các phần mềm của khách hàng sẽ rất khó có thể chuyển sang hệ thống của đối thủ.
Tại cuộc họp cổ đông tháng 6, Nvidia thông báo CUDA hiện có hơn 300 thư viện mã và 600 mô hình AI, hỗ trợ 3.700 ứng dụng đang được hơn 5 triệu nhà phát triển tại khoảng 40.000 công ty sử dụng.
Quy mô khổng lồ của thị trường điện toán AI đã khuyến khích một loạt các công ty “bắt tay nhau” để đối đầu với Nvidia. Ông Atif Malik, nhà phân tích thiết bị mạng và bán dẫn của Citi Research, dự báo thị trường chip liên quan đến AI sẽ đạt 400 tỷ USD vào năm 2027.
Theo ông Bill Pearson, Phó Chủ tịch Intel phụ trách AI cho khách hàng điện toán đám mây, phần lớn sự hợp tác này tập trung vào việc phát triển các giải pháp thay thế mã nguồn mở cho CUDA.
Các kỹ sư của Intel đang đóng góp cho hai dự án như vậy, trong đó có một dự án có sự góp mặt của Arm, Google, Samsung và Qualcomm. OpenAI, công ty đứng sau ChatGPT, cũng đang thực hiện nỗ lực mã nguồn mở của riêng mình.
Các nhà đầu tư cũng đang đổ tiền vào các công ty khởi nghiệp (startup) phát triển các giải pháp thay thế cho CUDA, với hy vọng rằng các “gã khổng lồ” công nghệ trên thế giới có thể tìm ra một giải pháp để các công ty có thể sử dụng bất kỳ loại chip nào họ muốn, và không phải chịu cái mà những người trong ngành gọi là "thuế CUDA".
Một trong những đối thủ thành công nhất với Nvidia trong lĩnh vực chip AI là AMD. Dù vậy, công ty này vẫn chỉ là một “chú lùn” khi đặt cạnh quy mô của Nvidia trên thị trường. Microsoft và Meta Platforms, các khách hàng lớn của Nvidia, đều mua chip AI của AMD.
Điều này cho thấy mong muốn khuyến khích sự cạnh tranh trong lĩnh vực chip AI. Tuy nhiên, ông Malik dự đoán Nvidia sẽ duy trì thị phần khoảng 90% các loại chip liên quan đến AI trong hai đến ba năm tới.
Dù vậy, chip AI của Nvidia không phải là không có điểm yếu. Một lý do lớn nhất để các startup công nghệ chấp nhận mất nhiều thời gian và công sức để xây dựng AI mà không sử dụng bất cứ gì trong “khu vườn” của Nvidia là chi phí.
Một minh họa rõ nét cho điều này là startup NinjaTech AI. Giám đốc điều hành của NinjaTech AI, ông Babak Pahlavan, cho biết, tình trạng thiếu chip H100 mạnh mẽ của Nvidia đã khiến giá tăng cao và việc tiếp cận loại chip này trở nên khó khăn.
NinjaTech AI cuối cùng đã chuyển sang Amazon, nơi sản xuất chip tùy chỉnh để đào tạo AI. Sau nhiều tháng nỗ lực, công ty này cuối cùng đã thành công trong việc đào tạo phần mềm AI của họ trên chip của Amazon, được gọi là Trainium. Nhưng quá trình này không hề dễ dàng, khi NinjaTech AI đã phải làm việc với nhóm phần mềm của Amazon một thời gian dài để sửa lỗi.
Các khách hàng đang sử dụng chip AI tùy chỉnh của Amazon bao gồm Anthropic, Airbnb, Pinterest và Snap. Amazon cho phép các khách hàng điện toán đám mây của mình tiếp cận chip Nvidia, nhưng sẽ phải chịu chi phí sử dụng cao hơn so với chip AI của riêng Amazon.
Để phục vụ hơn một triệu người dùng mỗi tháng, ông Pahlavan cho biết, NinjaTech chỉ phải trả cho Amazon khoảng 250.000 USD/tháng tiền dịch vụ đám mây. Tuy nhiên, nếu cùng một hệ thống AI đó chạy trên chip của Nvidia sẽ tiêu tốn từ 750.000-1.200.000 USD.
Nvidia hiểu rất rõ áp lực cạnh tranh này và thực tế rằng việc mua và vận hành chip của họ rất đắt đỏ. Chính vì vậy, CEO Huang đã cam kết rằng thế hệ chip tập trung vào AI tiếp theo của công ty sẽ giảm chi phí đào tạo AI trên phần cứng của công ty này.
Trong tương lai gần, số phận của Nvidia sẽ xoay quanh vấn đề thói quen. Đây cũng là yếu tố đã giữ chân các doanh nghiệp và khách hàng ở lại các “khu vườn” khác như Apple.