Phần mềm
có thể viết các đoạn văn bản hoặc vẽ tranh tương tự con người đã tạo ra một cơn
sốt trong ngành công nghệ.
Microsoft
và Google đang cạnh tranh trong việc đưa mô hình trí tuệ nhân tạo tối tân vào
công cụ tìm kiếm. Trong khi đó, những startup tỉ USD như OpenAI hay Stability
AI liên tục công bố phần mềm AI với nhiều tính năng đặc biệt.
Cung cấp sức
mạnh cho những phần mềm này là một con chip trị giá 10.000USD đã trở thành một
trong những công cụ quan trọng nhất trong ngành trí tuệ nhân tạo: Nvidia A100.
Nathan
Benaich, một nhà đầu tư xuất bản bản tin và báo cáo về ngành AI, cho biết A100
đã trở thành “ngựa ô” cho các chuyên gia trí tuệ nhân tạo trong thời điểm hiện
tại. Theo New Street Research, Nvidia chiếm 95% thị trường bộ xử lý đồ họa có
thể được sử dụng cho máy học.
A100 đang được sử dụng trong các mô hình học máy đứng sau ChatGPT, Bing AI và Stable Diffusion, nhờ khả năng tiến hành đồng thời hàng loạt tính toán đơn giản, đóng vai trò quan trọng với việc huấn luyện và sử dụng mạng thần kinh nhân tạo.
Công nghệ
tiền nhiệm A100 ban đầu được sử dụng để hiển thị đồ họa 3D phức tạp trong trò
chơi. Nó thường được gọi là bộ xử lý đồ họa hoặc GPU, nhưng ngày nay A100 được
định cấu hình và nhắm mục tiêu vào các tác vụ học máy và chạy trong các trung
tâm dữ liệu chứ không phải bên trong các PC Gaming như trước.
Cần có
hàng trăm GPU để huấn luyện các mô hình trí tuệ nhân tạo, chẳng hạn như các mô
hình ngôn ngữ lớn. Các con chip cần phải đủ mạnh để xử lý hàng terabyte dữ liệu
một cách nhanh chóng nhằm nhận dạng các mẫu. Sau đó, các GPU như A100 cũng cần
“suy luận” để tạo văn bản, đưa ra dự đoán hoặc xác định đối tượng một cách
chính xác.
Mỗi doanh
nghiệp phát triển AI cần từ hàng trăm đến hàng nghìn chip A100 để xử lý lượng lớn
dữ liệu và tạo ra nội dung theo yêu cầu. Họ có thể mua trực tiếp hoặc thuê quyền
sử dụng từ các nhà cung cấp dịch vụ đám mây.
Một số người
còn coi số chip A100 có thể tiếp cận là dấu hiệu cho thấy tiến bộ. “Một năm
trước, chúng tôi chỉ có 32 chip A100”, Emad Mostaque, CEO của Stability AI
- công ty phát triển Stable Diffusion, cho biết hồi tháng 1 vừa qua. “Nhưng giờ
đây, họ đã sử dụng hơn 5.400 chip A100, chưa kể số lượng chip thuê từ các nhà
cung cấp đám mây.”
Stability
AI là công ty phát triển Stable Diffusion, một công cụ tạo hình ảnh đã thu hút
sự chú ý vào mùa thu năm ngoái và được cho là có mức định giá hơn 1 tỉ USD.
Nvidia sẽ
được hưởng lợi từ cơn sốt AI này. Doanh thu quý IV/2022 của Nvidia giảm 21% so
với cùng kỳ trước đó, nhưng mảng chip AI lại tăng trưởng 11%, đạt 3,6 tỉ USD.
Nhờ đó, cổ phiếu của hãng cũng tăng 65%, vượt nhiều doanh nghiệp trong lĩnh vực
bán dẫn.
Giám đốc
điều hành Nvidia, Jensen Huang, không ngừng nói về AI trong cuộc họp vào thứ
Tư, cho thấy rằng sự bùng nổ gần đây của trí tuệ nhân tạo là trung tâm trong
chiến lược của công ty.
Các phần mềm thông thường chỉ khai thác năng lực xử lý của chip trong từng khoảng ngắn vài mili giây, trong khi ứng dụng học máy có thể dùng toàn bộ hiệu năng trong vài giờ hoặc vài ngày. Có nghĩa, những công ty có sản phẩm AI thành công sẽ liên tục phải bổ sung chip xử lý để đáp ứng nhu cầu cao hoặc cải thiện mô hình huấn luyện.
Tuy nhiên
những GPU này không hề rẻ. Ngoài giải pháp gắn card với một chip vào máy chủ,
nhiều trung tâm dữ liệu đang vận hành hệ thống khép kín với 8 chip A100 hoạt động
đồng thời.
Với hệ thống
này, DGX A100, có giá đề xuất gần 200.000 USD. Vào thứ 4 tuần qua, Nvidia cho
biết họ sẽ bán trực tiếp quyền truy cập đám mây cho các hệ thống DGX, điều này
có thể sẽ giảm chi phí đầu vào cho doanh nghiệp cũng như nhà nghiên cứu.
New Street Research ước tính, mô hình ChatGPT được dùng trong Bing có thể cần 8 chip A100 để đưa ra câu trả lời trong chưa đầy một giây. Microsoft sẽ cần tới hơn 20.000 hệ thống DGX A100 để bảo đảm khả năng phản hồi trơn tru của Bing với toàn bộ người dùng, tương ứng mức giá hơn 4 tỉ USD riêng cho cơ sở hạ tầng.
“Nếu bạn
muốn mở rộng theo quy mô của Google, nơi phục vụ 8 hoặc 9 tỉ truy vấn mỗi ngày,
bạn thực sự cần phải chi 80 tỉ USD cho hệ thống DGX”. Antoine Chkaiban, một nhà phân tích công
nghệ tại New Street Research cho biết. “Những con số chúng tôi đưa ra là rất
lớn. Nhưng chúng chỉ đơn giản là sự phản ánh thực tế rằng mỗi người dùng sử dụng
một mô hình ngôn ngữ lớn như vậy đều cần một siêu máy tính khổng lồ phục vụ họ”.
Phiên bản
mới nhất của Stable Diffusion, một trình tạo hình ảnh, đã được đào tạo trên 256
GPU A100, theo thông tin trực tuyến do Stability AI đăng, với tổng cộng 200.000
giờ điện toán.
Theo giá
thị trường, chỉ riêng việc đào tạo mô hình đã có giá 600.000 USD, Giám đốc điều
hành của Stability AI, Mostaque cho biết trên Twitter.
Huang,
Giám đốc điều hành của Nvidia, cho biết trong một cuộc phỏng vấn với Katie
Tarasov của CNBC rằng các sản phẩm của công ty thực sự không đắt so với số lượng
tính toán chúng có thể giải quyết
“Chúng tôi
tạo ra những trung tâm dữ liệu trị giá 100 triệu USD để làm nhiệm vụ của các hệ
thống vận hành bằng CPU có giá tới một tỉ USD. Khi được đưa lên đám mây và con
chip, trị giá 10.000 USD, đứng sau, các mô hình AI chia sẻ với 100 công ty khác
nhau, con số 100 triệu USD gần như không còn ý nghĩa gì”, ông nói.
Huang nói rằng GPU của Nvidia cho phép các công ty khởi nghiệp đào tạo các mô hình với chi phí thấp hơn nhiều so với việc họ sử dụng bộ xử lý máy tính truyền thống.
“Bây giờ bạn
có thể xây dựng thứ gì đó giống như mô hình ngôn ngữ lớn, chẳng hạn như
ChatGPT, với giá khoảng 10, 20 triệu USD”. Huang nói. “Mức giá này thực sự rất
hợp lý”.
Tuy nhiên,
Nvidia không phải là công ty duy nhất sản xuất GPU cho trí tuệ nhân tạo. AMD và
Intel cũng có các bộ xử lý đồ họa cạnh tranh và các công ty điện toán đám mây lớn
như Google và Amazon đang phát triển và triển khai các chip của riêng họ được
thiết kế đặc biệt cho AI.
“Dù vậy,
phần cứng AI đang tập trung trong tay Nvidia”, báo cáo của Benaich nêu. Tính đến tháng
12/2022, hơn 21.000 tài liệu nguồn mở về AI xác nhận đang sử dụng chip Nvidia.
Phần lớn
giới nghiên cứu vẫn dùng chip Nvidia V100 trên kiến trúc Volta ra đời năm 2017,
nhưng A100 đang trở thành dòng chip được dùng nhiều thứ ba, chỉ sau phiên bản
GPU cùng kiến trúc dành cho máy tính để bàn.
A100 cũng
là một trong số ít chip bị áp đặt các biện pháp kiểm soát xuất khẩu vì lý do quốc
phòng. Mùa thu năm ngoái, Nvidia cho biết trong một hồ sơ SEC rằng chính phủ
Hoa Kỳ đã áp đặt yêu cầu giấy phép cấm xuất khẩu A100 và H100 sang Trung Quốc,
Hồng Kông và Nga vì lo ngại rằng chúng có thể được dùng cho mục đích quân sự.
Đối thủ cạnh
tranh lớn nhất của A100 có thể chính là sản phẩm kế nhiệm của nó. H100 được
công bố năm 2022 và đang bắt đầu được sản xuất với số lượng lớn, trong đó
Nvidia ghi nhận lợi nhuận của H100 trong quý IV/2022 đã vượt qua A100, dù mẫu
chip mới có giá đắt đỏ hơn. Nvidia cho biết H100 là GPU đầu tiên được tối ưu
hóa cho máy biến áp, một kỹ thuật ngày càng quan trọng mà nhiều ứng dụng AI
hàng đầu sử dụng.
Theo VT