Sam Altman nói rằng trong tương lai, trí tuệ nhân tạo (AI) sẽ được mua bán như một tiện ích cơ bản giống như điện và nước, tính theo mức sử dụng.
"Chúng tôi hình dung một tương lai nơi trí tuệ là một tiện ích," CEO của OpenAI cho biết.
Altman cho rằng nhu cầu đang tăng vọt và khả năng xử lý (compute) sẽ quyết định ai được tiếp cận AI.
Trong tương lai, bạn có thể sẽ phải trả thêm một hóa đơn tiện ích nữa: trí tuệ nhân tạo.
Tại hội nghị BlackRock Infrastructure Summit ở Washington, DC hôm thứ Tư, CEO của OpenAI cho biết các công ty công nghệ như ông đang hướng tới một tương lai nơi trí tuệ được cung cấp theo yêu cầu.
"Về cơ bản, mô hình kinh doanh của chúng tôi và tôi nghĩ rằng của mọi nhà cung cấp mô hình khác sẽ giống như việc bán các token," Altman nói, ám chỉ đến các đơn vị mà hệ thống AI sử dụng để xử lý và định giá dữ liệu đầu vào và đầu ra.
"Chúng tôi hình dung một tương lai nơi trí tuệ là một tiện ích như điện hay nước, và mọi người mua từ chúng tôi theo mức sử dụng, dùng vào bất cứ việc gì họ muốn," ông nói thêm.
Trong tương lai đó, khả năng xử lý (compute capacity) sẽ quyết định ai được tiếp cận — và nhu cầu đối với AI chỉ có tăng lên, Altman nói. Compute capacity là sức mạnh xử lý cần thiết để huấn luyện và vận hành các mô hình AI, phụ thuộc vào cơ sở hạ tầng như chip và trung tâm dữ liệu.
Altman cho biết nếu OpenAI không xây dựng đủ năng lực xử lý để đáp ứng nhu cầu, công ty sẽ "không thể bán hoặc giá sẽ tăng rất cao." Điều đó có thể khiến việc tiếp cận AI nghiêng về phía những người giàu, hoặc buộc chính phủ phải quyết định cách phân bổ nguồn lực xử lý hạn chế này.
Đua nước rút về cơ sở hạ tầng
Các công ty công nghệ lớn dự kiến sẽ chi hàng trăm tỷ USD trong năm nay để đầu tư vào năng lực xử lý, nhằm đáp ứng nhu cầu AI tăng mạnh.
Tại bài phát biểu chính tại CES 2026 hồi tháng Một, CEO của AMD, Lisa Su, cho biết thế giới sẽ cần hơn "10 yottaflop" năng lực xử lý — mức độ lớn gấp 10.000 lần so với năng lực AI toàn cầu năm 2022 — trong vòng năm năm tới để theo kịp tốc độ tăng trưởng.
Việc mở rộng này đặt ra thách thức lớn về cơ sở hạ tầng. Các trung tâm dữ liệu AI có thể tiêu thụ lượng điện năng tương đương một thành phố nhỏ, và áp lực lên lưới điện Mỹ — cùng với tình trạng thiếu hụt máy biến áp và quy trình cấp phép đường truyền chậm — có thể trở thành điểm nghẽn.
Trong một tập của podcast Moonshots with Peter Diamandis hồi tháng Một, Elon Musk nói rằng sản lượng điện hiện nay là yếu tố giới hạn trong việc mở rộng AI, đồng thời dự đoán Trung Quốc có thể vượt Mỹ về tổng năng lực xử lý AI nhờ tốc độ xây dựng cơ sở năng lượng nhanh hơn.
Bên trong các công ty công nghệ, năng lực xử lý là tài nguyên quý giá nhưng đôi khi khan hiếm. Các kỹ sư đang phải cạnh tranh để truy cập vào GPU, và một số ứng viên xin việc hiện nay thậm chí còn hỏi về ngân sách xử lý AI của họ bên cạnh mức lương và cổ phiếu.
Tháng 12 năm ngoái, Chủ tịch OpenAI Greg Brockman cho biết công ty — đã cam kết chi khoảng 1,4 nghìn tỷ USD cho các dự án trung tâm dữ liệu trong tám năm tới — muốn "đi trước xu thế," nhưng nói rằng "tôi không nghĩ chúng tôi sẽ làm được, dù có thể mơ ước tham vọng đến đâu đi nữa lúc này."
Tại hội nghị BlackRock Infrastructure Summit, Altman nói mục tiêu là thoát khỏi một thế giới bị "hạn chế về năng lực."
Nguồn: https://www.businessinsider.com/sam-altman-ai-utility-electricity-water-openai-2026-3
0 comments Blogger 0 Facebook
Đăng nhận xét