Vừa qua, ngày 19/12, OpenAI đã vạch ra một lộ trình an toàn mới trong phát
triển mô hình trí tuệ nhân tạo, nhằm giải quyết các rủi ro mà công nghệ tiên tiến
này đặt ra.
Theo kế hoạch, OpenAI sẽ chỉ triển khai công nghệ mới nhất trong các lĩnh vực
cụ thể như an ninh mạng và hạt nhân nếu chúng đã được xác nhận là an toàn. Công
ty cũng sẽ thành lập một nhóm cố vấn chuyên biệt để nghiên cứu các báo cáo an
toàn trước khi được gửi đến các giám đốc điều hành và hội đồng quản trị của
công ty.
Ngoài ra, trong trường hợp các giám đốc điều hành đã đưa ra quyết định, hội
đồng quản trị vẫn có thể đảo ngược các quyết định đó.
Kể từ khi ra mắt vào tháng 10/2022, ChatGPT, một chatbot AI của OpenAI đã
gây sốt giới công nghệ với khả năng có thể soạn thảo e-mail, làm tiểu luận, viết
code lập trình hay thậm chí cả viết báo, tiểu thuyết chỉ với vài câu lệnh đơn
giản.
Chỉ sau 2 tháng ra mắt, ChatGPT trở thành ứng dụng phát triển nhanh nhất trong lịch sử với 100 triệu người dùng, thu hút khoảng 1,5 tỷ lượt truy cập mỗi tháng. Điều này khiến chatbot này trở thành một hiện tượng toàn cầu và cũng là nhân tố chính tạo ra cuộc đua mới trong ngành công nghệ, có thể mở ra một giai đoạn tiếp theo trong lịch sử của ngành.
Giới chuyên gia nhận định, trí tuệ nhân tạo đã trở thành một từ thông dụng
trong năm 2023, đặc biệt là thông qua các ứng dụng như ChatGPT. Sức nóng của ứng
dụng và sự yêu thích của công chúng khiến các công ty lần lượt tung ra các sản
phẩm tương tự.
Về mặt bản chất, trí tuệ nhân tạo tạo sinh là các công cụ cho phép người sử
dụng tạo ra nhiều nội dung mới dựa trên dữ liệu đầu vào khác nhau. Bằng cách sử
dụng các sản phẩm như ChatGPT, người sử dụng có thể chẩn đoán y học, viết kịch
bản, tạo bản tóm tắt pháp lý và phần mềm gỡ lỗi cùng nhiều ứng dụng khác.
Bà Frances Karamouzis, Phó Chủ tịch bộ phận phân tích của Gartner nói:
"Trí tuệ nhân tạo có thể giúp giảm
thiểu tác động của lạm phát, giải quyết vấn đề thiếu hụt nhân tài và thậm chí
khắc phục suy thoái kinh tế. Các giám đốc điều hành và giám đốc công nghệ thông
tin tận dụng công nghệ trí tuệ nhân tạo để thúc đẩy quá trình chuyển đổi số, tạo
ra sản phẩm, mô hình kinh doanh mới và tìm thấy những cơ hội lớn để tăng trưởng
doanh thu".
Do đó, các khoản đầu tư vào AI hiện nay tập trung chủ yếu vào việc cải thiện
trải nghiệm khách hàng, tăng doanh thu, tối ưu chi phí và nâng cao tính liên tục
của hoạt động kinh doanh.
Tuy nhiên, điều này lại dẫn đến mối lo ngại ngày càng tăng về cách công nghệ
này có thể vi phạm quyền riêng tư, đưa ra quyết định sai lệch về việc làm, lừa
đảo quyền lực và tạo ra thông tin sai lệch về các chiến dịch.
"Khi bắt đầu phát triển và
triển khai các mô hình trí tuệ nhân tạo, các tổ chức sẽ phải đối mặt với nhiều
thách thức về độ tin cậy, rủi ro, an ninh, quyền riêng tư và đạo đức", chuyên gia Frances Karamouzis nhấn mạnh.
Chính phủ nhiều nước đã yêu cầu các tổ chức, công ty áp dụng phương pháp đảm
bảo tính đạo đức khi triển khai các giải pháp trí tuệ nhân tạo.
Vào tháng 5/2023, phía Nhà Trắng yêu cầu các công ty công nghệ hàng đầu như
Microsoft và Google phải có trách nhiệm pháp lý để đảm bảo an toàn cho các sản
phẩm AI của họ trước khi ra mắt công chúng, cũng như trong công cuộc bảo vệ xã
hội trước những mối nguy hại tiềm tàng mà trí tuệ nhân tạo có thể gây ra.
MKA