Vừa qua, ngày 19/12, OpenAI đã vạch ra một lộ trình an toàn mới trong phát triển mô hình trí tuệ nhân tạo, nhằm giải quyết các rủi ro mà công nghệ tiên tiến này đặt ra.

Theo kế hoạch, OpenAI sẽ chỉ triển khai công nghệ mới nhất trong các lĩnh vực cụ thể như an ninh mạng và hạt nhân nếu chúng đã được xác nhận là an toàn. Công ty cũng sẽ thành lập một nhóm cố vấn chuyên biệt để nghiên cứu các báo cáo an toàn trước khi được gửi đến các giám đốc điều hành và hội đồng quản trị của công ty.

Ngoài ra, trong trường hợp các giám đốc điều hành đã đưa ra quyết định, hội đồng quản trị vẫn có thể đảo ngược các quyết định đó.

Kể từ khi ra mắt vào tháng 10/2022, ChatGPT, một chatbot AI của OpenAI đã gây sốt giới công nghệ với khả năng có thể soạn thảo e-mail, làm tiểu luận, viết code lập trình hay thậm chí cả viết báo, tiểu thuyết chỉ với vài câu lệnh đơn giản.

Chỉ sau 2 tháng ra mắt, ChatGPT trở thành ứng dụng phát triển nhanh nhất trong lịch sử với 100 triệu người dùng, thu hút khoảng 1,5 tỷ lượt truy cập mỗi tháng. Điều này khiến chatbot này trở thành một hiện tượng toàn cầu và cũng là nhân tố chính tạo ra cuộc đua mới trong ngành công nghệ, có thể mở ra một giai đoạn tiếp theo trong lịch sử của ngành.


Giới chuyên gia nhận định, trí tuệ nhân tạo đã trở thành một từ thông dụng trong năm 2023, đặc biệt là thông qua các ứng dụng như ChatGPT. Sức nóng của ứng dụng và sự yêu thích của công chúng khiến các công ty lần lượt tung ra các sản phẩm tương tự.

Về mặt bản chất, trí tuệ nhân tạo tạo sinh là các công cụ cho phép người sử dụng tạo ra nhiều nội dung mới dựa trên dữ liệu đầu vào khác nhau. Bằng cách sử dụng các sản phẩm như ChatGPT, người sử dụng có thể chẩn đoán y học, viết kịch bản, tạo bản tóm tắt pháp lý và phần mềm gỡ lỗi cùng nhiều ứng dụng khác.

Bà Frances Karamouzis, Phó Chủ tịch bộ phận phân tích của Gartner nói: "Trí tuệ nhân tạo có thể giúp giảm thiểu tác động của lạm phát, giải quyết vấn đề thiếu hụt nhân tài và thậm chí khắc phục suy thoái kinh tế. Các giám đốc điều hành và giám đốc công nghệ thông tin tận dụng công nghệ trí tuệ nhân tạo để thúc đẩy quá trình chuyển đổi số, tạo ra sản phẩm, mô hình kinh doanh mới và tìm thấy những cơ hội lớn để tăng trưởng doanh thu".

Do đó, các khoản đầu tư vào AI hiện nay tập trung chủ yếu vào việc cải thiện trải nghiệm khách hàng, tăng doanh thu, tối ưu chi phí và nâng cao tính liên tục của hoạt động kinh doanh.

Tuy nhiên, điều này lại dẫn đến mối lo ngại ngày càng tăng về cách công nghệ này có thể vi phạm quyền riêng tư, đưa ra quyết định sai lệch về việc làm, lừa đảo quyền lực và tạo ra thông tin sai lệch về các chiến dịch.

"Khi bắt đầu phát triển và triển khai các mô hình trí tuệ nhân tạo, các tổ chức sẽ phải đối mặt với nhiều thách thức về độ tin cậy, rủi ro, an ninh, quyền riêng tư và đạo đức", chuyên gia Frances Karamouzis nhấn mạnh.

Chính phủ nhiều nước đã yêu cầu các tổ chức, công ty áp dụng phương pháp đảm bảo tính đạo đức khi triển khai các giải pháp trí tuệ nhân tạo.

Vào tháng 5/2023, phía Nhà Trắng yêu cầu các công ty công nghệ hàng đầu như Microsoft và Google phải có trách nhiệm pháp lý để đảm bảo an toàn cho các sản phẩm AI của họ trước khi ra mắt công chúng, cũng như trong công cuộc bảo vệ xã hội trước những mối nguy hại tiềm tàng mà trí tuệ nhân tạo có thể gây ra.

MKA