Nhìn ra thế giới: Cuộc đua phát triển công nghệ AI và nỗ lực xây dựng quy tắc quản lý của các nước

Trong nỗ lực hạn chế rủi ro từ ChatGPT và trí tuệ nhân tạo nói chung, nhiều nước đang đưa ra các biện pháp kiểm soát ở các mức độ khác nhau, nhằm hạn chế những rủi ro liên quan quyền riêng tư, độ tin cậy và độ an toàn.

Trí tuệ nhân tạo là thành tựu đột phá về phát triển khoa học và công nghệ. Chẳng hạn như ChatGPT - công cụ được mệnh danh là AI thông minh nhất thế giới hiện nay. ChatGPT được dự báo là mô hình trí tuệ nhân tạo tiềm năng nhất và rộng rãi nhất trong tương lai.

Mặc dù vậy, ChatGPT vẫn đang trong giai đoạn phát triển ban đầu và vẫn còn một số vấn đề do chưa thực sự hoàn thiện các công nghệ cốt lõi chính.

Để ngăn chặn việc lạm dụng công nghệ AI và bảo vệ lợi ích cộng đồng, ngày 11/4 vừa qua, Cơ quan Không gian mạng của Trung Quốc (CAC) đã công bố dự thảo quy định, bao gồm 21 điều khoản, về quản lý các dịch vụ trí tuệ nhân tạo (AI), trong đó yêu cầu các công ty gửi các đánh giá an ninh cho chính quyền trước khi đưa dịch vụ ra thị trường.

Theo dự thảo, các nhà cung cấp cần chịu trách nhiệm về tính hợp pháp của dữ liệu được sử dụng để huấn luyện các sản phẩm AI và nên thực hiện các biện pháp để ngăn chặn sự phân biệt đối xử khi thiết kế thuật toán và dữ liệu đào tạo. Các nhà cung cấp dịch vụ phải yêu cầu người dùng gửi danh tính thực và thông tin liên quan. Họ sẽ bị phạt tiền, đình chỉ dịch vụ hoặc thậm chí đối mặt với các cuộc điều tra hình sự nếu không tuân thủ các quy định. Trong trường hợp các nền tảng tạo ra nội dung không phù hợp, các công ty phải cập nhật công nghệ trong vòng 3 tháng để ngăn chặn việc phát hành các nội dung tương tự.

Dự thảo này đã nhận được sự hưởng ứng từ các chuyên gia trong ngành, nhận định rằng chúng là kịp thời và cần thiết để năng chặn khả năng xâm phạm và lạm dụng dữ liệu cá nhân.

Ngọc Anh