Những điều cần biết về sắc lệnh hành pháp của California về AI

31/03 15:06
 

California ban hành sắc lệnh AI mới, siết chặt an toàn, minh bạch, khẳng định quyền tự chủ trước chính sách liên bang về quản lý trí tuệ nhân tạo.

California ban hành sắc lệnh AI mới, siết chặt an toàn, minh bạch, khẳng định quyền tự chủ trước chính sách liên bang về quản lý trí tuệ nhân tạo.

Thống đốc bang California - ông Gavin Newsom, vừa ký ban hành một sắc lệnh hành pháp được đánh giá là bước đi mạnh mẽ nhất từ trước đến nay nhằm kiểm soát trí tuệ nhân tạo (AI) ở cấp bang.

Sắc lệnh yêu cầu tất cả các công ty công nghệ muốn ký hợp đồng với chính quyền bang phải đáp ứng những tiêu chuẩn nghiêm ngặt về minh bạch và an toàn.

Đây được xem là một phần trong nỗ lực đưa California trở thành địa phương tiên phong trong việc xây dựng khung pháp lý cho AI, là lĩnh vực đang phát triển nhanh nhưng tiềm ẩn nhiều rủi ro.

Một trong những điểm đáng chú ý là quy định kiểm tra lý lịch và chính sách vận hành của các nhà thầu AI.

Các công ty phải công khai cách thức hệ thống của họ xử lý dữ liệu, ngăn chặn hành vi lạm dụng, đặc biệt là các nội dung nguy hiểm như tài liệu xâm hại trẻ em.

Ngoài ra, bang California cũng sẽ đánh giá kỹ việc các công nghệ AI, bao gồm chatbot và mô hình ngôn ngữ có bị sử dụng để giám sát người dân hoặc kiểm duyệt phát ngôn hay không.

Các doanh nghiệp buộc phải chứng minh hệ thống của họ giảm thiểu thiên vị, đảm bảo công bằng trong quá trình vận hành.

Sắc lệnh của California cũng nhấn mạnh quyền đánh giá độc lập đối với các nhà thầu, ngay cả khi chính phủ liên bang đưa ra cảnh báo rủi ro.

Điều này đặc biệt đáng chú ý trong bối cảnh tranh chấp giữa Lầu Năm Góc và công ty AI Anthropic.

Trước đó, Lầu Năm Góc đã chấm dứt hợp đồng với Anthropic sau khi công ty này từ chối cho phép công nghệ của mình được sử dụng cho giám sát nội địa quy mô lớn và vũ khí tự động.

Tuy nhiên, theo sắc lệnh mới, California có thể tự đánh giá lại và vẫn cho phép hợp tác nếu không phát hiện rủi ro tương tự.

Động thái này cho thấy sự khác biệt ngày càng rõ giữa chính quyền bang và liên bang trong cách tiếp cận AI, đặc biệt liên quan đến các ứng dụng quân sự và giám sát.

Một điểm mới khác là yêu cầu dán dấu nhận diện (watermark) đối với các nội dung do AI tạo ra hoặc chỉnh sửa, đặc biệt là video.

Mục tiêu là hạn chế sự lan truyền của thông tin sai lệch và giúp người dân dễ dàng phân biệt giữa nội dung thật và nội dung do máy tạo ra.

Giới chuyên gia đánh giá đây là bước đi cần thiết trong bối cảnh công nghệ deepfake ngày càng tinh vi, gây khó khăn cho việc kiểm chứng thông tin trên không gian mạng.

Đọc bài gốc tại đây.