Thứ sáu, Tháng mười một 29, 2024

Chưa thể có tiếng nói chung trong tiêu chuẩn quản lý AI

(SGTT) - Các quốc gia, khu vực đóng vai trò quan trọng trong sự hình thành và phát triển của AI như Mỹ, Liên minh châu Âu (EU), Trung Quốc đang thể hiện những cách tiếp cận chính sách khác nhau đối với công nghệ này, dù vẫn luôn kêu gọi một nỗ lực chung toàn cầu trong việc quản lý AI.

Bộ Thương mại Mỹ vừa khởi động quá trình xây dựng hướng dẫn sử dụng trí tuệ nhân tạo (AI). Trong khi đó, nội khối Liên minh châu Âu (EU) đã đạt được đồng thuận để tiến tới chính thức thông qua đạo luật AI. Ở bên này bán cầu, Trung Quốc đã ban hành các biện pháp tạm thời quản lý dịch vụ AI tạo sinh.

Thúc đẩy đổi mới sáng tạo là nền tảng của Mỹ

Đổi mới sáng tạo được nhìn nhận như một thế mạnh và yếu tố then chốt tạo nên sức mạnh của Mỹ. Từ khi bắt đầu làn sóng AI Internet vào thập niên 1990, các nhà lập pháp Mỹ đã xây dựng các quy định pháp lý quan trọng thể hiện trong Đạo luật Viễn thông (Telecommunications Act) năm 1996 và Đạo luật bản quyền thiên niên kỷ kỹ thuật số (Digital Millennium Copyright Act) năm 1998, góp phần làm nền tảng cho sự phát triển mạnh mẽ của các công ty công nghệ như Google, Microsoft, Meta, YouTube sau này. Cụ thể, các doanh nghiệp cung cấp dịch vụ số trung gian sẽ không bị đối xử như các nhà xuất bản hay người cung cấp tin tức; và trong lĩnh vực bản quyền, các doanh nghiệp này được loại trừ trách nhiệm liên đới với hành vi xâm phạm bản quyền của người dùng khi đã thực hiện chặn/gỡ theo khiếu nại của chủ thể quyền.

Đến hiện tại, nhánh lập pháp Mỹ chưa có thêm bước tiến mới nào trong việc xác định khuôn khổ pháp lý đối với AI. Còn nhánh hành pháp dường như tiếp tục theo đuổi đổi mới sáng tạo thể hiện ở cách tiếp cận điều tiết “mềm” – thúc đẩy các cam kết tự nguyện trong ngành thông qua các hướng dẫn. Chẳng hạn, bản hướng dẫn thiết kế, sử dụng, triển khai AI vì các quyền của công dân Mỹ (Blueprint for an AI Bill of Rights) được Nhà Trắng công bố vào tháng 10-2022. Sang tháng 8-2023, sắc lệnh về phát triển và sử dụng AI an toàn, bảo mật, đáng tin cậy (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) được Tổng thống Joe Biden ban hành. Sau đó, Viện Tiêu chuẩn và Công nghệ quốc gia thuộc Bộ Thương mại Mỹ mới đây đã bắt đầu lấy ý kiến công chúng để làm cơ sở xây dựng hướng dẫn đánh giá, phân loại AI và phát triển các tiêu chuẩn dựa trên đồng thuận chung.

Ưu tiên quản lý rủi ro ở EU

Với cách tiếp cận nhất quán quản lý công nghệ số dựa trên rủi ro nhằm bảo vệ tự do và phẩm giá con người, EU đã liên tục ban hành các quy định mới để điều chỉnh các vấn đề phát sinh đi liền với sự phát triển của công nghệ. Có thể kể đến như Quy định chung về bảo vệ dữ liệu (GDPR) nhằm giải quyết vấn đề về quyền riêng tư trên không gian mạng, Đạo luật về Dịch vụ số (Digital Services Act – DSA) nhằm giải quyết vấn đề về an toàn không gian mạng và quyền lợi người dùng hay Đạo luật về Thị trường số (Digital Market Act – DMA) nhằm giải quyết vấn đề về cạnh tranh lành mạnh trong cung cấp các dịch vụ số. Mới đây nhất, EU đã đạt được thỏa thuận chính trị trong nội khối, giữa Nghị viện EU và Hội đồng EU, tiến tới chính thức thông qua đạo luật về AI. Đạo luật này cùng với các văn bản như GDPR, DSA, DMA sẽ trở thành bộ công cụ chính sách giúp EU thích ứng với bối cảnh công nghệ và đưa EU trở thành khu vực tiên phong trong thiết lập các tiêu chuẩn pháp lý mới đối với công nghệ số trên toàn cầu.

Tại EU, AI được tiếp cận dựa trên thang rủi ro đối với con người với bốn mức độ từ cao xuống thấp gồm: rủi ro không thể chấp nhận (unacceptable risk), rủi ro cao (high risk), rủi ro giới hạn (limited risk) và rủi ro tối thiểu (minimal risk). Dựa trên mức độ rủi ro này, các nhà lập pháp thiết kế những quy định tương ứng để đảm bảo AI trở nên đáng tin cậy, an toàn và trong tầm kiểm soát đối với con người. Cụ thể, AI gây ra rủi ro không thể chấp nhận là các hệ thống AI đe dọa rõ ràng đến các quyền cơ bản, phá hoại tự do ý chí của cá nhân, chẳng hạn như hệ thống AI cho phép chính phủ hoặc doanh nghiệp chấm điểm xã hội (social scoring), sẽ bị cấm ở EU. AI gây ra rủi ro cao như hệ thống AI được dùng trong tuyển dụng nhân sự, thực thi pháp luật sẽ phải đáp ứng các yêu cầu nghiêm ngặt về chất lượng dữ liệu, ghi nhật ký hệ thống, vận hành với sự giám sát của con người. AI gây ra rủi ro giới hạn như chatbot sẽ phải được gắn nhãn để người dùng nhận biết được họ đang tương tác với máy móc. Và AI có rủi ro tối thiểu như hệ thống gợi ý hoặc bộ lọc thư rác sẽ không phải đáp ứng các yêu cầu cứng trong luật. Thay vào đó, trên cơ sở tự nguyện, các doanh nghiệp vận hành hệ thống AI rủi ro tối thiểu có thể áp dụng các bộ quy tắc ứng xử (code of conduct) cho các hệ thống AI này.

Coi trọng an ninh và phát triển như nhau tại Trung Quốc

Luật An ninh mạng, Luật Bảo mật dữ liệu, Luật Bảo vệ thông tin cá nhân do Cơ quan Quản lý không gian mạng Trung Quốc (Cyberspace Administration of China – CAC) xây dựng và thực thi là ba trong số nhiều văn bản cho thấy nước này xây dựng các biện pháp quản lý công nghệ số dựa trên bảo đảm an ninh. Chẳng hạn, yêu cầu dữ liệu phải được lưu trữ tại Trung Quốc đại lục (data localization), thực hiện cấp phép đối với hoạt động chuyển dữ liệu cá nhân ra khỏi lãnh thổ Trung Quốc để đảm bảo “tài nguyên số” nằm trong chủ quyền quốc gia.

Tiếp nối cách tiếp cận này, tháng 4-2023, CAC đã xây dựng các biện pháp tạm thời quản lý dịch vụ AI tạo sinh (Interim Measures for the Management of Generative Artificial Intelligence Services) có hiệu lực từ ngày 15-8-2023. Văn bản này khẳng định nguyên tắc quản lý dịch vụ AI tạo sinh của Trung Quốc là coi trọng an ninh và phát triển như nhau. Các hoạt động triển khai dịch vụ AI tạo sinh được theo dõi thận trọng để đảm bảo không làm xói mòn các giá trị cốt lõi của mô hình chủ nghĩa xã hội đặc sắc Trung Quốc. Sự thận trọng đối với dịch vụ AI tạo sinh tương tự với cách tiếp cận với thương mại điện tử, công nghệ tài chính, tiền mã hóa trước đây. Cách tiếp cận này dường như xuất phát từ việc chưa nhận định rõ ràng rủi ro và cơ hội mà công nghệ mới tạo ra, do đó, một mặt chính quyền vẫn để thị trường phát triển, một mặt muốn đảm bảo thị trường phát triển đúng định hướng chủ nghĩa xã hội đặc sắc Trung Quốc.

Một vài gợi ý dành cho Việt Nam

Hiện tại, Chính phủ Việt Nam đã ban hành “Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030”, xác định AI là công nghệ nền tảng trong cuộc cách mạng công nghiệp 4.0 để nâng cao năng lực cạnh tranh quốc gia. Với định hướng này, Việt Nam có thể cân nhắc lựa chọn sự kết hợp của nhiều giải pháp điều tiết linh hoạt khác nhau như sau:

Tiếp tục cải thiện môi trường kinh doanh để thúc đẩy đổi mới sáng tạo.

Xây dựng hướng dẫn phát triển, sử dụng AI an toàn, có trách nhiệm dựa trên sự vận dụng linh hoạt, sáng tạo, hợp lý các quy định sẵn có, thay vì xây dựng các quy định mới.

Xây dựng hướng dẫn phân loại rủi ro từ AI dựa trên sự tham khảo thang rủi ro đối với các quyền cơ bản của công dân của EU. Từ đây, cơ quan quản lý cân nhắc chỉ áp dụng cơ chế quản lý thử nghiệm (sandbox regulatory) đối với AI trong một số lĩnh vực cụ thể có thể gây ra rủi ro cao, tránh tạo ra các loại nghĩa vụ mới làm cản trở sự phát triển của những loại giải pháp AI về bản chất chỉ tạo ra rủi ro thấp hoặc không tạo ra rủi ro.

Trong thời gian tới, chuyển động chính sách liên quan đến AI trên toàn cầu có thể vẫn tiếp tục khó dự đoán như chính viễn cảnh phát triển của công nghệ này. Chỉ có một điều chắc chắn là để có thể thiết kế chính sách đối với một công nghệ có tác động sâu rộng như AI, cần chú trọng sự tham gia sâu sắc của tất cả các bên liên quan, dù ở Việt Nam hay trên thế giới.

Nguyễn Lan Phương

Viện Nghiên cứu Chính sách và Phát triển truyền thông (IPS)

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Kết nối