 |
Dự thảo Luật Trí tuệ nhân tạo bao gồm 9 Chương, 70 Điều. Ảnh minh hoạ |
Khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại
Luật Công nghiệp công nghệ số được thông qua trong kỳ họp thứ 9, Quốc hội khoá XV có hiệu lực từ ngày 1/1/2026, trong đó có dành 1 chương cho Trí tuệ nhân tạo. Đây được đánh giá là nền tảng pháp lý ban đầu mang tính nguyên tắc cho việc phát triển và ứng dụng AI. Tuy nhiên, các quy định trong luật chưa hình thành 1 hành lang pháp lý toàn diện, đủ thông thoáng cho việc nghiên cứu, triển khai và sử dụng trí tuệ nhân tạo và hệ sinh thái toàn diện về trí tuệ nhân tạo.
Tại Kỳ họp thứ 10, dự kiến Quốc hội sẽ xem xét, thông qua dự án Luật Trí tuệ nhân tạo (AI). Dự thảo Luật này đã đặt ra những cơ hội và thách thức liên quan tới AI như rủi ro về đạo đức, xâm phạm quyền riêng tư và phân biệt đối xử trong ứng dụng AI; sự thiếu cơ chế phân loại, kiểm soát rủi do hệ thống AI; thiếu cơ chế kiểm định, cấp phép và giám sát các hệ thống AI. Đặc biệt, hệ thống AI có rủi ro cao; thiếu cơ chế phối hợp hiệu quả trong xây dựng và chia sẻ dùng chung hạ tầng tính toán…
Theo Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng, những thách thức trên tạo ra rào cản lớn cho việc nghiên cứu, phát triển, triển khai và sử dụng hệ thống trí tuệ nhân tạo ở Việt Nam, gây bất cập trong quản lý, khai thác và bảo vệ dữ liệu – nguồn tài nguyên cốt lõi cho AI. Các quy định hiện hành về bảo vệ dữ liệu cá nhân dù đã có nhưng chưa đủ chi tiết để giải quyết các bài toán đặc thù của AI (ví dụ: dữ liệu tổng hợp, dữ liệu ẩn danh, quyền được giải thích). Việc kết nối, chia sẻ dữ liệu giữa các cơ sở dữ liệu quốc gia, cơ sở dữ liệu ngành còn chậm, chưa đáp ứng yêu cầu phát triển các hệ thống AI quy mô lớn.
Bộ trưởng Nguyễn Mạnh Hùng cho biết, Chính phủ cũng quan tâm tới khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại. Đây là một trong những thách thức pháp lý nhức nhối nhất từ thực tiễn. Khi một hệ thống AI gây ra thiệt hại (ví dụ: xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai, hệ thống tín dụng tự động từ chối cho vay một cách phân biệt đối xử), ai sẽ chịu trách nhiệm? Nhà phát triển, nhà sản xuất, người sử dụng, hay chính hệ thống AI? Pháp luật dân sự, hình sự hiện hành chưa có câu trả lời thỏa đáng cho những tình huống này. Điều này gây hoang mang cho người tiêu dùng và rủi ro cho doanh nghiệp.
Cùng với đó là thách thức về an ninh quốc gia, trật tự xã hội và các giá trị đạo đức. Sự phát triển của AI đặt ra những nguy cơ an ninh phi truyền thống rất cấp bách. Công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội; hệ thống vũ khí tự động đặt ra các câu hỏi phức tạp về đạo đức và luật pháp quốc tế, đòi hỏi phải có quy định quản lý chặt chẽ; thuật toán thiên vị tạo ra các hệ thống AI có thể vô tình hoặc cố ý học và khuếch đại các định kiến có sẵn trong dữ liệu, dẫn đến các quyết định bất công và phân biệt đối xử trong xã hội.
Trong hoạt động đối ngoại và hợp tác quốc tế vẫn đang thiếu khung pháp lý toàn diện để tạo điều kiện thuận lợi cho hợp tác quốc tế, thu hút đầu tư, chuyển giao công nghệ, đồng thời giúp các sản phẩm công nghệ của Việt Nam có thể thâm nhập các thị trường lớn, tránh bị rào cản pháp lý.
Nên xây dựng phù hợp với thực tiễn quốc tế để tránh “khoảng trống pháp lý” giữa Việt Nam và thế giới
Tại Tờ trình Dự án, dự thảo Luật Trí tuệ nhân tạo được Chính phủ gửi tới Quốc hội nêu quan điểm, cần thiết có một luật khung về Trí tuệ nhân tạo để vừa bảo đảm tính ổn định của pháp luật, vừa cho phép thích ứng nhanh với sự phát triển của công nghệ, đồng thời phù hợp với xu thế lập pháp trên thế giới.
Đối tượng áp dụng được dự thảo luật hướng tới là các cơ quan, tổ chức, cá nhân trong và ngoài nước khi tham gia hoặc có hoạt động gây tác động đến người, tổ chức, hệ thống tại Việt Nam liên quan đến các hoạt động đối với trí tuệ nhân tạo.
Theo đó, Dự thảo Luật Trí tuệ nhân tạo gồm 7 Chương với 56 điều, trong đó từ Điều 9 đến Điều 24 quy định về nguyên tắc phân loại và quản lý hệ thống trí tuệ nhân tạo; Phân loại hệ thống trí tuệ nhân tạo theo mức độ rủi ro; Áp dụng phân loại; Minh bạch, gắn nhãn và trách nhiệm giải trình; Trách nhiệm quản lý và xử lý sự cố trí tuệ nhân tạo; Các trường hợp bị cấm; Cơ chế quản lý hệ thống rủi ro cao; Nghĩa vụ chung đối với hệ thống rủi ro cao; Lưu vết và khả năng giải trình của hệ thống trí tuệ nhân tạo rủi ro cao…
Việc phát triển hạ tầng và bảo đảm chủ quyền trí tuệ nhân tạo quốc gia được đề cập tại Chương III. Quá trình ứng dụng trí tuệ nhân tạo, phát triển hệ sinh thái đổi mới sáng tạo và nguồn nhân lực;Chính sách phát triển hệ sinh thái và thị trường trí tuệ nhân tạo; Cơ chế thử nghiệm có kiểm soát đối với trí tuệ nhân tạo; Quỹ Phát triển Trí tuệ nhân tạo Quốc gia; Phát triển nguồn nhân lực trí tuệ nhân tạo; Hỗ trợ doanh nghiệp trong lĩnh vực trí tuệ nhân tạo... đề cập tại Chương IV. Chương VI đề cập sâu tới hoạt động giám sát, thanh tra, xử lý vi phạm, bồi thường và giải quyết tranh chấp trong hoạt động trí tuệ nhân tạo…
Góp ý vào dự thảo luật này, trước đó, tại Hội thảo “Góp ý hoàn thiện Dự thảo Luật Trí tuệ nhân tạo”, ông Đậu Anh Tuấn - Phó Tổng thư ký kiêm Trưởng ban Pháp chế của Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) cho rằng, luật AI không chỉ là công cụ quản lý, mà là nền tảng để Việt Nam vươn lên thành trung tâm đổi mới sáng tạo khu vực về AI - nơi mà doanh nghiệp Việt có thể phát triển những giải pháp công nghệ Made in Vietnam, phục vụ người Việt và vươn ra toàn cầu.
Ông Trần Văn Trí - Giám đốc LuatVietnam.vn cho biết, LuatVietnam.vn đang triển khai hệ thống AI - trợ lý pháp lý ứng dụng AI giúp tra cứu, hỏi đáp và phân tích quy định pháp luật, tuy nhiên làm thế nào để quản lý nguồn dữ liệu huấn luyện và cơ chế xác định trách nhiệm đối với đầu ra AI; cách thức phân loại rủi ro của các hệ thống AI trong lĩnh vực phổ biến pháp luật; quy định gắn nhãn và công bố thông tin hệ thống AI.
Còn đại diện Công ty Luật TNHH Pháp lý Thương mại Việt Nam (Lexcomm Vietnam LLC) đề nghị về Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao ban hành bởi Thủ tướng nên xây dựng phù hợp và hài hòa với thực tiễn quốc tế để tránh “khoảng trống pháp lý” giữa Việt Nam và thế giới. Ví dụ, Phụ lục III của Đạo luật AI của EU cụ thể các lĩnh vực/ ngành mà việc sử dụng AI có thể gây nguy hại, và trong mỗi lĩnh vực/ ngành đó có liệt kê cụ thể mục đích sử dụng nào bị coi là có rủi ro cao (ngoài các mục đích này sẽ không bị coi là có rủi ro cao).
Ngoài ra, quy định nghĩa vụ đối với các hệ thống AI có rủi ro cao phải “thiết lập cơ chế giám sát, can thiệp và kiểm soát của con người, bảo đảm quyền quyết định cuối cùng của con người trong các trường hợp do pháp luật chuyên ngành quy định”. Dựa trên thông lệ và cách tiếp cận quốc tế, nghĩa vụ này chỉ nên áp dụng cho các quyết định đáp ứng một ngưỡng trọng yếu nhất định, chẳng hạn như quyết định đó tạo ra hiệu lực pháp lý hoặc gây ảnh hưởng đáng kể, một cách tiêu cực, đến sức khỏe, sự an toàn hoặc các quyền cơ bản của con người (đây là cách tiếp cận tại Điều 86 Đạo luật AI của EU).