Ngày 21.11, thảo luận về dự án luật Trí tuệ nhân tạo (AI), nhiều đại biểu Quốc hội thừa nhận tầm quan trọng của việc ứng dụng AI vào các lĩnh vực trong đời sống, song còn băn khoăn về trách nhiệm pháp lý nếu không may xảy ra sự cố.
Cần có ngưỡng chịu trách nhiệm
Dẫn kinh nghiệm trong ngành y, đại biểu (ĐB) Trần Khánh Thu (Hưng Yên) đặt vấn đề rằng, khi AI tham gia hỗ trợ chẩn đoán, thậm chí can thiệp phẫu thuật, nếu xảy ra tai biến y khoa thì áp dụng luật nào để xử lý ? Luật Khám bệnh, chữa bệnh hay luật Trí tuệ nhân tạo ? Dự thảo chưa có quy định về xử lý sự cố chuyên môn do AI gây ra, có thể dẫn tới khoảng trống pháp lý nguy hiểm.
ĐB Vương Thị Hương (Tuyên Quang) cũng cho rằng cần xác định y tế là một trong những lĩnh vực có rủi ro cao khi ứng dụng AI, vì tác động trực tiếp đến tính mạng, sức khỏe con người. Các hệ thống AI hỗ trợ chẩn đoán hình ảnh, điều trị bệnh, phẫu thuật, phân tích gien… nếu thiếu kiểm định, thiếu tiêu chuẩn an toàn hoặc không minh bạch về dữ liệu huấn luyện có thể gây hậu quả nghiêm trọng, thậm chí không thể khắc phục. Nữ ĐB đề nghị bổ sung quy định giao Bộ Y tế chủ trì quản lý hệ thống AI có rủi ro cao trong lĩnh vực y tế, phối hợp với Bộ KH-CN và các đơn vị liên quan ban hành tiêu chuẩn kỹ thuật, đánh giá lâm sàng và kiểm định an toàn, bảo mật dữ liệu bệnh án và giám sát rủi ro trong quá trình sử dụng.
Góp ý thêm, ĐB Nguyễn Thị Lan Anh (Lào Cai) kiến nghị cần phân loại, định nghĩa cụ thể các dạng sự cố của AI, xây dựng hệ thống giám sát và cảnh báo, cụ thể hóa quy trình xử lý theo mức độ rủi ro, nhất là rõ ràng hơn trách nhiệm pháp lý về cơ chế bồi thường của các bên liên quan (nhà phát triển mô hình, cơ quan quản lý, người dùng cuối cùng).
Trước đó, tại báo cáo thẩm tra, Ủy ban KH-CN và Môi trường cho hay, các luật hiện hành về dân sự, hình sự và thương mại đều dựa trên khái niệm lỗi và hành vi của con người, trong khi hệ thống AI có thể hoạt động tự động và không có "ý chí" theo nghĩa pháp lý truyền thống. Những lỗi, hành vi của con người gây ra thì AI cũng có khả năng gây ra lỗi và hành vi tương tự; ví dụ như xe ô tô tự lái có tích hợp AI hoặc máy khám chữa bệnh điều khiển bằng AI.
Cơ quan thẩm tra đề nghị bổ sung nội dung "trách nhiệm nghiêm ngặt" vào phần trách nhiệm đạo đức khi ứng dụng AI đối với tổ chức triển khai hệ thống AI rủi ro cao trong các lĩnh vực ảnh hưởng trực tiếp đến an toàn, tính mạng con người như y tế, giao thông và năng lượng. Đồng thời, cần thiết lập cơ chế pháp lý xác định ngưỡng trách nhiệm, làm rõ khi nào lỗi của hệ thống AI được quy kết cho con người (do lỗi lập trình, bảo trì, giám sát) và khi nào AI hành động theo cách không thể dự đoán trước.
Cân nhắc tích hợp AI vào chương trình phổ thông bắt buộc
Kiểm soát tác động AI với trẻ em thế nào và có nên tích hợp AI vào chương trình giáo dục phổ thông bắt buộc hay không cũng khiến nhiều ĐB băn khoăn. Bà Nguyễn Phương Thủy, Phó chủ nhiệm Ủy ban Pháp luật và Tư pháp, dẫn ví dụ các chatbot về giới tính có thể lồng ghép nội dung không phù hợp, trong khi trẻ em chưa đủ khả năng phân biệt.
"Tâm hồn trẻ như tờ giấy trắng, vẽ nét nào là in nét đó. Nếu không có cơ chế kiểm soát chặt chẽ, nguy cơ ảnh hưởng lâu dài là rất lớn", ĐB nói và đề xuất bổ sung nguyên tắc "AI phải phù hợp với từng lứa tuổi, cần có cơ chế kiểm duyệt nội dung bắt buộc; đồng thời quy định rõ trách nhiệm giám sát của phụ huynh và nhà trường trong việc trẻ em sử dụng AI".
Cùng quan điểm, ĐB Lò Thị Luyến (Điện Biên) chia sẻ dư luận phản ánh nhiều về việc trẻ em dùng AI trong khi dự thảo luật chưa đưa ra giới hạn trẻ em tiếp cận với AI như thế nào. Theo bà, một số nước ở châu Âu đã đưa ra quy định trẻ em bao nhiêu tuổi thì mới được tiếp cận và sử dụng AI, một số nước xung quanh Việt Nam thì chưa cấm.
Trong dự thảo luật chỉ có quy định về những mức độ rủi ro, như vậy tất cả các đối tượng trong xã hội sẽ được tiếp cận AI. Nữ ĐB cho rằng chưa rõ về mặt quản lý, cần phải tính toán kỹ. Với thế hệ trẻ, nếu không hạn chế về độ tuổi tiếp cận AI sẽ có nguy cơ như trẻ em ở một số nước "nghe theo AI, làm bạn với AI, thậm chí chỉ yêu AI và kết hôn với AI".
Góp ý cho quy định tích hợp nội dung cơ bản của AI vào chương trình giáo dục phổ thông bắt buộc, ĐB Nguyễn Trường Giang (Lâm Đồng) băn khoăn "thế nào là nội dung cơ bản". Bởi AI phát triển với tốc độ rất nhanh, hôm nay là nâng cao thì ngày mai đã là cơ bản. Trong khi bây giờ chúng ta chưa hình dung ra tốc độ phát triển của AI như thế nào, tác động ảnh hưởng đến tư duy, ý thức với thế hệ trẻ ra sao? Do đó, ông nhấn mạnh không nên tích hợp AI vào chương trình bắt buộc trong giáo dục phổ thông.















