Xây dựng văn hóa đạo đức AI: Từ khẩu hiệu đến hành động

Trí tuệ nhân tạo (AI) đang cách mạng hóa các ngành công nghiệp bằng cách tự động hóa dịch vụ khách hàng, tối ưu hóa chuỗi cung ứng, cá nhân hóa các chiến dịch tiếp thị... Nhưng đi cùng với sức mạnh lớn là trách nhiệm lớn - và cả những rủi ro.
Theo GS. Thomas Davenport từ Đại học Babson, đồng thời là học giả khách mời tại Sáng kiến Kinh tế số MIT (MIT Initiative on the Digital Economy), các tổ chức ngày nay cần đảm bảo rằng những hệ thống AI mà họ xây dựng hoặc triển khai phải an toàn, bảo mật, không thiên vị và minh bạch.
Trong một hội thảo trực tuyến gần đây do MIT Sloan Management Review tổ chức, Davenport đã nêu bật một số rủi ro đạo đức mà AI có thể mang lại cho doanh nghiệp. Những rủi ro đó bao gồm: thiên lệch thuật toán trong học máy, mức độ minh bạch khác nhau giữa các mô hình, lỗ hổng an ninh mạng, và nguy cơ AI cung cấp nội dung không phù hợp hoặc thiếu nhạy cảm. Các tổ chức cũng phải đối mặt với câu hỏi liệu AI có thực sự mang lại kết quả hữu ích hay không.
Để giảm thiểu các rủi ro đó, Davenport cho rằng các tổ chức cần tích hợp thực hành đạo đức vào giải pháp AI ngay từ đầu. Họ cũng cần đảm bảo rằng các nhóm và cá nhân đều gắn bó với đạo đức AI như một phần trong công việc hàng ngày.
Dưới đây là một số chiến lược AI có trách nhiệm mà các tổ chức đang áp dụng hiện nay, cũng như cách để doanh nghiệp chuyển từ việc chỉ thảo luận về đạo đức AI sang hành động thực tiễn.
Chiến lược AI tại Scotiabank
Theo Davenport, các doanh nghiệp đang áp dụng nhiều chiến lược khác nhau để tích hợp đạo đức AI vào hoạt động vận hành, bao gồm: bổ nhiệm người đứng đầu mảng đạo đức AI, thực hiện nghiên cứu chuyên đề, thử nghiệm beta, và sử dụng đánh giá từ bên thứ ba để thẩm định các trường hợp sử dụng.
Ví dụ, Scotiabank - một ngân hàng của Canada - đã phát triển chính sách quản lý rủi ro AI và thành lập nhóm đạo đức dữ liệu để thúc đẩy chính sách này, theo Davenport. Các chính sách đó được đưa vào bộ quy tắc ứng xử (code of conduct) mà mọi nhân viên đều phải cam kết tuân thủ hằng năm. Ngoài ra, ngân hàng còn yêu cầu tất cả nhân viên trong các nhóm phân tích dữ liệu, dữ liệu khách hàng hoặc các nhóm liên quan bắt buộc phải tham gia khóa đào tạo về đạo đức dữ liệu. Scotiabank cũng hợp tác với Deloitte để phát triển một trợ lý đạo đức tự động nhằm đánh giá từng trường hợp sử dụng trước khi triển khai. Ngân hàng còn khuyến khích nhân viên tham gia quản lý dữ liệu phi cấu trúc để xác định cách phản hồi hiệu quả nhất cho các câu hỏi từ khách hàng.
“Quy trình dân chủ hóa này không chỉ quan trọng với đạo đức, mà còn giúp tăng hiệu quả hoạt động khi triển khai các hệ thống AI,” Davenport nhận định.
5 giai đoạn xây dựng đạo đức AI
Davenport xác định 5 giai đoạn đóng vai trò then chốt trong việc thúc đẩy sự phát triển, triển khai và sử dụng AI có đạo đức trong các tổ chức. Khi tiến dần qua các giai đoạn này, doanh nghiệp sẽ chuyển từ lời nói sang hành động:
Truyền bá nhận thức (Evangelism): Đại diện doanh nghiệp truyền thông nội bộ và bên ngoài về tầm quan trọng của đạo đức AI.
Xây dựng chính sách (Policies): Doanh nghiệp thảo luận và phê duyệt các chính sách nội bộ để đảm bảo phương pháp tiếp cận AI mang tính đạo đức.
Lưu trữ và minh bạch thông tin (Documentation): Doanh nghiệp ghi lại dữ liệu liên quan đến từng trường hợp sử dụng AI, ví dụ như dùng "thẻ mô hình" (model cards) để mô tả cách mô hình được thiết kế và đánh giá.
Rà soát (Review): Doanh nghiệp thực hiện hoặc bảo trợ việc rà soát có hệ thống từng trường hợp sử dụng để xác định có đáp ứng tiêu chí AI có trách nhiệm hay không.
Hành động (Action): Doanh nghiệp triển khai quy trình trong đó mỗi trường hợp sử dụng AI sẽ được chấp thuận, yêu cầu chỉnh sửa, hoặc từ chối.
Davenport nhấn mạnh rằng việc tích hợp đạo đức vào chiến lược AI cần có một kế hoạch chiến lược rõ ràng. “Chúng ta cần xác định những trường hợp sử dụng nào là hợp lý, sau đó xây dựng mô hình, triển khai, giám sát - và yếu tố đạo đức phải được lồng ghép xuyên suốt cả quá trình đó. Đó chính là cách mà các tổ chức thành công nhất đang làm khi nói đến đạo đức AI”, ông nói.
(Nguồn: MIT Sloan)