Nhảy đến nội dung
 

Liêm chính doanh nghiệp - nền tảng xây dựng một tương lai ‘AI có đạo đức’

AI đạo đức là nền tảng để kiến tạo một tương lai công nghệ phục vụ con người, và liêm chính doanh nghiệp chính là ngọn đèn dẫn đường - thiết lập tiêu chuẩn cao và khuyến khích thực hành có trách nhiệm trên toàn hệ sinh thái.

Đây không chỉ là trách nhiệm doanh nghiệp, mà là cơ hội chung để định hình một thế giới số vì mọi người.

Dù có nhiều nỗ lực toàn cầu nhằm hài hòa hóa quản trị AI - như từ Liên Hợp Quốc, Tổ chức Hợp tác và Phát triển Kinh tế (OECD), Nhóm G20, G7 và các nền tảng như Liên minh Quản trị AI của Diễn đàn Kinh tế Thế giới - nhưng việc tiến tới một mô hình quản trị hiệu quả vẫn gặp nhiều thách thức trong bối cảnh công nghệ này đang phát triển quá nhanh.

Điều này đồng nghĩa với việc các doanh nghiệp cần đóng vai trò chủ động, bằng cách áp dụng một bộ quy tắc đạo đức mạnh mẽ để đảm bảo trách nhiệm và sự minh bạch cần thiết.

Tăng cường hệ sinh thái liêm chính trong AI

Việc sử dụng AI một cách có trách nhiệm đang trở thành mối quan tâm chung giữa các ngành, không chỉ do rủi ro pháp lý mà còn xuất phát từ trách nhiệm xã hội của các nhà lãnh đạo doanh nghiệp.

Liêm chính doanh nghiệp hiện không chỉ dừng lại ở tuân thủ pháp luật, mà còn bao gồm triển khai AI một cách có đạo đức. Nhiều công ty đang tăng cường hoạt động thẩm định nội bộ bằng cách áp dụng các quy tắc đạo đức, nguyên tắc hướng dẫn và quy chuẩn nội bộ để kiểm soát rủi ro liên quan đến AI.

Các tiêu chuẩn như ISO 42001 giúp củng cố quy trình thẩm định, trong khi các sáng kiến như OECD AI Incident Monitor (ghi nhận hơn 600 sự cố từ tháng 1/2024) cung cấp thông tin giá trị về rủi ro và tác hại của hệ thống AI, hỗ trợ việc triển khai AI có đạo đức.

Tuy nhiên, tại Mỹ, mặc dù 73% lãnh đạo cấp cao tin rằng việc có hướng dẫn đạo đức về AI là cần thiết, chỉ 6% doanh nghiệp thực sự đã xây dựng được bộ hướng dẫn này - theo khảo sát gần đây với 500 lãnh đạo doanh nghiệp.

Với những doanh nghiệp muốn hành động, các bộ quy tắc ứng xử tự nguyện như sáng kiến G7 Hiroshima Process có thể định hướng cách tiếp cận triển khai AI toàn cầu. Ví dụ, Unilever đã áp dụng quy trình kiểm định AI để đánh giá tính hiệu quả và đạo đức của từng ứng dụng AI mới.

Các chức danh như Giám đốc pháp lý, Giám đốc công nghệ, Giám đốc đạo đức, tuân thủ và dữ liệu đang đóng vai trò ngày càng quan trọng trong quản trị AI. Cách tiếp cận đa tầng này giúp doanh nghiệp không bỏ sót rủi ro và đảm bảo thực hành phát triển AI một cách kỹ lưỡng và an toàn.

Vai trò của hội đồng quản trị và nhà đầu tư trong phát triển AI có trách nhiệm

Hội đồng quản trị có thể góp phần vào sự phát triển và triển khai AI có trách nhiệm bằng cách mở rộng khái niệm liêm chính và trách nhiệm doanh nghiệp. Tuy nhiên, điều này đòi hỏi họ phải hiểu rõ khả năng và rủi ro của AI, và tích hợp các giá trị đạo đức vào các cuộc thảo luận chiến lược, giám sát và đánh giá rủi ro.

Tại Novartis, ủy ban ESG do CEO chủ trì đã thông qua khung AI đưa các nguyên tắc đạo đức vào các quyết sách chiến lược cấp cao. Việc tích hợp này đảm bảo trách nhiệm liên tục đối với hệ thống AI.

Những sáng kiến này ngày càng quan trọng, trong bối cảnh các vụ kiện gần đây cho thấy doanh nghiệp có thể bị liên đới trách nhiệm khi AI hoạt động sai, như vụ chatbot của Air Canada đưa thông tin sai khiến hãng phải bồi thường cho hành khách.

Tại Mỹ, Ủy ban Chứng khoán và Giao dịch (SEC) đã yêu cầu tổ chức biểu quyết cổ đông về việc sử dụng AI tại các công ty như Apple và Disney - phản ánh sự giám sát đạo đức ngày càng gắt gao.

Áp lực từ nhà đầu tư cho thấy đạo đức AI không chỉ là trách nhiệm xã hội, mà còn là chiến lược đầu tư thông minh và dài hạn. AI có trách nhiệm có thể góp phần vào thành công thương mại và tăng thị phần.

Một nghiên cứu gần đây dựa trên phỏng vấn các nhà đầu tư mạo hiểm cho thấy: tập trung vào đạo đức AI có thể trở thành lợi thế cạnh tranh. Khi tranh luận toàn cầu về quản trị AI chủ yếu xoay quanh việc giảm thiểu rủi ro, thì AI có trách nhiệm nên được nhìn nhận như một tài sản chiến lược.

Chính phủ cũng có thể thúc đẩy thị trường bằng cách đưa tiêu chí đạo đức vào các hợp đồng công nghệ AI. 

Hướng tới AI đạo đức

Thúc đẩy AI đạo đức không chỉ là một xu hướng - mà là một phong trào quan trọng để định hình tương lai số lấy con người làm trung tâm. AI đạo đức vượt xa việc tuân thủ quy định - đó là đảm bảo công nghệ phục vụ lợi ích chung và phù hợp với các giá trị chung của nhân loại.

Khi doanh nghiệp cam kết thực hành AI có đạo đức, họ không chỉ xây dựng niềm tin mà còn bảo vệ quyền cá nhân và đảm bảo các hệ thống AI được thiết kế và sử dụng nhằm nâng cao chất lượng sống con người. Đây không chỉ là tránh gây hại - mà còn là chủ động tạo dựng một tương lai tốt đẹp hơn cho tất cả.

Để đạt được điều đó, doanh nghiệp cần củng cố hệ sinh thái liêm chính AI, đảm bảo các hội đồng quản trị và ban điều hành chủ động hướng dẫn việc phát triển AI đạo đức. Điều này bao gồm không chỉ tuân thủ pháp luật mà còn ưu tiên tính minh bạch, công bằng và trách nhiệm trong mọi khâu triển khai AI.

Đồng thời, đầu tư vào AI có trách nhiệm cũng rất thiết yếu. Bằng cách ủng hộ các công ty ưu tiên AI đạo đức, nhà đầu tư góp phần lan tỏa các thực hành vì lợi ích chung. Những nỗ lực này không chỉ tác động đến từng doanh nghiệp - mà còn tạo nên một môi trường toàn cầu nơi AI phát triển hài hòa với giá trị nhân văn và nhu cầu xã hội.

(Theo Weforum.org)

 
 
 
logo
CÔNG TY CỔ PHẦN XÂY DỰNG SẢN XUẤT VÀ THƯƠNG MẠI ĐẠI SÀN

GPĐKKD: 0103884103 do sở KH & ĐT TP Hà Nội cấp lần đầu ngày 29/06/2009.

Địa chỉ: Gian số L4-07 tầng 4, nơ-2 - Gold Season,  47 Nguyễn Tuân, Thanh Xuân, Hà Nội

MIỀN BẮC

Địa chỉ Showroom: D11-47 KĐT Geleximco Lê Trọng Tấn, Hà Đông, Hà Nội

Điện thoại  Điện thoại: 1900 98 98 36

MIỀN NAM

Địa chỉ VPGD: 57/1c, Khu phố 1, Phường An Phú Đông, Quận 12, Thành phố Hồ Chí Minh

Điện thoại  Email: info@daisan.vn