Phần 3: Xác định các rủi ro của AI | Sẵn sàng cho Trí tuệ Nhân tạo: Điều Lãnh đạo CNTT CIO Cần Biết và Làm

Phần 3: Xác định các rủi ro của AI: Điều Lãnh đạo CNTT CIO Cần Biết và Làm để Sẵn sàng cho Trí tuệ Nhân tạo (AI) chuyen doi so

Xác định mức độ chấp nhận rủi ro AI của từng phòng ban chức năng hoặc đơn vị kinh doanh 

Để hoàn tất việc xác định các cơ hội AI (trí tuệ nhân tạo) mà tổ chức sẽ theo đuổi, các lãnh đạo kinh doanh cần nêu rõ mức độ rủi ro họ sẵn sàng chấp nhận rủi ro liên quan đến các vấn đề như độ tin cậy (reliability), quyền riêng tư (privacy), khả năng giải thích (explainability) và an ninh bảo mật (security) của AI.

Rủi ro trong tham vọng AI - Điều Lãnh đạo CNTT CIO Cần Biết và Làm để Sẵn sàng cho Trí tuệ Nhân tạo (AI) GenAI AI tạo sinh Artificial Intelligence

Để dễ hình dung, bạn có thể kẻ một hình hai trục ngang dọc như bên dưới. Trục ngang là mức độ dễ giải thích đi từ hoàn toàn dễ giải thích (explainable AI) tới AI như một hộp đen (black box AI). Còn trục dọc đi chuyển dần từ con người sang AI, đi từ mức độ con người tham gia AI hỗ trợ (AI augment/ Human in the loop) lên tới AI tự động hoá hoàn toàn (AI automates), và đoạn giữa là AI làm, con người quan sát và kiểm định (AI does, human oversees). Từ bảng này ta sẽ có được 4 góc độ quan trọng: 1. Các cược an toàn (Safest Bet), 2. Tự động hoá chịu trách nhiệm hoàn toàn (Responsible Automation), 3. Sức mạnh Hỗ trợ (Verified Power), và 4. Hoàn toàn rủi ro/ Tốc độ cao (full risk/ speed ahead). 

Bản đồ rủi ro của tham vọng AI (theo Gartner)

Độ tin cậy của AI 

Tùy vào cách đào tạo, tất cả AI đều có thể "dễ bị tổn thương" hay không đáng tin cậy ở mức độ nào đó bởi: 

  • Thiếu chính xác về sự kiện, hoặc đầu ra có phần nào đúng nhưng sai ở những chi tiết quan trọng. 
  • Ảo tưởng, hoặc đầu ra bị bịa đặt. 
  • Thông tin lỗi thời, do dữ liệu đào tạo có điểm ngừng/ điểm cắt (cutoffs) về kiến thức. 
  • Thông tin thiên vị trong dữ liệu đào tạo, dẫn đến đầu ra thiên vị. 

Quyền riêng tư của AI 

Các vấn đề về quyền riêng tư biến đổi từ lo ngại về chi tiết có thể nhận dạng trong dữ liệu đào tạo đến việc chia sẻ dữ liệu hoặc đầu ra, bao gồm: 

  • Chia sẻ thông tin người dùng với bên thứ ba mà không thông báo trước, bao gồm thông tin nhà cung cấp sản phẩm hay dịch vụ, đơn vị liên kết và các người dùng khác. 
  • Xử lý dữ liệu có thể nhận dạng. 
  • Đào tạo bằng dữ liệu có thể nhận dạng có thể gây ảnh hưởng trong thực tế khi đi vào triển khai. 
  • Dữ liệu nhạy cảm hoặc cá nhân bị rò rỉ ngoài ý muốn. 
  • Thông tin sở hữu, nhạy cảm hoặc bảo mật được nhập dưới dạng câu lệnh (prompt) hoặc để truy xuất dữ liệu có thể trở thành một phần của cơ sở kiến thức được sử dụng trong đầu ra cho người dùng khác. 

Khả năng giải thích của AI (AI explainability)

Các Mô hình Học máy (ML, viết tắt của Machine Learning) không minh bạch với người dùng và đôi khi ngay cả với các chuyên gia giỏi. Mặc dù các nhà khoa học dữ liệu và nhà phát triển mô hình hiểu những gì các mô hình ML của họ đang cố gắng làm, nhưng họ không thể giải mã cấu trúc bên trong hoặc cách thức thuật toán để các mô hình xử lý dữ liệu. Sự thiếu khả năng hiểu (understandability) và do đó giải thích được mô hình (explainability) - điều Gartner định nghĩa là các khả năng làm rõ cách thức hoạt động của một mô hình - giới hạn khả năng của tổ chức trong việc quản lý rủi ro AI. Việc thiếu khả năng giải thích khiến đầu ra của mô hình trở nên: 

  • Không thể đoán trước (unpredictable).
  • Không thể xác minh (unverifiable). 
  • Không thể giải trình (unaccountable). 

An ninh AI (AI security) 

AI có thể trở thành mục tiêu mới cho các đối tượng có ý đồ xấu để truy cập dữ liệu cá nhân hoặc chèn mã hay các tham số đào tạo khiến AI hành động phục vụ lợi ích của đối tượng xấu. Ví dụ: 

  • Thông tin cá nhân hoặc nhạy cảm được lưu trữ bởi một mô hình AI bị tin tặc truy cập. 
  • Tin tặc sử dụng câu lệnh (prompt) để thao túng một mô hình ngôn ngữ lớn (LLM) để tiết lộ thông tin không nên đưa. 
  • Các mô hình ngôn ngữ lớn (LLM) bị lừa/ lạm dụng để viết mã phần mềm gây hại hoặc mã tống tiền. 

Đọc lại về các mô hình ngôn ngữ lớn và khác biệt với GenAI.


Phối hợp với lãnh đạo cấp cao để xác định mức độ rủi ro có thể chấp nhận được cho tổ chức của bạn 

Để cân bằng giữa rủi ro của AI với các cơ hội tổ chức muốn theo đuổi, các Giám đốc Công nghệ Thông tin cần giúp xác định vai trò tương đối của con người và AI. Mục tiêu là đạt được cân bằng giữa mức độ tự động hóa (từ hoàn toàn tự động đến "có con người tham gia") và mức độ khả năng giải thích (từ AI "hộp đen" hoàn toàn không minh bạch đến hoàn toàn có thể giải thích). 

Mỗi lãnh đạo cấp cao (CxO) cần công bố các mức độ rủi ro AI có thể chấp nhận được cho các quy trình chính trong bộ phận của họ và đảm bảo chúng phù hợp với các cơ hội AI họ muốn theo đuổi. Ví dụ, lãnh đạo bộ phận Nhân sự (HR Head) có thể có mức độ chấp nhận rủi ro trong nhóm 1 "Các cược an toàn" (Safest bet), bởi bản chất nhạy cảm trong công việc của họ, trong khi giám đốc dịch vụ khách hàng (Customer services) có thể tham vọng cho việc tự động hoá hoàn toàn (responsible automation) cho phép việc tự động hoá và có giải thích với khách hàng, nếu được yêu cầu. 

(phần cuối và hết.) 

Có thể bạn quan tâm

Chuỗi bài viết Sẵn sàng cho Trí tuệ Nhân tạo (AI): Điều Lãnh đạo CNTT CIO Cần Biết và Làm. 

Các ví dụ chuyển đổi số trong ngành tài chính, ngân hàng và bảo hiểm 

Ngành Ngân hàng chuyển đổi số

Ngành bảo hiểm Chuyển đổi số

Chuỗi bài AI Tạo sinh đột phá ngành tài chính (ngân hàng, bảo hiểm): Cơ hội, Thách thức, Bước khởi đầu

A - Ngành ngân hàng (banking)

1 - Giá trị, các cơ hội chính và ứng dụng chủ đạo

2 - Các thách thức

3 - Mở rộng quy mô ứng dụng AI Tạo sinh (GenAI) 

4 - Kế hoạch bắt đầu 

B - Ngành bảo hiểm 

1 - Các cơ hội chính/ Các ứng dụng chủ đạo 

2 - Các thách thức 

2.1. Về GenAI 

2.2. Về dữ liệu 

3 - Kế hoạch bắt đầu 

Nguồn tham khảo: 

Nhận xét

Bình luận. Vui lòng không spam, không quảng cáo, không công kích cá nhân. Hãy sử dụng từ ngữ phù hợp và đóng góp tích cực!

Archive

Biểu mẫu liên hệ

Gửi