Tương lai của AI (trí tuệ nhân tạo) là AI tốt hơn – được thiết kế với đạo đức và những trách nhiệm được xây dựng ngay từ đầu. Nói cách khác, điều này có nghĩa là chúng ta phải dừng quá trình chuyển đổi được điều khiển bởi AI cho đến khi có được một chiến lược và quy trình hoạt động đủ tốt để đảm bảo các mô hình mang lại kết quả công bằng. Bởi vì sự thất bại trong việc nhận ra mệnh lệnh này sẽ trở thành một mối đe dọa lớn đến lợi nhuận kinh doanh. Bài viết này sẽ mang đến thông tin về một khuôn khổ đơn giản nhất để các doanh nghiệp tuân theo, nhằm giữ họ đi đúng hướng khi đặt niềm tin nhiều hơn vào các thuật toán.
AI vốn là công nghệ xã hội. Các hệ thống AI đại diện cho sự kết nối giữa con người và công nghệ. Chúng được thiết kế để được sử dụng bởi con người và cung cấp cho con người những thông tin cần thiết trong các bối cảnh cụ thể. Bên cạnh đó, khi xét về tốc độ và quy mô của AI, bất kỳ sự thiếu trách nhiệm nào liên quan đến sự thiên vị, tính an toàn, quyền riêng tư, sự xuất sắc về khoa học, v.v đều có thể tạo ra những biến đổi với cùng tốc độ và quy mô ấy. Do đó, nếu không được xây dựng với đạo đức và trách nhiệm, các hệ thống AI sẽ thiếu đầu vào quan trọng hoặc bối cảnh xã hội để đạt được thành công lâu dài.
Các vụ kiện pháp lý bắt nguồn từ các hệ thống AI có thành kiến với một số nhóm nhất định đang chồng chất lên nhau. Vào tháng 8 năm 2020, IBM đã buộc phải giải quyết một vụ kiện với thành phố Los Angeles vì đã chiếm đoạt dữ liệu mà họ thu thập được cho ứng dụng thời tiết của mình. Công ty dịch vụ y tế Optum đang bị các cơ quan quản lý điều tra vì đã tạo ra một thuật toán được cho là khuyến nghị các bác sĩ và y tá chú ý đến bệnh nhân da trắng hơn là bệnh nhân da đen đang trong tình trạng tồi tệ hơn. Bên cạnh đó Facebook cũng đang đối mặt với vấn đề pháp lý vì đã cấp cho Cambridge Analytica – một công ty chính trị – quyền truy cập vào dữ liệu cá nhân của hơn 50 triệu người. Google cũng từng gặp phải vấn đề với các thuật toán gây ra sai lầm nghiêm trọng.
Mặc dù các vụ kiện là có thật, nhưng lý do nền tảng khiến AI có đại đức trở nên quan trọng đối với bạn chính là sự tin tưởng. Nếu không có niềm tin, người tiêu dùng sẽ dần bỏ qua bạn và lựa chọn một thương hiệu khác mà họ tin tưởng. Nghiên cứu từ Kantar – công ty điều hành một trong những nghiên cứu về giá trị thương hiệu toàn cầu lớn nhất với khoảng 4 triệu người dùng và 18.000 thương hiệu trải rộng trên 50 thị trường – đã cho thấy rằng 9% giá trị thương hiệu được thúc đẩy bởi danh tiếng của công ty, trong đó trách nhiệm là một yếu tố đóng vai trò quan trọng. Trong thập kỷ qua, tầm quan trọng của trách nhiệm đối với người tiêu dùng – khả năng quyết định của nó trong việc lựa chọn thương hiệu – đã tăng lên gấp ba lần.
Nghiên cứu cũng chỉ ra rằng các thương hiệu được xem là nằm trong số những thương hiệu đáng tin cậy và có trách nhiệm nhất đã sở hữu ba yếu tố quan trọng, đóng vai trò trọng yếu trong việc xây dựng lòng tin và sự tin cậy của người tiêu dùng ngay cả khi có thương hiệu mới gia nhập thị trường. Đó chính là:
- Tính trung thực và cởi mở
- Sự tôn trọng và hòa nhập
- Chất lượng dịch vụ chăm sóc khách hàng
Các thương hiệu phát triển được những thuộc tính này có xu hướng vượt trội hơn các đối thủ cạnh tranh trong việc giữ gìn và nâng cao giá trị thương hiệu của họ.
Các nhà lãnh đạo công nghệ và kinh doanh cần tập trung vào bốn lĩnh vực để hoàn thành một chiến lược AI có đạo đức và hoạt động tốt. Nghiên cứu Lopez gọi nhóm nhiệm vụ này là SEED, viết tắt của Security (bảo mật), Ethics (đạo đức), Explainability (khả năng giải thích) và Data (dữ liệu).
Bảo mật
Một chiến lược AI mạnh mẽ đòi hỏi một chiến lược bảo mật nhúng. Các công ty nên tìm kiếm bảo mật cấp phần cứng trong các thành phần như GPU và CPU. Đồng thời, các nhà lãnh đạo CNTT nên xây dựng bảo mật phần mềm thành các mô hình để giảm thiểu các cuộc tấn công như mã độc, né tránh (evasion), deepfakes, cửa hậu (backdoors) hay trích xuất mô hình. Một trong những mối đe dọa bảo mật là tấn công đối nghịch đầu độc dữ liệu (adversarial data poisoning) – cách tấn công các mô hình học máy bằng các đưa vào đầu vào là dữ liệu không chính xác được thiết kế một cách cố ý nhằm làm hỏng độ chính xác của mô hình. Một mối đe dọa bảo mật khác là trích xuất mô hình (model extraction), hay còn được gọi là nhân bản mô hình (model cloning). Bằng cách này, tin tặc sẽ tìm cách để xây dựng lại mô hình máy học hộp đen hoặc trích xuất dữ liệu được dùng để huấn luyện mô hình. Cách phòng thủ cơ bản nhất để chống lại các cuộc tấn công an ninh là thiết kế bảo mật ngay từ đầu, nhưng bước tốt nhất lại là thường xuyên kiểm tra các mô hình để đảm bảo chúng đang hoạt động đúng theo kế hoạch. Điều này có nghĩa là các nhà lãnh đạo doanh nghiệp, chuyên gia khoa học dữ liệu và lãnh đạo CNTT cần làm việc cùng nhau để thường xuyên kiểm tra, giám sát kết quả hoạt động của các mô hình AI.
Đạo đức
Ngày nay, các tổ chức cần hiểu rằng đạo đức nên là yếu tố được thiết kế thành giải pháp ngay từ đầu. Quy trình đạo đức bắt đầu bằng việc xác định các kết quả tích cực và tiêu cực tiềm năng của mô hình mà doanh nghiệp đang tạo ra. Sau khi nhóm đã đánh giá các tác động có hại tiềm ẩn, bao gồm niềm tin, sự phân cấp quyền lực và động lực kết nối với công nghệ, bạn có trách nhiệm loại bỏ hoặc giảm thiểu tác động của chúng. Việc xem xét tác động của các mô hình trong quá trình sản xuất và tạm ngưng các mô hình có vấn đề cũng rất quan trọng. Một ví dụ về điều này chính là bản phát hành beta công khai của chatbot Tay mà Microsoft đã triển khai và rồi nhanh chóng phải thu hồi vì nó tuyên truyền thành kiến tiêu cực.
Tuy nhiên, nhiều tổ chức không thực hiện hành động này. Nghiên cứu của FICO tiết lộ rằng 93% các công ty cho biết AI có trách nhiệm là yếu tố quan trọng mang lại thành công, nhưng chỉ 33% trong số họ đang đo lường kết quả đầu ra của mô hình AI để đảm bảo các mô hình này hoạt động như mong đợi (phương pháp đo lường độ lệch mô hình). Một cuộc khảo sát khác của Pew Research cho thấy 68% tin rằng các nguyên tắc đạo đức tập trung chủ yếu vào lợi ích công cộng sẽ không được sử dụng trong hầu hết các hệ thống AI vào năm 2030.
Các quy định có thể lật ngược tình thế này, bất kể các tổ chức có kế hoạch áp dụng khuôn khổ AI có đạo đức hay không. Theo dự kiến, các điều luật quản lý việc sử dụng dữ liệu có đạo đức trong AI sẽ được hoàn thiện sớm nhất vào năm 2022, chẳng hạn như khung pháp lý cho AI do Ủy ban Châu Âu đề xuất. Các tổ chức bắt đầu sử dụng AI có đạo đức sẽ có vị trí tốt hơn để giải quyết các mối bận tâm về quyền riêng tư của khách hàng và việc tuân thủ các quy định.
Khả năng giải thích
Khi các mô hình ngày càng trở nên tinh vi hơn, việc giải thích thích lý do tại sao một mô hình tạo ra kết quả cụ thể sẽ càng trở nên khó khăn. Trong Báo cáo về AI có trách nhiệm của FICO, 65% người được hỏi không thể giải thích cách mà một mô hình AI cụ thể đưa ra quyết định hoặc dự đoán, và chỉ 35% cho biết tổ chức của họ đã nỗ lực sử dụng AI theo cách minh bạch và có trách nhiệm. Tuy nhiên, việc làm rõ cách mô hình AI đưa ra kết luận – chẳng hạn như lý do tại sao một khoản vay bị từ chối, tại sao nên thực hiện một chiến lược cụ thể, cách AI lựa chọn một tập các hồ sơ để xem xét cho một vị trí tuyển dụng – trở nên quan trọng hơn bao giờ hết. Mọi doanh nghiệp nên xem xét các mô hình hiện có của mình và sử dụng các bộ công cụ mã nguồn mở hỗ trợ khả năng diễn giải và giải thích các mô hình học máy có thể tìm thấy trên github.com.
Cần nhớ rằng khả năng giải thích không phải là một thứ phù hợp với tất cả, bởi các bên liên quan khác nhau cần các loại thông tin khác nhau. Phần lớn khả năng giải thích cho đến nay tập trung vào việc mở ra chiếc hộp đen vốn được coi là thông tin chỉ hữu ích cho các nhà khoa học dữ liệu khác. Điều đó quan trọng, nhưng nó không giúp ích gì cho phân hệ người dùng doanh nghiệp sử dụng AI trong quy trình làm việc, hoặc người dùng cuối – những người xứng đáng được biết về cách các quyết định được đưa ra, hoặc các nhà hoạch định chính sách không có kiến thức nền tảng về khoa học dữ liệu, v.v.
Dữ liệu
Một khía cạnh quan trọng không kém trong đạo đức là dữ liệu. Đạo đức bắt đầu với việc đảm bảo bạn có dữ liệu chính xác để tạo ra và cập nhật các mô hình. Ba vấn đề chính bao gồm dữ liệu đại diện, thành kiến cố hữu trong dữ liệu hiện có và dữ liệu không chính xác. Một vấn đề quan trọng mà hầu hết các công ty bỏ sót trong việc tạo ra các mô hình là các tập dữ liệu hiện tại thường thiếu tính đại diện cho toàn bộ thị trường. Một báo cáo gần đây của Viện nghiên cứu Capgemini tiết lộ rằng 65% giám đốc điều hành đã nhận thức được vấn đề thành kiến phân biệt đối xử với các hệ thống này.
Tuy nhiên, nhận thức chỉ là bước đầu tiên. Các tổ chức cần hành động để khắc phục vấn đề này. Dữ liệu lịch sử có thể không còn phục vụ nhu cầu tạo mô hình của công ty, còn hồ sơ lịch sử thì có thể ẩn chứa thành kiến chống lại một nhóm nhất định. Ví dụ, hồ sơ dữ liệu tội phạm lịch sử cho thấy sự mất cân bằng trong việc giam giữ các nhóm dân tộc, điều này sẽ dẫn đến sự sai lệch của mô hình. Không chỉ vậy, luật pháp và các chuẩn mực xã hội cũng sẽ thay đổi theo thời gian.
Các công ty cũng đã phát hiện ra rằng việc sử dụng dữ liệu nhân khẩu học – một thực tế phổ biến trong ngành tiếp thị – cũng có thể dẫn đến sự sai lệch của mô hình. Ví dụ, các cá nhân chủ yếu sử dụng tiền mặt cho các giao dịch và những người sống trong những vùng có mã zip cụ thể gặp bất lợi trong các mô hình xác định độ tín nhiệm của ngân hàng. Để giảm thiểu những vấn đề này, doanh nghiệp cần tăng cường dữ liệu để có được tính đại diện đầy đủ trong các lĩnh vực như dân tộc, giới tính, tuổi tác, hồ sơ hành vi và kinh tế.
Thiết kế mô hình AI với vòng phản hồi liên tục
Một vấn đề khác, nổi trội nhưng phức tạp hơn, chính là tính chính xác của dữ liệu. Điều ít được đánh giá cao nhất nhưng lại được cho là thành phần thiết yếu nhất trong vòng đời của mô hình AI chính là việc đảm bảo mô hình luôn có dữ liệu chính xác. Dữ liệu không chính xác do quá trình làm sạch dữ liệu yếu kém hay dữ liệu bị giả mạo vì mục đích bảo mật có thể gây ra lỗi mô hình. Các tổ chức cần đầu tư thời gian và nguồn lực để đảm bảo có được dữ liệu chính xác. Quyền riêng tư dữ liệu là một yếu tố quan trọng khác mà các doanh nghiệp cần giải quyết, nhưng các khái niệm về quyền riêng tư, chủ quyền và bảo mật dữ liệu là vô cùng phức tạp và quan trọng, do đó cần được thảo luận kỹ hơn trong một bài viết riêng biệt khác.
Nhìn chung, rõ ràng là mặc dù chúng ta có thể có rất nhiều dữ liệu, nhưng cũng rất có thể là chúng không đại diện cho những gì ta muốn lập mô hình cho tương lai. Một chiến lược AI thành công là một chiến lược AI có đạo đức đòi hỏi sự chu đáo của tổ chức trong quá trình tạo ra mô hình, bằng cách đảm bảo có được dữ liệu chính xác với tính đại diện rộng rãi và quá trình kiểm tra kết quả để chắc chắn về sự an toàn và hoạt động của mô hình.
Các tổ chức xác định vòng đời của mô hình AI với một vòng phản hồi liên tục sẽ gặt hái được những lợi ích tuyệt vời hơn từ trí thông minh. Điều này sẽ dần dần trở thành sự tin tưởng lâu dài, mạnh mẽ hơn từ phía khác hàng và sự đảm bảo luôn tuân thủ các điều luật và quy định mới.
Theo Google Cloud Blog