Khi khoa học viễn tưởng trở thành khoa học thật sự, việc tập trung vào khía cạnh đạo đức sẽ đảm bảo trí tuệ nhân tạo (Artificial Intelligence – AI) mang lại lợi ích cho toàn nhân loại, chứ không phải đặc quyền của một nhóm thiểu số.

Người ta nói rằng tin giả thì lan truyền nhanh hơn gấp 6 lần so với tin tức thật. Các thuật toán được tích hợp trong các phần mềm truyền thông xã hội với mục đích thu hút sự chú ý của chúng ta đã cung cấp cho ta những thông tin kích hoạt các bản năng cơ bản trong tâm lý phức tạp của con người. Đây là một số thực tế rõ ràng nhất được phơi bày trong bộ phim tài liệu The Social Dilemma (Tạm dịch: Thế tiến thoái lưỡng nan của xã hội) trên Netflix. Thu hút sự chú ý của chúng ta là công việc robot được lập trình để làm. Và chúng đang làm việc đó rất tốt. Tristan Harris, người sáng lập Trung tâm Công nghệ Nhân đạo (The Center for Humane Technology) chia sẻ: “Chừng nào các công ty truyền thông xã hội còn kiếm được lợi nhuận từ sự phẫn nộ, nhầm lẫn, trầm cảm của người dùng và khiến họ nghiện, những phúc lợi và nền dân chủ của chúng ta sẽ tiếp tục gặp rủi ro.”

Nguồn cung cấp tin tức cuộn vô hạn chỉ là một phần nhỏ trong thế giới trí tuệ nhân tạo. Trí tuệ nhân tạo và máy học còn ảnh hưởng đến cách chúng ta mua sắm, giao dịch, giao tiếp, thậm chí cả những quyết định về việc ứng viên nào sẽ được gọi phỏng vấn và hồ sơ của ai sẽ bị vào thùng rác.

Dù trong tương lai, robot có thể thay thế công việc của chúng ta hoặc không, nhưng hiện tại chúng đã đóng ngày càng nhiều vai trò trong cuộc sống. Việc phần mềm (và cách chúng ta xây dựng nó) giúp ích hay gây hại cho ta là vấn đề quan trọng mà tất cả mọi người, không chỉ riêng các nhà phát triển, cần phải hiểu. Và đó là lúc trí tuệ nhân tạo có đạo đức xuất hiện.

Trí tuệ nhân tạo có đạo đức là gì?

Có một số góc nhìn khác nhau khi nói về vấn đề đạo đức của trí tuệ nhân tạo. Có những vấn đề triết học phức tạp và những dự đoán của chủ nghĩa tương lai như singularity (điểm kỳ dị công nghệ), hay những ý tưởng giống như khoa học viễn tưởng về điều gì sẽ xảy ra khi một hệ thống trí tuệ nhân tạo trở nên có ý thức và có thể tự dạy cho mình bất cứ điều gì nó muốn, không còn chỉ gói gọn trong phạm vi những gì nó được lập trình để học. Và tiếp theo đó là hành vi đạo đức của con người khi họ thiết kế và tạo ra những cỗ máy thông minh.

Đó là những vấn đề mới được cân nhắc gần đây và có một số người đã thành lập các tổ chức với sứ mệnh giúp chúng ta nhận thức tốt hơn về chúng. Một trong số đó là Ethical AI, với một điểm dữ liệu (data point) như sau:

Gartner dự đoán rằng trong 2 năm tới, 85% các dự án trí tuệ nhân tạo sẽ đưa ra kết quả sai lầm.

Con số đó sẽ khiến chúng ta phải ngồi thẳng lưng và chú ý. Điều đáng nói là đôi khi nguyên nhân gây lỗi không phải là do mã nguồn, mà chính là thành kiến vô thức. Một ví dụ là ứng dụng phát hiện cơn đau tim được phát triển vào năm 2019. Nó ghi nhận một cách nhầm lẫn các triệu chứng giống như cơn hoảng loạn ở nữ giới (vốn là triệu chứng những cơn đau ở nam giới) là một cơn đau tim. Trí tuệ nhân tạo vô tình có hại vì nó khuếch đại những thành kiến đã tồn tại từ lâu – trong trường hợp này là quan niệm cho rằng phái nữ đa cảm quá mức.

Một ví dụ khác là thuật toán trí tuệ nhân tạo nhận dạng gương mặt cho kết quả chính xác hơn khi thực hiện trên những gương mặt người da trắng so với người da màu. Ô tô tự lái cũng vậy. Nó có xu hướng phát hiện tốt hơn người đi bộ có nước da sáng, nhờ đó tránh va vào họ tốt hơn. Một vài hệ thống như vậy đã tạo ra nhiều kết quả sai lầm.

Đây là lý do bắt buộc phải thiết kế trí tuệ nhân tạo với những nguyên tắc đạo đức. Trách nhiệm thuộc về chúng ta là trở thành những nhà lãnh đạo có đạo đức ở cấp cơ sở, thay vì chỉ dựa vào chính phủ hoặc những ông lớn công nghệ. Tất nhiên, họ cũng cần phải làm việc của mình. Song, đối với các công ty công nghệ, có một sự thật phũ phàng là nhiều người thiếu động lực tài chính để tác động đến sự thay đổi thực sự.

Các nguyên tắc của trí tuệ nhân tạo có đạo đức và tầm quan trọng của nó đối với các nhà phát triển

Tiến sĩ Catriona Wallace, người sáng lập và CEO của Ethical AI Advisory và đồng thời là người sáng lập và giám đốc của Flamingo AI cho rằng ngày nay, chính phủ và các cơ quan quản lý khác đã đi sau thời đại ít nhất 5 năm trong những kiến thức, hiểu biết về việc trí tuệ nhân tạo có khả năng gì và làm thế nào để quản lý nó. Ethical AI Advisory chỉ rõ: “Việc áp dụng phương pháp tiếp cận có đạo đức để phát triển và sử dụng trí tuệ nhân tạo đảm bảo các tổ chức, nhà lãnh đạo và nhà phát triển nhận thức được những nguy cơ tiềm ẩn của trí tuệ nhân tạo, và bằng cách tích hợp các nguyên tắc đạo đức vào thiết kế, phát triển và triển khai trí tuệ nhân tạo, họ có thể tìm cách phòng tránh mọi tác hại tiềm ẩn.”

Tiến sĩ Wallace giải thích rằng có rất nhiều thứ khác nhau mà con người coi trọng, nhưng rốt cuộc tất cả chúng đều đưa về những điều cơ bản: không gây hại, ưu tiên sức khỏe và an toàn. Trang web Ethical AI đã đưa ra 8 nguyên tắc và hướng dẫn đáng chú ý về trí tuệ nhân tạo có đạo đức:

  1. Phúc lợi của con người, xã hội và môi trường
    Trong suốt vòng đời, các hệ thống trí tuệ nhân tạo cần mang lại lợi ích cho cá nhân, xã hội và môi trường.
  2. Lấy con người làm trung tâm giá trị
    Trong suốt vòng đời, các hệ thống trí tuệ nhân tạo phải tôn trọng quyền con người, sự đa dạng và quyền tự chủ của các cá nhân.
  3. Sự công bằng
    Trong suốt vòng đời, các hệ thống trí tuệ nhân tạo phải có tính phổ quát và dễ tiếp cận, không được liên quan hoặc dẫn đến những phân biệt đối xử, sự không công bằng giữa các cá nhân, cộng đồng hoặc nhóm người.
  4. Bảo vệ quyền riêng tư và bảo mật
    Trong suốt vòng đời, các hệ thống trí tuệ nhân tạo phải tôn trọng và duy trì các quyền riêng tư, bảo vệ dữ liệu, cũng như bảo đảm tính bảo mật của dữ liệu.
  5. Độ tin cậy và an toàn
    Trong suốt vòng đời, các hệ thống trí tuệ nhân tạo phải hoạt động một cách đáng tin cậy theo đúng mục đích của chúng.
  6. Tính minh bạch và khả năng giải thích
    Cần có sự minh bạch và trách nhiệm tiết lộ cho mọi người biết khi nào họ đang bị tác động đáng kể bởi một hệ thống trí tuệ nhân tạo và khi nào hệ thống trí tuệ nhân tạo đang tương tác với họ.
  7. Khả năng cạnh tranh
    Khi một hệ thống trí tuệ nhân tạo tác động đáng kể đến một cá nhân, cộng đồng, nhóm hoặc môi trường, cần có một quy trình kịp thời để cho phép mọi người thử thách việc sử dụng hoặc đầu ra của hệ thống trí tuệ nhân tạo.
  8. Trách nhiệm giải trình
    Những người chịu trách nhiệm về các giai đoạn khác nhau cho vòng đời của hệ thống trí tuệ nhân tạo phải được xác định và chịu trách nhiệm về kết quả của hệ thống, đồng thời giám sát các hoạt động của hệ thống.

Các câu hỏi về đạo đức cũng mở rộng đến dữ liệu cá nhân và cách nó được sử dụng trong các thuật toán trí tuệ nhân tạo khi chúng ta tương tác với ứng dụng. Chúng ta có nên nhận thức rằng ta đang tương tác với trí tuệ nhân tạo không? Và có được phép từ chối hay không?

“Sản phẩm đầu tien mà công ty tôi đưa ra thị trường được bán trong các dịch vụ tài chính”, Tiến sĩ Wallace nhớ lại. “Một trong những khách hàng của chúng tôi không muốn khách hàng của họ biết rằng họ đang tương tác với robot. Họ muốn khách hàng nghĩ đó là một con người. Chúng tôi đã nói với họ rằng điều đó là phi đạo đức. Tôi có niềm tin mạnh mẽ rằng khách hàng cần biết liệu họ có đang giao dịch với robot hay không, và liệu dữ liệu mà robot thu tập được có được chuyển thành tập dữ liệu sẽ được sử dụng để huấn luyện thuật toán không. Họ nên nêu rõ những điều này trên trang web của mình.”

Máy tính chỉ làm những gì chúng được lập trình để làm. Bởi vì trí tuệ nhân tạo được đào tạo dựa trên những hành vi hiện có, chúng có thể phóng đại cách thành kiến về giới tính và chủng tộc. Tiến sĩ Wallace chỉ ra rằng “Trí tuệ nhân tạo đánh giá hồ sơ của Amazon là ví dụ về một trí tuệ nhân tạo đã sử dụng dữ liệu lịch sử có thành kiến.” Chương trình đã được đào tạo dựa trên một tập dữ liệu với quá nhiều hồ sơ của nam giới, nên dẫn đến kết luận rằng nam giới là người thích hợp hơn. Vì vậy, những hồ sơ của nữ giới tự động bị hạ cấp.

Nói cách khác, ngay cả Amazon – một trong những công ty công nghệ hàng đầu của thế giới – cũng đang phải vật lộn để làm đúng.

Trí tuệ nhân tạo có thể ngày càng làm tốt hơn trong việc cung cấp cho bạn những gì bạn thích, nhưng nó không biết tại sao bạn lại thích nó. Đó là phân tích định lượng thuần túy ở cấp độ N và những đánh giá về giá trị không ảnh hưởng đến thời gian thực thi. Cơ hội duy nhất để thêm giá trị vào phương trình chính là khi chọn tập dữ liệu huấn luyện. Các kỹ sư càng cẩn thận khi lựa chọn tập dữ liệu huấn luyện sẽ càng có cơ hội cạnh tranh khi hệ thống trí tuệ nhân tạo họ tạo ra hoạt động công bằng và bình đẳng. Nếu không, nó sẽ chỉ khiến những thành kiến hiện có cố thủ hơn.

Các kỹ sư trí tuệ nhân tạo nghĩ gì về “robot xấu”?

Hãy xem xét trường hợp của Atlassian: Họ là một công ty công nghệ và sử dụng trí tuệ nhân tạo trong phần mềm của mình.

Ở mức độ cơ bản, phần mềm của họ được thiết kế để giúp mọi người làm việc năng suất và hiệu quả hơn. Học máy có thể cải thiện điều đó. Giả sử bạn sắp chia sẻ một trang Confluence với đồng nghiệp. Thuật toán của Atlassian sẽ theo dõi những người bạn thường xuyên tương tác nhất trong Confluence và dề xuất những người dựa trên tập dữ liệu đó khi bạn nhập chữ cái đầu tiên trong tên của họ. Công cụ học máy này được gọi là Smarts, cung cấp hàng triệu thông báo, đề xuất và lời nhắc nhở theo cách đó mỗi ngày.

Mặc dù những ví dụ này có thể đơn giản nhưng chúng lại mang đến cho nhóm phát triển một điều gì đó để đo lường và quan sát, hỗ trợ quá trình xây dựng các chức năng nâng cao hơn. Shihab Hamid và Timothy Clipsham, hai nhà công nghệ cấp cao tham gia phát triển Smarts cho biết họ nhận thức được khả năng sai lệch trong dữ liệu và kết quả nói chung của công cụ. Do đó, họ luôn tìm cách đề phòng những hậu quả không mong muốn.

Hamid minh họa một kịch bản giả định không chú ý đến thành kiến có thể phát sinh trong một hệ thống như Jira. “Có thể bạn luôn giao phó những vấn đề có mức độ nghiêm trọng cao cho những kỹ sư cao cấp nhất. Và trên toàn bộ dữ liệu, những kỹ sư cao cấp đó chủ yếu là nam giới. Điều đó sẽ dẫn đến một sự thiên vị nhất định.” Sau đó, khi hệ thống gặp phải một nhóm kỹ sư cao cấp cân bằng giới hơn, ban đầu nó có thể tụt hậu trong việc đề xuất giao phó công việc quan trọng cho nữ giới trong nhóm đó.

Hiện tại, việc sử dụng trí tuệ nhân tạo của Atlassian không còn nằm trong các quyết định tuyển dụng và cho vay. Vậy điều gì khiến những kỹ sư như Hamid và Clipsham thao thức hằng đêm? Clipsham chia sẻ: “Theo cách nhìn nhận của tôi, trí tuệ nhân tạo là dự đoán về những gì sắp xảy ra trong tương lai, và học máy là một kỹ thuật có thể giúp bạn dự đoán điều gì sẽ xảy ra.”

Làm thế nào để chúng ta chấp nhận cái tốt và loại bỏ cái xấu?

Theo Tiến sĩ Wallace, trí tuệ nhân tạo phải mang lại ba lợi ích cơ bản:

  1. Làm cho mọi thứ nhanh hơn, lớn hơn và rẻ hơn
  2. Chính xác hơn bộ não con người khi phân tích và đưa ra quyết định
  3. Đáng tin cậy hơn con người, về tỷ lệ lỗi và thời gian hoạt động (robot chẳng bao giờ xin nghỉ phép vì bị ốm)

Tuy nhiên, như chúng ta đã thấy trong các ví dụ nói trên và nhiều trường hợp khác, trí tuệ nhân tạo cũng có thể phá vỡ mọi thứ nhanh hơn và trên những quy mô, cấp độ lớn hơn, mang tính sống còn theo đúng nghĩa đen. Nó không thể cân nhắc các giá trị hay những yếu tố định tính khác trong khi đưa ra quyết định. Và mặc dù trí tuệ nhân tạo thường có độ chính xác cao hơn, nhưng nó có thể kém hơn nhiều về khả năng phân biệt.

Nếu bước đầu tiên trong quá trình thay đổi là nhận thức, thì trách nhiệm chung của chúng ta là phải giáo dục về chủ đề này càng nhiều càng tốt. Chúng ta sử dụng máy tính, sử dụng các phương tiện truyền thông xã hội. Chúng ta phải hiểu được chúng là gì, và đang sử dụng chúng ta như thế nào.

Trí tuệ nhân tạo ở xung quanh ta và về cơ bản, nó đã thay đổi thế giới theo nhiều hướng tích cực. Tuy nhiên, nó cũng có khả năng trở thành mối đe dọa lớn với thế giới. Trí tuệ nhân tạo bắt chước trí thông minh của con người và ở các dạng tiên tiến nhất, nó có thể tự học. Ngày càng có nhiều sự công nhận rằng chúng ta cần có nhiều đại diện của phụ nữ và người da màu hơn trong cách nhóm Trí tuệ nhân tạo và Robot. Các nhóm chuyên nghiệp như Black In ComputingAlgorithmic Justice League đang nâng cao nhận thức về tác động mà lĩnh vực do người da trắng và nam giới thống trị áp đảo này có thể (và đang) gây ra với cộng đồng người da màu. Bên cạnh đó, những tổ chức như Black Girls CodeCode2040 đang nỗ lực để thu hút những kỹ sư từ nhiều nhóm người ít đại diện.

Máy móc, và những thứ thông minh đang có mặt tại khắp mọi nơi. Chúng ta hoàn toàn có thể thực hiện những thẩm định của riêng mình, duy trì cảnh giác và chung sống hòa bình với robot.

Nguồn: Atlassian Blog

Menu