Cách xây dựng đạo đức thành AI - Phần I

Các khuyến nghị dựa trên nghiên cứu để giữ nhân loại trong AI

Hình trái tim hình bầu dục bởi dimdimich

Đây là phần một của loạt bài hai phần về cách xây dựng đạo đức vào AI. Phần một tập trung vào việc trau dồi văn hóa đạo đức trong công ty và nhóm của bạn, cũng như minh bạch trong công ty của bạn và bên ngoài. Phần hai tập trung vào các cơ chế để loại trừ khỏi dữ liệu và thuật toán của bạn. Mỗi khuyến nghị bao gồm các ví dụ về những sai lầm về đạo đức và cách chúng có thể được ngăn chặn hoặc giảm nhẹ.

Dường như mỗi ngày có những bài viết về cách một hệ thống trí tuệ nhân tạo (AI) gây ra hành vi phạm tội (ví dụ, gắn nhãn người Mỹ gốc Phi là khỉ gorillas,) hoặc tác hại thực sự khi ý định có thể có ý nghĩa tốt (ví dụ, thiên kiến ​​chủng tộc trong kết án hình sự khuyến nghị và lãi suất).

Các nhà phát triển trong mỗi hệ thống này đã không đặt ra sự xúc phạm hay làm hại bất cứ ai và didn không lường trước được kết quả tiêu cực nhưng liệu họ có nên? Nếu bạn đang thiết kế và xây dựng một hệ thống AI, bạn có thể xây dựng về đạo đức không? Bất kể vai trò của bạn trong một tổ chức là gì, bạn có thể giúp đảm bảo rằng hệ thống AI của bạn dẫn đến một xã hội công bằng hơn thay vì kéo dài những thành kiến ​​xã hội? Câu trả lời cho tất cả những câu hỏi này là, Có Có!

Làm tốt và làm tốt

Marc Benioff, CEO của Salesforce, đã nói, mục tiêu của tôi đối với công ty là làm tốt và làm tốt. Đây là trung tâm của các giá trị cốt lõi của chúng tôi về niềm tin, sự bình đẳng và đổi mới. Chúng tôi tin tưởng mạnh mẽ rằng chúng ta có thể đi đầu trong đổi mới, thành công và là một lực lượng tốt cho thế giới. Chúng tôi làm việc nội bộ về xây dựng đạo đức vào Einstein (hệ thống AI của chúng tôi) và hợp tác với các thành viên khác trong Quan hệ đối tác chung cho AI.

Việc nhúng đạo đức vào hệ thống AI của bạn cần có thời gian và có thể yêu cầu bạn làm việc khác với cách mà bạn hoặc công ty của bạn luôn làm việc. Tuy nhiên, với tiềm năng to lớn về cả tác hại và lợi ích với AI, điều quan trọng là bạn phải đầu tư!

Cách tiếp cận từ đầu đến cuối

Quá trình xây dựng đạo đức vào hệ thống của bạn có thể được chia thành ba giai đoạn với nhiều bước trong mỗi bước:

  1. Tạo văn hóa đạo đức
  2. Hãy minh bạch
  3. Xóa bỏ loại trừ

Tạo văn hóa đạo đức

Nếu bạn không xây dựng một nền tảng vững chắc để bắt đầu, nỗ lực cần thiết để thành công sẽ luôn lớn hơn. Điều này liên quan đến việc xây dựng một đội ngũ đa dạng, trau dồi một tư duy đạo đức và tiến hành phân tích các hệ thống xã hội.

Xây dựng đội ngũ đa dạng

Tuyển dụng cho sự đa dạng của nền tảng và kinh nghiệm để tránh sai lệch và tính năng khoảng cách.

Khi Apple khuyết HealthKit ra mắt vào năm 2014, nó có thể theo dõi nồng độ cồn trong máu của bạn nhưng bạn không thể theo dõi vấn đề sức khỏe thường gặp nhất mà hầu hết phụ nữ giải quyết hàng tháng.

Nghiên cứu cho thấy (1, 2, 3, 4, 5, 6) rằng các nhóm đa dạng (bao gồm kinh nghiệm, chủng tộc, giới tính) sáng tạo hơn, siêng năng hơn và làm việc chăm chỉ hơn. Bao gồm nhiều phụ nữ ở tất cả các cấp, đặc biệt là quản lý hàng đầu, mang lại lợi nhuận cao hơn.

Thiếu sự đa dạng tạo ra một buồng vang và dẫn đến các sản phẩm sai lệch và các khoảng trống tính năng. Nếu nhóm phát triển Apple khuyết HealthKit có nhiều phụ nữ (bất kỳ?) Trong nhóm, họ có thể đã xác định được tính năng vắng mặt đáng kinh ngạc cho 50% dân số. Ví dụ này chỉ ra sự thiếu đa dạng giới tính, nhưng tất cả các loại đa dạng đều cần thiết, từ độ tuổi và chủng tộc đến văn hóa và giáo dục.

Nếu bạn không thể thuê thành viên mới để xây dựng một nhóm đa dạng hơn, hãy tìm kiếm phản hồi từ các nhân viên khác nhau trong công ty và cơ sở người dùng của bạn.

Tu luyện một tư duy đạo đức

Đạo đức là một tư duy, không phải là một danh sách kiểm tra. Trao quyền cho nhân viên để làm điều đúng đắn.

Giám đốc điều hành Uber trực tiếp ghi nhận những người tố giác với việc buộc công ty phải thay đổi và tiến lên như một công ty làm điều đúng đắn.

Đơn giản chỉ cần có một Giám đốc Đạo đức, không ngăn cản các công ty thực hiện những sai lầm về đạo đức. Đó là bởi vì không một cá nhân nào có thể hoặc phải chịu trách nhiệm cho một công ty hành động có đạo đức. Phải có một tư duy đạo đức trong toàn công ty.

Cá nhân nhân viên phải có khả năng đồng cảm với mọi người rằng hệ thống AI của họ tác động. Các công ty có thể nuôi dưỡng một tư duy đạo đức thông qua các khóa học, các nhóm hỗ trợ nội bộ và kiểm toán công bằng.

Ngoài ra, nhân viên nên cảm thấy được trao quyền để liên tục thách thức nhau bằng cách hỏi, Đây có phải là điều nên làm không? Trong các đánh giá sản phẩm và đứng lên hàng ngày, mọi người nên đặt câu hỏi đạo đức cụ thể cho lĩnh vực của họ. Ví dụ:

  • Người quản lý sản phẩm: Cảnh tác động kinh doanh của âm tính giả hoặc âm tính giả trong thuật toán của chúng tôi là gì?
  • Các nhà nghiên cứu: Những ai sẽ bị ảnh hưởng bởi hệ thống của chúng tôi và làm thế nào? Làm thế nào điều này có thể bị lạm dụng? Mọi người sẽ cố gắng phá vỡ sản phẩm hoặc sử dụng nó theo những cách ngoài ý muốn như thế nào?
  • Nhà thiết kế: Những gì tôi mặc định hoặc giả định tôi đang xây dựng vào sản phẩm? Tôi có đang thiết kế cái này cho sự minh bạch và bình đẳng không?
  • Các nhà khoa học và người tạo mô hình dữ liệu: Bằng cách tối ưu hóa mô hình của tôi theo cách này, tôi đang tạo ra ý nghĩa gì cho những người bị ảnh hưởng?

Khi nhân viên không hài lòng với câu trả lời họ nhận được, cần có một cơ chế để giải quyết nó.

Đơn giản chỉ cần có một Giám đốc Đạo đức, không ngăn cản các công ty thực hiện những sai lầm về đạo đức. Đó là bởi vì không một cá nhân nào có thể hoặc phải chịu trách nhiệm cho một công ty hành động có đạo đức. Phải có một tư duy đạo đức trong toàn công ty.

Thực hiện phân tích hệ thống xã hội

Thu hút các bên liên quan ở mọi giai đoạn của vòng đời phát triển sản phẩm để khắc phục tác động của sự bất bình đẳng xã hội có hệ thống trong dữ liệu AI.

Sở cảnh sát Chicago đã sử dụng chương trình trị an dự đoán dựa trên AI để xác định những người có nguy cơ cao nhất liên quan đến bạo lực súng đạn. Chương trình này được phát hiện là không hiệu quả trong việc giảm tội phạm, nhưng dẫn đến một số cá nhân bị nhắm mục tiêu để bắt giữ.

Phân tích hệ thống xã hội là nghiên cứu về các nhóm và các tổ chức tương tác trong một hệ sinh thái. Thay vì cho rằng một hệ thống sẽ được xây dựng, phân tích hệ thống xã hội sẽ hỏi liệu hệ thống đó có nên được xây dựng ngay từ đầu không và sau đó tiến hành thiết kế hệ thống dựa trên nhu cầu và giá trị của các bên liên quan. Điều này có thể được thực hiện bằng cách tiến hành dân tộc học trong cộng đồng bị ảnh hưởng hoặc nhận phản hồi từ một ủy ban giám sát hoặc tổ chức pháp lý.

Đề cập đến ví dụ về chương trình trị an dự đoán của Chicago, Kate Crawford & Ryan Calo gợi ý như sau: Một cách tiếp cận hệ thống xã hội sẽ xem xét lịch sử xã hội và chính trị của dữ liệu dựa trên các bản đồ nhiệt. Điều này có thể yêu cầu tư vấn các thành viên của cộng đồng và cân nhắc dữ liệu của cảnh sát chống lại phản hồi này, cả tích cực và tiêu cực, về chính sách khu phố.

Các tổ chức phải hiểu làm thế nào sáng tạo của họ tác động đến toàn bộ người dùng và xã hội. Bằng cách hiểu những tác động này, họ có thể xác định những tác động dễ bị tổn thương nhất đối với các tác động tiêu cực của hệ thống. Từ quan điểm thống kê, có thể chỉ có 1% khả năng âm tính giả hoặc âm tính giả (xuất sắc từ góc độ thống kê!) Nhưng đối với 1% dân số đó, kết quả có thể cực kỳ có hại. Là rủi ro và phần thưởng của hệ thống được áp dụng đồng đều cho tất cả? Ai được lợi và ai trả tiền dựa trên kết quả của AI? Đặt câu hỏi này ở mọi giai đoạn phát triển AI, bao gồm cả trước và sau khi ra mắt, có thể giúp xác định sự thiên vị có hại và giải quyết nó.

Từ quan điểm thống kê, có thể chỉ có 1% khả năng dương tính giả hoặc âm tính giả, nhưng đối với 1% dân số đó, kết quả có thể cực kỳ có hại.

Hãy minh bạch

Để có đạo đức, bạn cần minh bạch với chính mình, người dùng / khách hàng và xã hội. Điều này bao gồm hiểu giá trị của bạn, biết ai được lợi và ai trả tiền, cho phép người dùng kiểm soát dữ liệu của họ và nhận phản hồi.

Hiểu giá trị của bạn

Xem xét kết quả và đánh đổi các quyết định dựa trên giá trị.

Một số người sợ rằng các trợ lý AI như Siri và Google luôn lắng nghe. Chúng được thiết kế để đoán những gì người dùng muốn biết trước khi họ hỏi, cung cấp thông tin chỉ trong thời gian cực kỳ hữu ích. Tuy nhiên, nó cũng gây lo ngại cho người dùng có quyền riêng tư và bảo mật.

Các giá trị cá nhân của một nhóm hoặc công ty có thể bị xung đột khi đưa ra quyết định, dẫn đến thỏa hiệp. Ví dụ: người dùng thích sự tiện lợi của kết quả được cá nhân hóa nhưng có thể lo ngại về những gì công ty biết về họ (quyền riêng tư) hoặc những gì công ty có thể chọn không tiết lộ cho họ (phân biệt đối xử). Thật không may, các trợ lý AI được phát hiện là không hữu ích cho tất cả mọi người vì việc đào tạo của họ dường như loại trừ tiếng nói của người Mỹ gốc Phi. Khi sự đánh đổi được thực hiện, chúng phải được làm rõ ràng cho mọi người bị ảnh hưởng. Điều này có thể khó khăn nếu các thuật toán AI là các hộp đen của người Hồi giáo, ngăn không cho người tạo ra chúng biết chính xác cách thức đưa ra quyết định.

Kiểm tra liên tục các kết quả là cần thiết để hiểu tác động của những sự đánh đổi đó. Hãy nói rằng công ty của bạn đang thiết kế một hệ thống bảo mật được tăng cường AI dẫn đến mất một số quyền riêng tư cá nhân. Hãy xem xét những điều sau đây:

  • Nếu bảo vệ quyền riêng tư của người dùng là một giá trị công ty đã nêu, nhân viên (không chỉ là những người thực hiện hàng đầu) nên nhận thức được sự đánh đổi này.
  • Ngoài ra, khách hàng và công chúng nên được thông báo về việc quyền riêng tư cá nhân bị ảnh hưởng như thế nào khi sử dụng hệ thống bảo mật.
  • Nếu điều này bị che giấu vì lo ngại về phản ứng dữ dội của PR, thì nó phải được hỏi, Quyền riêng tư của người dùng có thực sự là giá trị của công ty không?

Giải thích lý do tại sao công ty thực hiện sự đánh đổi và những gì nó đang làm để giảm thiểu tác hại có thể đi một chặng đường dài để giữ niềm tin của cộng đồng.

Cung cấp cho người dùng quyền kiểm soát dữ liệu của họ

Cho phép người dùng sửa hoặc xóa dữ liệu bạn đã thu thập về họ.

Mục tiêu của Google là làm cho thế giới có thông tin về Google, có thể truy cập và hữu dụng trên toàn thế giới. Tuy nhiên, Google đã tuân thủ chỉ 43,3% yêu cầu.

Các công ty có thể thu thập và theo dõi một lượng dữ liệu tuyệt vời về người dùng của họ trực tuyến, trong các cửa hàng và từ các thiết bị hỗ trợ internet (IoT). Chỉ có đạo đức là cho phép người dùng xem dữ liệu nào bạn đã thu thập về họ và sửa nó hoặc tải xuống và xóa dữ liệu. Nếu công ty của bạn đang hoạt động tại EU, bạn cần biết về Quy định bảo vệ dữ liệu chung (GDPR) của EU và cách nó ảnh hưởng đến những gì bạn có thể thu thập và lưu trữ, cũng như các quy tắc về việc cho phép người dùng / khách hàng tải xuống và xóa dữ liệu của họ .

Ngoài ra, đảm bảo có thể biểu diễn chính xác dữ liệu. Ví dụ: người dùng có thể chỉ ra giới tính của mình nếu họ xác định là không nhị phân không? Họ có tùy chọn để chọn nhiều hơn một nền chủng tộc không?

Nếu dữ liệu được thu thập được ẩn danh và người dùng không thể biết chính xác những gì công ty biết về họ và chỉnh sửa nó, hãy truyền đạt rõ ràng loại dữ liệu được thu thập và cho phép các cá nhân từ chối. Nếu người dùng có thể sử dụng sản phẩm mà không cần thu thập dữ liệu, hãy liên lạc với họ.

Nhận phản hồi

Cho phép người dùng đưa ra phản hồi về suy luận mà AI đưa ra về họ.

Ba văn phòng tín dụng quốc gia thu thập thông tin về các cá nhân để tạo ra các báo cáo tín dụng mà người cho vay sử dụng để xác định rủi ro của người vay tiềm năng. Các cá nhân không thể chọn dữ liệu được thu thập và phải trải qua thời gian dài để sửa dữ liệu không chính xác hoặc suy luận về chúng.

Suy luận về một cá nhân (ví dụ: rủi ro cao về vỡ nợ cho vay) có thể gây ra hậu quả có hại mà không có kiến ​​thức hoặc kiểm soát cá nhân (ví dụ: không có khả năng vay tiền). Thật không may, những người đau khổ nhất trong tay AI và dữ liệu lớn. Các cộng đồng đã bị thiệt thòi, nghèo nàn, không có tiếng nói (ví dụ: những người không có quyền truy cập internet không thể nhanh chóng xem báo cáo tín dụng hoặc yêu cầu sửa tệp).

Luật pháp EU yêu cầu các quyết định AI với hậu quả nghiêm trọng được kiểm tra bởi một người với tùy chọn ghi đè lên nó; tuy nhiên, một điểm dữ liệu riêng lẻ là vô nghĩa nếu không hiểu các quyết định được đưa ra về người khác (ví dụ: đề xuất phê duyệt khoản vay có khác nhau đối với khách hàng da đen so với người da trắng mặc dù tất cả các yếu tố khác đều giống nhau không?). Điều quan trọng là phải hiểu các khuyến nghị hoặc dự đoán về AI trong bối cảnh.

Minh bạch về các suy luận và cho phép các cá nhân đưa ra phản hồi không chỉ cho phép bạn cải thiện tính chính xác của mô hình mà còn cho phép bạn sửa lỗi để phân biệt đối xử. Đây có thể là một lợi thế so với các đối thủ cạnh tranh không công bằng đối với các khách hàng khả thi. Ví dụ, một ngân hàng từ chối một số lượng lớn người xin vay vì rủi ro quá cao có thể xác định các khoản vay vi mô là một đề nghị thay thế không chỉ hỗ trợ cộng đồng mà còn dẫn đến một cơ sở khách hàng trung thành mà các đối thủ cạnh tranh của ngân hàng đã bỏ qua. Điều này cho phép khách hàng cải thiện tình hình tài chính của họ và tận dụng nhiều hơn các dịch vụ của ngân hàng, điều này dẫn đến một chu kỳ đạo đức.

Nó tạo nên một ngôi làng để tạo nên sự khác biệt

Từ việc nuôi dưỡng văn hóa đạo đức đến minh bạch về các giá trị của công ty và trao quyền cho khách hàng của mình, có nhiều hành động mà một công ty và nhân viên của họ nên thực hiện để tạo ra một nền tảng đạo đức để xây dựng các sản phẩm AI. Để tìm hiểu các cách loại bỏ loại trừ trong các sản phẩm dựa trên AI của bạn, hãy xem Phần II.

Tôi rất thích nghe những gì bạn nghĩ! Công ty của bạn và cá nhân bạn làm gì để tạo ra một nền tảng đạo đức trong công việc của bạn?

Cảm ơn Justin Tauber, Liz Balsam, Molly Mahar và Raymon Sutingjo-The cho tất cả các phản hồi của bạn!

Theo dõi chúng tôi tại @SalesforceUX.

Muốn làm việc với chúng tôi không? Liên hệ với uxcareers@salesforce.com