Sau một năm của vụ bê bối công nghệ, 10 khuyến nghị của chúng tôi cho AI

Hãy bắt đầu với quy định tốt hơn, bảo vệ người lao động và áp dụng sự thật của quảng cáo trong các quy tắc của Quảng cáo vào AI

Hôm nay, Viện AI Now công bố báo cáo thường niên thứ ba của chúng tôi về tình trạng của AI vào năm 2018, bao gồm 10 khuyến nghị cho chính phủ, nhà nghiên cứu và các nhà thực hành trong ngành.

Đó là một năm đầy kịch tính trong AI. Từ Facebook có khả năng kích động thanh lọc sắc tộc ở Myanmar, đến Cambridge Analytica đang tìm cách thao túng bầu cử, đến việc Google xây dựng một công cụ tìm kiếm kiểm duyệt bí mật cho người Trung Quốc, tức giận với các hợp đồng của Microsoft với ICE, cho nhiều cuộc nổi dậy của công nhân về các điều kiện trong kho được quản lý bằng thuật toán của Amazon - tiêu đề chưa dừng lại. Và đây chỉ là một vài ví dụ trong số hàng trăm.

Cốt lõi của các vụ bê bối AI xếp tầng là những câu hỏi về trách nhiệm: ai chịu trách nhiệm khi các hệ thống AI gây hại cho chúng ta? Làm thế nào để chúng ta hiểu những tác hại này, và làm thế nào để chúng ta khắc phục chúng? Đâu là những điểm can thiệp, và những nghiên cứu và quy định bổ sung nào là cần thiết để đảm bảo những can thiệp đó có hiệu quả? Hiện tại có rất ít câu trả lời cho những câu hỏi này, và các khung pháp lý hiện có không đáp ứng được những gì mà LIG cần. Khi tính phổ biến, độ phức tạp và quy mô của các hệ thống này tăng lên, sự thiếu trách nhiệm và giám sát có ý nghĩa này - bao gồm các biện pháp bảo vệ cơ bản về trách nhiệm, trách nhiệm và quy trình đúng hạn - là một mối lo ngại ngày càng cấp bách.

Dựa trên các báo cáo năm 2016 và 2017 của chúng tôi, Báo cáo AI Now 2018 giải quyết vấn đề trọng tâm này và đưa ra 10 khuyến nghị thực tế có thể giúp tạo ra các khung trách nhiệm giải trình có khả năng chi phối các công nghệ mạnh mẽ này.

khuyến nghị

1. Chính phủ cần điều chỉnh AI bằng cách mở rộng quyền hạn của các cơ quan chuyên ngành để giám sát, kiểm toán và giám sát các công nghệ này theo tên miền.

Việc triển khai các hệ thống AI đang mở rộng nhanh chóng, không có chế độ quản trị, giám sát hoặc trách nhiệm đầy đủ. Các lĩnh vực như y tế, giáo dục, tư pháp hình sự và phúc lợi đều có lịch sử, khung pháp lý và mối nguy hiểm riêng. Tuy nhiên, một cơ quan an toàn AI quốc gia hoặc mô hình chứng nhận và tiêu chuẩn AI chung sẽ đấu tranh để đáp ứng các yêu cầu chuyên môn của ngành cần thiết cho quy định sắc thái. Chúng tôi cần một cách tiếp cận cụ thể theo ngành không ưu tiên công nghệ, mà tập trung vào ứng dụng của nó trong một miền nhất định. Các ví dụ hữu ích về phương pháp tiếp cận cụ thể theo ngành bao gồm Cục Hàng không Liên bang Hoa Kỳ và Cục Quản lý An toàn Giao thông Quốc lộ.

2. Nhận dạng khuôn mặt và ảnh hưởng đến nhận dạng cần quy định nghiêm ngặt để bảo vệ lợi ích công cộng.

Quy định như vậy nên bao gồm luật pháp quốc gia đòi hỏi giám sát mạnh mẽ, hạn chế rõ ràng và minh bạch công khai. Cộng đồng nên có quyền từ chối áp dụng các công nghệ này trong cả bối cảnh công cộng và riêng tư. Chỉ thông báo công khai về việc sử dụng của họ là không đủ, và cần có một ngưỡng cao cho bất kỳ sự đồng ý nào, do sự nguy hiểm của việc giám sát hàng loạt áp bức và liên tục. Ảnh hưởng đến sự công nhận xứng đáng được quan tâm đặc biệt. Nhận dạng ảnh hưởng là một lớp con của nhận dạng khuôn mặt, tuyên bố sẽ phát hiện những thứ như tính cách, cảm xúc bên trong, sức khỏe tâm thần và sự tham gia của người lao động trên nền tảng dựa trên hình ảnh hoặc video của khuôn mặt. Những tuyên bố này không được hỗ trợ bởi bằng chứng khoa học mạnh mẽ, và đang được áp dụng theo những cách phi đạo đức và vô trách nhiệm, thường gợi lại các giả khoa học về phrenology và sinh lý học. Liên kết ảnh hưởng đến việc công nhận tuyển dụng, tiếp cận bảo hiểm, giáo dục và chính sách tạo ra những rủi ro liên quan sâu sắc, ở cả cấp độ cá nhân và xã hội.

3. Ngành công nghiệp AI rất cần những cách tiếp cận mới để quản trị.

Như báo cáo này chứng minh, cấu trúc quản trị nội bộ tại hầu hết các công ty công nghệ đều không đảm bảo trách nhiệm cho các hệ thống AI. Quy định của chính phủ là một thành phần quan trọng, nhưng các công ty hàng đầu trong ngành công nghiệp AI cũng cần các cấu trúc trách nhiệm nội bộ vượt ra ngoài các nguyên tắc đạo đức. Điều này nên bao gồm đại diện nhân viên cấp bậc và tập tin trong ban giám đốc, ban cố vấn đạo đức bên ngoài và thực hiện các nỗ lực giám sát và minh bạch độc lập. Các chuyên gia bên thứ ba sẽ có thể kiểm toán và xuất bản về các hệ thống quan trọng, và các công ty cần đảm bảo rằng cơ sở hạ tầng AI của họ có thể được hiểu từ mũi mũi đến đuôi, bao gồm cả ứng dụng và sử dụng cuối cùng của họ.

4. Các công ty AI nên từ bỏ bí mật thương mại và các khiếu nại pháp lý khác cản trở trách nhiệm giải trình trong khu vực công.

Các nhà cung cấp và nhà phát triển tạo ra AI và các hệ thống quyết định tự động để sử dụng trong chính phủ nên đồng ý từ bỏ mọi bí mật thương mại hoặc yêu cầu pháp lý khác gây ức chế kiểm toán và hiểu biết đầy đủ về phần mềm của họ. Luật bảo mật của công ty là một rào cản đối với quá trình do: chúng góp phần tạo ra hiệu ứng hộp đen của hệ thống kết xuất trực quan mờ đục và không thể đếm được, khiến cho việc đánh giá sai lệch, quyết định của cuộc thi hoặc khắc phục lỗi rất khó khăn. Bất cứ ai mua các công nghệ này để sử dụng trong khu vực công nên yêu cầu các nhà cung cấp từ bỏ các khiếu nại này trước khi ký kết bất kỳ thỏa thuận nào.

5. Các công ty công nghệ nên cung cấp sự bảo vệ cho những người phản đối có lương tâm, tổ chức nhân viên và những người tố giác đạo đức.

Tổ chức và kháng chiến của công nhân công nghệ đã nổi lên như một lực lượng cho trách nhiệm giải trình và ra quyết định đạo đức. Các công ty công nghệ cần bảo vệ công nhân khả năng tổ chức, thổi còi và đưa ra các lựa chọn đạo đức về những dự án họ làm việc. Điều này nên bao gồm các chính sách rõ ràng hỗ trợ và bảo vệ những người phản đối có lương tâm, đảm bảo người lao động có quyền biết những gì họ đang làm và khả năng tránh những công việc đó mà không bị trả thù hoặc trả thù. Công nhân nâng cao mối quan tâm đạo đức cũng phải được bảo vệ, cũng như thổi phồng lợi ích công cộng.

6. Các cơ quan bảo vệ người tiêu dùng nên áp dụng luật pháp về quảng cáo thật trong các sản phẩm của AI đối với các sản phẩm và dịch vụ AI.

Sự cường điệu xung quanh AI chỉ đang tăng lên, dẫn đến khoảng cách ngày càng lớn giữa những lời hứa tiếp thị và hiệu suất sản phẩm thực tế. Với những khoảng trống ngày càng tăng rủi ro cho cả cá nhân và khách hàng thương mại, thường có hậu quả nghiêm trọng. Giống như các sản phẩm và dịch vụ khác có khả năng ảnh hưởng nghiêm trọng hoặc khai thác dân số, các nhà cung cấp AI nên được giữ ở tiêu chuẩn cao cho những gì họ có thể hứa, đặc biệt là khi bằng chứng khoa học ủng hộ những lời hứa này là không thỏa đáng và hậu quả lâu dài là không rõ .

7. Các công ty công nghệ phải vượt ra ngoài mô hình đường ống của hệ thống, và cam kết giải quyết các thực tiễn loại trừ và phân biệt đối xử tại nơi làm việc của họ.

Các công ty công nghệ và toàn bộ lĩnh vực AI đã tập trung vào mô hình đường ống của hệ thống,, ông đang tìm cách đào tạo và thuê nhiều nhân viên đa dạng hơn. Mặc dù điều này rất quan trọng, nhưng nó bỏ qua những gì xảy ra khi mọi người được thuê vào nơi làm việc loại trừ, quấy rối hoặc đánh giá thấp một cách có hệ thống trên cơ sở giới tính, chủng tộc, tình dục hoặc khuyết tật. Các công ty cần kiểm tra các vấn đề sâu sắc hơn tại nơi làm việc của họ và mối quan hệ giữa các nền văn hóa loại trừ và các sản phẩm họ xây dựng, có thể tạo ra các công cụ duy trì sự thiên vị và phân biệt đối xử. Sự thay đổi trong trọng tâm này cần phải đi kèm với hành động thiết thực, bao gồm cam kết chấm dứt trả lương và bất bình đẳng cơ hội, cùng với các biện pháp minh bạch về tuyển dụng và giữ chân.

8. Công bằng, trách nhiệm và minh bạch trong AI đòi hỏi phải có tài khoản chi tiết về chuỗi cung ứng ngăn xếp đầy đủ của nhóm.

Để có trách nhiệm giải trình, chúng ta cần hiểu rõ hơn và theo dõi các bộ phận cấu thành của hệ thống AI và chuỗi cung ứng đầy đủ mà nó dựa vào: có nghĩa là kế toán nguồn gốc và sử dụng dữ liệu đào tạo, dữ liệu thử nghiệm, mô hình, giao diện chương trình ứng dụng (API ) và các thành phần cơ sở hạ tầng khác trong vòng đời sản phẩm. Chúng tôi gọi đây là kế toán cho chuỗi cung ứng đầy đủ của các hệ thống AI, và đó là điều kiện cần thiết cho một hình thức kiểm toán có trách nhiệm hơn. Chuỗi cung ứng ngăn xếp đầy đủ cũng bao gồm hiểu được chi phí lao động và môi trường thực sự của các hệ thống AI. Điều này kết hợp sử dụng năng lượng, sử dụng lao động ở các nước đang phát triển để kiểm duyệt nội dung và tạo dữ liệu đào tạo và sự phụ thuộc vào các clickworkers để phát triển và duy trì các hệ thống AI.

9. Cần thêm kinh phí và hỗ trợ cho các vụ kiện tụng, tổ chức lao động và sự tham gia của cộng đồng về các vấn đề trách nhiệm của AI.

Những người có nguy cơ bị tổn hại nhiều nhất từ ​​các hệ thống AI thường là những người ít có khả năng tranh chấp kết quả nhất. Chúng tôi cần tăng cường hỗ trợ cho các cơ chế mạnh mẽ về khắc phục pháp lý và sự tham gia của công dân. Điều này bao gồm hỗ trợ những người ủng hộ công chúng đại diện cho những người bị cắt khỏi các dịch vụ xã hội do ra quyết định thuật toán, các tổ chức xã hội dân sự và tổ chức lao động hỗ trợ các nhóm có nguy cơ mất việc làm và bóc lột, và cơ sở hạ tầng dựa vào cộng đồng cho phép sự tham gia của cộng đồng.

10. Các chương trình AI của trường đại học nên mở rộng ra ngoài các ngành khoa học máy tính và kỹ thuật.

AI bắt đầu như một lĩnh vực liên ngành, nhưng qua nhiều thập kỷ đã thu hẹp để trở thành một ngành học kỹ thuật. Với việc ứng dụng ngày càng nhiều hệ thống AI vào các lĩnh vực xã hội, nó cần mở rộng định hướng kỷ luật. Điều đó có nghĩa là các hình thức chuyên môn tập trung từ các ngành xã hội và nhân văn. Những nỗ lực AI thực sự muốn giải quyết các tác động xã hội không thể chỉ nằm trong các khoa khoa học và kỹ thuật máy tính, nơi các giảng viên và sinh viên không được đào tạo để nghiên cứu thế giới xã hội. Mở rộng định hướng kỷ luật của nghiên cứu AI sẽ đảm bảo sự chú ý sâu sắc hơn đến bối cảnh xã hội và tập trung nhiều hơn vào các mối nguy tiềm ẩn khi các hệ thống này được áp dụng cho dân số loài người.

Bạn có thể đọc báo cáo đầy đủ ở đây.