Стереотипи і забобони: чому ми навчили штучний інтелект

Стереотипы и предрассудки: Чему мы научили искусственный интеллект

Розробляючи нові технології, ми створюємо новий світ. Ось тільки чи він може стати краще, якщо ми закладаємо в нього старі помилки? На штучному інтелекті, одне з головних досягнень сучасного суспільства, вже позначається наш згубний вплив — вчені звернули увагу на вражаючу кількість гендерних і расових упереджень у алгоритмах.

Чому машини упереджені

За останні кілька років здатність таких програм, як Google Translate, розуміти мову, разюче зросла. Все це завдяки новим технікам машинного навчання та доступності величезного обсягу текстових даних, на яких тренують алгоритми. Однак, так як машини потроху набувають мовні навички, наближені до людських, вони також вбирають і забобони, вкорінені в паттернах мови.

Джоанна Брисон, фахівець в області комп’ютерної науки, зазначила: «Багато людей кажуть — це доводить, що штучний інтелект упереджений. Немає. Це доводить, що ми упереджені і штучний інтелект це у нас переймає». Брисон попередила, що штучний інтелект потенційно може посилювати існуючі забобони, тому що, на відміну від людей, алгоритми не здатні свідомо протистояти засвоєним стереотипам. «Небезпека виникне тоді, коли у штучного інтелекту більше не буде зовнішнього елемента, контрольованого моральними переконаннями».

Що показує «векторне представлення слів»

Нещодавно в журналі Science було опубліковано дослідження, присвячене такому інструменту машинного навчання, як «векторне представлення слова» («word embedding»). Цей підхід, вже використовується в мережовому пошуку і машинному перекладі, побудований на математичному поданні мови, при якому значення слова розкладається на серію чисел (званих вектором слова) на підставі того, які слова найчастіше вживаються разом з цим. Може здатися дивним, але такий статистичний підхід здатний уловлювати різноманітні культурні та соціальні контексти слова, недоступні словникам.

Наприклад, у математичному мові слова, пов’язані зі словом «квітка», ближче до слів, пов’язаних з поняттям «приємне», тоді як кластери слова «комаха» ближче до поля «неприємне» — це відображає загальне сприйняття комах щодо кольорів.

Останні дослідження показують, що і більш небезпечні упередження легко засвоюються алгоритмами. Слова «жіночий» і «жінка» частіше асоціюються з мистецтвом, гуманітарними науками і домом, тоді як «чоловічий» і «чоловік» ближче до математики та інженерних професій.

Інструмент машинного навчання, на якому проводили дослідження, був натренований на корпусі текстів, опублікованих онлайн. Схожі результати дало дослідження на матеріалі новин Google.

Сандра Уочтер, дослідник інформаційної етики і алгоритмів в Оксфордському університеті, так прокоментувала ситуацію: «Світ сповнений упереджень, історичні дані повні упереджень, так що нема чого дивуватися наслідкам».

Але алгоритми можуть представляти не тільки загрозу, але і нові можливості для того, щоб протистояти стереотипам. «У випадку з алгоритмами, ми хоча б можемо знати, що вони упереджені. А люди можуть брехати про причини, з яких вони не взяли когось на роботу. Алгоритми поки на це не здатні».

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*

code