понеділок, 10 вересня, 2018, 17:59 Світ
Расизм і ксенофобія: штучний інтелект здатний виробляти упередження, – вчені

Нове дослідження показало, що прояв упереджень стосовно інших не вимагає особливих інтелектуальних здібностей і може запросто розвинутися у машин з штучним інтелектом.

Психологи та інформаційних технологій з Кардіфського університету та Массачусетського технологічного інституту показали, що групи автономних машин можуть проявляти упередження за допомогою простого визначення поведінки, копіювання та взаємного навчання, пише naked-science.

Може здатися, що упередження – виключно людський феномен, який вимагає людського інтелекту для формування думки або стереотипів стосовно будь-якої особи чи групи. Незважаючи на те, що деякі типи комп’ютерних алгоритмів вже виявляли такі упередження, як расизм і сексизм, засновані на вивченні публічних записів і інших даних згенерованих людьми, нова робота демонструє здатності штучного інтелекту до самостійного розвитку з упереджень.

Дослідження опубліковане в журналі Scientific Reports. Воно засноване на комп’ютерних симуляції того, як упереджені віртуальні агенти можуть формувати групи і взаємодіяти один з одним. В процесі симуляції кожен індивід приймає рішення, допомогти комусь зі своєї групи або з іншої, в залежності від репутації того індивіда, а також власної стратегії, що включає в себе їх рівні упереджень по відношенню до сторонніх. Після проведення тисяч симуляцій кожен індивід навчається новим стратегіям, копіюючи інших – будь то представники своєї групи або всього «населення».

«З проведенням цих симуляцій тисячі і тисячі разів поспіль ми почали розуміти, як розвивається упередження і які потрібні умови для його культивації або запобігання. Наші симуляції показують, що упередження – це потужна сила природи, і за допомогою еволюції її можна простимулювати у віртуальних громадах, щоб нашкодити ширшому зв’язку з іншими. Захист від упереджених груп може ненароком привести до формування інших упереджених груп, провокуючи більший поділ населення. Таке широке поширення упереджень важко повернути назад «, – розповів співавтор дослідження професор Роджер Уїтакер з Інституту досліджень злочинності і безпеки і Школи комп’ютерних наук та інформатики Кардіфського університету.

Дані дослідження також включають в себе індивідів, які підвищують рівні свого упередження копіюванням тих, хто отримує кращі короткострокові результати, що, в свою чергу, означає, що такі рішення не вимагають обов’язкової наявності особливих здібностей.

«Цілком правдоподібно, що автономні машини, здатні ідентифікувати себе з дискримінацією і копіювати інших, в майбутньому можуть бути сприйнятливими до феномену упередження, які ми бачимо в суспільстві Велика кількість розробок штучного інтелекту, які ми спостерігаємо сьогодні, включають в себе автономність і самоврядування, тобто на поведінку приладів також впливають ті, хто їх оточує», – підсумовує професор Уїтакер

* Якщо Ви знайшли помилку в тексті новини, виділіть її та натисніть Ctrl+Enter.
реклама
більше новин
Top
2018-11-19 04:57 :27