В процессе обучения человеческим языкам искусственный интеллект стал расистом

На модерации Отложенный

По заявлению ученных Принстонского университета которые опубликовано в журнале Science, системы искусственного интеллекта которые обучаются человеческим языкам получили стереотипные представления о неприятных чернокожих людях и глупых женщинах, которые свойственны расистам и женоненавистникам.

Айлин Калискан и ее коллеги из Принстонского университета провели исследования, в рамках которого изучали ассоциации, сформированные и систем искусственного интеллекта во время обучения их при помощи книг, текстов и архивов старых газет, переведенных на разные языки мира. Ученые натолкнулись на то, что привычно человеку, и необычно для «разумных» машин.

За время своего обучения ИИ смог перенять все гендерные и расовые стереотипы, которые уже много веков существуют в человеческом обществе и находят свое отражение в языке и ассоциациях между словами.

Так, например искусственный интеллект в большинстве случаев ассоциирует слово «приятный» с европейцами и жителями Америки европейского происхождения, нежели с представителями других рас. Мужские имена и местоимения ассоциируются у ИИ с властью, руководством в бизнесе и карьерой. А вот имена носителями, которых являются афро-американцы искусственный интеллект ассоциировал с неприятными словами.

Слова, которые связаны с женщинами ИИ относил к искусству, семье и подчинением в обществе, «мужские»  слова ассоциировались с математикой и наукой.