Создана система для борьбы с дискриминацией со стороны искусственного интеллекта
Специалисты по компьютерным технологиям из компании Google и Чикагского университета разработали систему, позволяющую понять, не занимается ли искусственный интеллект дискриминацией по гендерному или расовому признаку. Доклад на эту тему будет представлен на конференции по системам обработки нейронной информации, которая пройдет в Барселоне, а коротко о нем сообщает The Guardian.
Цель алгоритма — исследовать программы машинного обучения, которые учатся принимать решения, опираясь на огромные массивы данных. Ученые не считают возможным повлиять на саму работу программ (они должны оставаться «волшебными черными ящиками», подчеркивают исследователи), но стремятся сравнивать поступающие в нее данные и принимаемые ею решения.
Суть принципа «равных возможностей» применительно к машинному обучению: решения ИИ (показать ли рекламу или выдать кредит, например) не должны ничего говорить о поле или расовой принадлежности индивида, кроме того, что уже содержится в исходных данных. Например, если мужчины в два раза чаще объявляют себя несостоятельными должниками, ИИ не должен автоматически запрещать банку одобрять все заявки мужчин на кредит — это уже будет дискриминацией.