Искусственный интеллект предвзятый и необъективный: ученые научились это выявлять

0
807

Ученые научились выявлять предвзятость искусственного интеллекта

Исследователям удалось разработать фреймворк, который помогает идентифицировать необъективность и предвзятость алгоритма. Это особенно важно в тех случаях, когда ИИ применяется для принятия решений — в суде при вынесении приговора или в банке при одобрении кредита.

Справка из Википедии: Искусственный интеллект

Искусственный интеллект — это наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ; свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.

Машинное обучение все чаще используется для принятия важных решений. В некоторых штатах США судьи выносят приговоры и определяют условия освобождения под залог, используя алгоритмы, которые вычисляют вероятность того, что человек совершит повторное преступление. Другие алгоритмы определяют, следует ли одобрить человеку кредит или пригласить на собеседование.

ЧИТАТЬ ТАКЖЕ:  Интеллектуальная разминка для умников: загадки с ответами

Как пишет «Нью сайентист» (New Scientist), зачастую непонятно, как алгоритм пришел к тому или иному выводу, а потому неясно, можно ли говорить о справедливости. Всегда есть вероятность, что он обучался на выборке данных, которая не была полной. А потому исследователи стали поднимать проблему расизма и предубеждений искусственного интеллекта.

Исследователи из Института Алана Тьюринга в Лондоне разработали фреймворк, который поможет идентифицировать необъективность алгоритма. Расовые и гендерные признаки нельзя игнорировать, но они должны рассматриваться в комплексе с другими факторами, а не определять решение.

Им уже удалось успешно протестировать свою разработку — оказалось, что чаще всего полицейские останавливают чернокожих мужчин и латиноамериканцев, а потому алгоритм именно их считал более склонными к преступности. Однако, статистика показывает, что уровень преступности не зависит от цвета кожи. С помощью нового метода можно будет, к примеру, распределять в городе полицейские патрули, не боясь быть обвиненными в расовых предубеждениях и дискриминации.

ЧИТАТЬ ТАКЖЕ:  Чем опасны браки между дальними родственниками? Элементарные законы генетики

Летом 2016 года заключенный Эрик Лумис подал иск в Верховный суд штата Висконсин с требованием пересмотреть использование алгоритма для вынесения судебных решений, обвинив его в предвзятости. Эксперты сходятся во мнении, что алгоритмы должны быть объективными. Для этого в том числе предлагается сделать их открытыми.

Текст: Далия Мухамедзянова

отсюда

30.03.2017

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь