Введение в семинар по предвзятости и искусственному интеллекту Семинар представляет Рун Чаудри, соучредитель AI for Anyone. Они сотрудничали с Black Girls Code для проведения этого виртуального мероприятия. Цель AI for Anyone - повысить грамотность аудитории в области искусственного интеллекта с помощью семинаров, проводимых как очно, так и онлайн.
"Предвзятость в ИИ" - Понимание предвзятости и ее влияния - Ким Холландс из Black Girls Code представляется менеджером учебной программы. - Она объясняет, что предвзятость может негативно повлиять на жизнь людей, когда речь заходит о таких вещах, как поступление в школу или возможности трудоустройства. - Искусственный интеллект (ИИ) делает прогнозы относительно различных аспектов, таких как рекомендации по фильмам, внесение залога или распознавание лиц. - Участники считают, что внесение залога и распознавание лиц имеют более высокий потенциал причинения вреда в случае предвзятости по сравнению с рекомендациями Netflix.
Как возникает предвзятость? - Три основных компонента способствуют предвзятости: алгоритм, данные и команда - Алгоритм: он определяет, как функционирует модель искусственного интеллекта - Данные: информация, используемая во время обучения, которая может содержать предубеждения - Команда: люди, участвующие в создании модели, которые могут привнести свои собственные предубеждения
Снижение предвзятости в искусственном интеллекте: роль данных Данные, используемые для обучения моделей искусственного интеллекта, могут привести к предвзятости. Например, было обнаружено, что алгоритмы распознавания лиц с большей вероятностью неправильно идентифицируют лица чернокожих или азиатов из-за отсутствия разнообразных обучающих данных. Очистка данных и определение релевантной информации имеет решающее значение, но является сложной задачей, поскольку в ходе этого процесса могут возникнуть предубеждения. Важно протестировать модель на отдельных несмещенных данных, поскольку использование необъективных обучающих и тестовых наборов может привести к неточным результатам.
Проблемы "справедливости" при построении моделей искусственного интеллекта "Ослепить" алгоритмы от дискриминационных факторов, таких как раса или пол, сложно, поскольку определенные особенности могут коррелировать с другими факторами, которые могут внести предвзятость в прогнозы модели. Определение целей для модели искусственного интеллекта поднимает вопросы о решениях, основанных на прибыли, в сравнении с соображениями справедливости, приемлемой частоте ошибок и приоритизации ложноположительных или ложноотрицательных результатов. Кроме того, понимание пробелов в команде, создающей модель (например, отсутствие культурного контекста), создает дополнительные проблемы.
Борьба с предвзятостью: стимулы и ответственность Чтобы уменьшить предвзятость в системах искусственного интеллекта, командам, создающим эти модели, важно уделять приоритетное внимание устранению предвзятости на всех этапах - от сбора и очистки данных до определения целей и устранения потенциальных пробелов в базе знаний своей команды. Признавая предубеждения, существующие как в наборах данных, используемых в учебных целях, так и среди тех, кто сам создает такие системы, мы должны стремиться к созданию стимулов, способствующих более справедливым результатам, а также брать на себя ответственность, активно работая над минимизацией любых врожденных предрассудков, присутствующих на каждом этапе нашего пути к разработке этичных решений для искусственного интеллекта.
Уменьшение предвзятости в искусственном интеллекте Fair ML - это программный инструмент, который оценивает модели искусственного интеллекта на предмет предвзятости и указывает на ошибки в данных. Такие организации, как Arthur AI, сотрудничают с предприятиями для внедрения непредвзятых систем искусственного интеллекта путем мониторинга производительности моделей, снижая риск предвзятого автоматизированного принятия решений. Инклюзивные команды, постоянный мониторинг и культурные соображения важны для создания справедливого искусственного интеллекта.
"Построение справедливости" - Кто будет принимать решение? "Построение справедливости" означает устранение вредных предубеждений из нынешних мировых реалий. Это предполагает исправление предвзятых моделей для точного представления вариантов использования, когда женщины одинаково кредитоспособны, как и мужчины, несмотря на меньший доход. При решении вопросов подотчетности и обеспечения справедливости в отрасли следует учитывать роль компаний, организаций, правительств, нормативных актов, процессов стандартизации.
Технология распознавания лиц Возникает вопрос, следует ли нам совершенствовать технологию распознавания лиц или прекратить ее использование из-за ее потенциальных предубеждений. В то время как распознавание лиц имеет полезные приложения, такие как пометка фотографий на платформах социальных сетей, таких как Facebook, при правильном использовании; необходимо проявлять осторожность в отношении контекстов, связанных с базами данных правоохранительных органов, без надлежащей подготовки или понимания.