Лучший опыт

Наш отчет State of AI Survey Report пок ... Что такое предвзятость ИИ? [+ Данные]

Что такое предвзятость ИИ? [+ Данные]...

Наш отчет State of AI Survey Report показал, что одной из главных проблем, с которыми сталкиваются маркетологи при использовании генеративного ИИ, является его способность быть необъективным. А маркетологи, специалисты по продажам и работники службы поддержки клиентов сообщают, что не решаются использовать инструменты ИИ, потому что иногда они могут давать необъективную информацию». Понятно, что профессионалы бизнеса обеспокоены необъективностью ИИ, но что делает его необъективным в первую очередь? В этой статье мы обсудим потенциальный вред от использования ИИ, примеры необъективности ИИ в реальной жизни и то, как общество может уменьшить потенциальный вред.

Что такое предвзятость ИИ?

Предвзятость ИИ — это идея о том, что алгоритмы машинного обучения могут быть предвзятыми при выполнении своих запрограммированных задач, таких как анализ данных или создание контента). Как правило, ИИ предвзят таким образом, что поддерживает вредные убеждения, например, расовые и гендерные стереотипы.  Согласно отчету Artificial Intelligence Index Report 2023, ИИ необъективен, когда он выдает результаты, которые усиливают и увековечивают стереотипы, вредящие определенным группам. ИИ справедлив, когда он делает прогнозы или выдает результаты, которые не дискриминируют и не благоприятствуют какой-либо конкретной группе. Помимо предрассудков и стереотипных убеждений, ИИ может быть предвзятым из-за:

  • Выборка, когда данные, которые он использует, не являются репрезентативными для всего населения, поэтому его прогнозы и рекомендации не могут быть обобщены или применены к группам, оставшимся без внимания
  • Измерения, когда процесс сбора данных является предвзятым, что приводит к тому, что ИИ делает предвзятые выводы.

Как предвзятость ИИ отражает предвзятость общества?

ИИ необъективен, потому что общество необъективно.  Поскольку общество предвзято, большая часть данных, на которых обучается ИИ, содержит предубеждения и предрассудки общества, поэтому он усваивает эти предубеждения и выдает результаты, которые их поддерживают. Например, генератор изображений, которого попросили создать образ генерального директора, может выдать изображение белого мужчины из-за исторического перекоса в сторону безработицы в данных, на которых он обучался.  Поскольку ИИ становится все более распространенным, многие опасаются, что он может усугубить уже существующие в обществе предубеждения, которые наносят вред многим группам людей. 

Примеры предвзятости искусственного интеллекта

Репозиторий противоречий инцидентов ИИ, алгоритмов и автоматизации (AIAAIC) говорит, что количество новых сообщений об инцидентах и противоречиях, связанных с ИИ, в 2021 году было в 26 раз больше, чем в 2012 году.

Давайте рассмотрим несколько примеров предвзятости ИИ. Уровень одобрения ипотечных кредитов — отличный пример предвзятости ИИ. Было установлено, что алгоритмы на 40-80% чаще отказывают цветным заемщикам, поскольку исторические данные о кредитовании показывают, что меньшинствам непропорционально часто отказывают в кредитах и других финансовых возможностях. Исторические данные учат ИИ быть предвзятым с каждым будущим заявлением, которое он получает. В медицине также существует вероятность предвзятого отношения к размеру выборки.

Допустим, врач использует ИИ для анализа данных пациента, выявления закономерностей и составления рекомендаций по уходу. Если этот врач в основном наблюдает пациентов из белой расы, рекомендации не будут основаны на репрезентативной выборке населения и могут не соответствовать уникальным медицинским потребностям каждого. Некоторые компании используют алгоритмы, которые приводят к необъективному принятию решений в реальной жизни или делают возможность этого более заметной. 

Алгоритм подбора персонала Amazon

Компания Amazon создала алгоритм подбора персонала, обученный на данных десятилетней истории занятости. Эти данные отражали преобладание мужчин в штате, поэтому алгоритм научился предвзято относиться к заявкам и наказывал резюме женщин или любые резюме, в которых использовалось слово «женщины».

Обрезка изображений в Twitter

Вирусный твит в 2020 году показал, что при обрезке фотографий алгоритм Twitter отдает предпочтение белым лицам перед черными. Белый пользователь неоднократно делился фотографиями, на которых его лицо, лицо чернокожего коллеги и другие черные лица были на одном и том же изображении, и оно постоянно обрезалось, чтобы показать его лицо в предварительных просмотрах изображений.

Twitter признал предвзятость алгоритма и заявил: «Хотя наши анализы на сегодняшний день не выявили расовой или гендерной предвзятости, мы признаем, что способ автоматического обрезания фотографий означает возможность причинения вреда. Мы должны были лучше предвидеть такую возможность, когда только разрабатывали и создавали этот продукт».

Расистское распознавание роботом лиц

Ученые недавно провели исследование, в котором попросили роботов просканировать лица людей и распределить их по разным категориям, основываясь на их характеристиках: врачи, преступники и домохозяйки.  Робот был необъективен в своем процессе и чаще всего определял женщин как домохозяек, чернокожих мужчин как преступников, латиноамериканцев как уборщиков, а женщины всех национальностей реже попадали в категорию врачей.

Программа мониторинга Intel и Classroom Technology

Программное обеспечение Intel и Classroom Technology «Класс» имеет функцию мониторинга лиц учащихся для выявления эмоций во время обучения. Многие отмечают, что различные культурные нормы выражения эмоций являются причиной высокой вероятности того, что эмоции учеников будут неправильно обозначены.  Если преподаватели используют эти метки в разговоре с учениками об их уровне старания и понимания, ученики могут быть наказаны за эмоции, которые они на самом деле не проявляют. 

Что можно сделать, чтобы исправить предвзятость ИИ?

Этика ИИ является актуальной темой. Это вполне объяснимо, поскольку предвзятость ИИ была продемонстрирована в реальной жизни множеством различных способов.  Помимо предвзятости, ИИ может распространять вредную дезинформацию, например, фейки, а инструменты генеративного ИИ могут даже выдавать фактически неверную информацию.  Что можно сделать, чтобы лучше понять ИИ и уменьшить потенциальную предвзятость?

  • Человеческий надзор: Люди могут контролировать результаты, анализировать данные и вносить коррективы, когда проявляется предвзятость. Например, маркетологи могут обратить особое внимание на результаты генеративного ИИ, прежде чем использовать их в маркетинговых материалах, чтобы убедиться в их справедливости.
  • Оценить потенциал предвзятости: некоторые варианты использования ИИ имеют более высокий потенциал предвзятости и вреда для конкретных сообществ. В этом случае люди могут потратить время на оценку вероятности того, что их ИИ даст предвзятые результаты, например, банковские учреждения используют исторически предвзятые данные.
  • Инвестирование в этику ИИ: Одним из наиболее важных способов снижения предвзятости ИИ является постоянное инвестирование в исследования ИИ и этику ИИ, чтобы люди могли разрабатывать конкретные стратегии по ее снижению.
  • Диверсификация ИИ: Наличие различных точек зрения в ИИ помогает создать беспристрастную практику, поскольку люди привносят свой собственный жизненный опыт. Разнообразное и представительное поле дает людям больше возможностей распознать потенциальную предвзятость и справиться с ней до того, как будет нанесен вред.
  • Признайте человеческую предвзятость: Все люди могут быть предвзятыми, будь то разница в жизненном опыте или предвзятость подтверждения в ходе исследования. Люди, использующие ИИ, могут признать свои предубеждения, чтобы гарантировать, что их ИИ не будет предвзятым, подобно тому, как исследователи следят за тем, чтобы их выборки были репрезентативными.
  • Быть прозрачным: Прозрачность всегда важна, особенно при использовании новых технологий. Люди могут установить доверие и взаимопонимание с ИИ, просто дав понять, когда они используют ИИ, например, добавив примечание под новостной статьей, сгенерированной ИИ.

Заключение

ИИ и интерес к нему только растут, поэтому лучший способ не упустить потенциальный вред — это оставаться в курсе того, как он может увековечить вредные предубеждения, и принимать меры для того, чтобы использование ИИ не подливало масла в огонь.