ИИ предвзят при принятии решений, показывают исследования
Исследователи из Корнеллского бизнес-колледжа (Cornell SC Johnson College of Business, США) выявили предвзятости искусственного интеллекта в принятии решений. Профессор Стивен Шу и его коллеги обнаружили, что чат-боты с ИИ, несмотря на вычислительные возможности, демонстрируют модели принятия решений, которые не являются ни чисто человеческими, ни полностью рациональными.
Ученые выяснили, что чат-боты с ИИ подвержены когнитивным предубеждениям, таким как ошибка конъюнкции (придание большей правдоподобности совместным событиям, а не отдельным), эффекту сверхуверенности (чрезмерной убежденности в собственных суждениях, не подкрепленной объективными данными) и предвзятости подтверждения (поиску свидетельств в пользу существующего предположения и игнорированию тех, что могут его опровергнуть).
Помимо такого «взгляда изнутри», чат-боты также демонстрируют «внешний взгляд», дополняя человеческие решения в некоторых аспектах. Они лучше учитывают базовые показатели и менее подвержены предвзятостям, связанным с ограниченной памятью и эффектом обладания (при котором люди ценят больше те вещи, которые им уже принадлежат).
Кроме того, в ситуациях, когда люди склонны рисковать для минимизации убытков, чат-боты с ИИ предпочитают выбрать определенность, то есть принять потери вместо того, чтобы идти на риск.
Исследование охватило различные модели, включая ChatGPT, Google Bard, Bing Chat AI, ChatGLM Pro и Ernie Bot. Оценка процесса принятия решений проводилась на основе 17 принципов поведенческой экономики.
Текст: Алексей Алтынбаев
Источник: TechXplore
Изображение: Pixabay
Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!