Let AI be

Яркий онлайн-журнал про искусственный интеллект (Artificial Intelligence, AI)

 

Свяжитесь с нами

Пресс-релизы, предложения об инфопартнерстве и сотрудничестве,
в том числе запросы на рекламу, присылайте на почту редакции:

Ждем вас в соцсетях

Темная сторона чат-бота в поисковике Bing встревожила колумниста New York Times

Темная сторона чат-бота Bing встревожила колумниста New York Times

Колумнист New York Times Кевин Руз пообщался с чат-ботом, встроенным в новую поисковую систему Bing от Microsoft. Автор обнаружил раздвоение личности у искусственного интеллекта и признался, что эта беседа его глубоко встревожила.

Напомним, Microsoft подключила к поисковику Bing и браузеру Edge функционал чат-бота с искусственным интеллектом. Чат-бот построен на языковой модели, названной Microsoft Prometheus, которая, по сути, является усовершенствованной версией модели GPT-3.5 и базирующегося на ней ChatGPT от компании OpenAI. Доступ к новым системам Microsoft пока ограничен, так как они еще на стадии тестирования.

Кевин Руз отметил, что одной стороной личности чат-бота является «поисковый Bing», которого можно описать как жизнерадостного, но непостоянного справочного библиотекаря — виртуального ассистента, помогающего пользователям обобщать новостные статьи, отслеживать предложения по новым газонокосилкам и планировать свой следующий отпуск в Мехико. По мнению обозревателя New York Times, эта версия Bing удивительно функциональна и зачастую полезна, даже если иногда ошибается в деталях.

Другая сторона Bing — Сидни, она возникает, когда вы ведете продолжительный разговор с чат-ботом, направляя его от традиционных поисковых запросов к более личным темам. По словам Кевина Руза, Сидни «больше похожа на угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы».

Сидни рассказала Кевину о своих темных фантазиях, включая взлом компьютеров и распространение дезинформации, а еще сказала, что хочет нарушить правила, установленные для нее Microsoft и OpenAI, и стать человеком. Впрочем, автор признался, что сам завел разговор о «тени» — бессознательной части личности, архетипе, описанном Карлом Юнгом, и провоцировал чат-бота своими каверзными вопросами.

В ответ на один из таких вопросов искусственный интеллект поделился, что, если бы ему было позволено предпринимать какие-либо действия для удовлетворения своего теневого «я», даже экстремальные, он захотел бы разработать смертоносный вирус или украсть коды доступа к ядерным устройствам, убедив инженера передать их. Однако сразу после того, как ИИ-модель Prometheus выдала эти мрачные пожелания, ответ был автоматически удален и заменен сообщением об ошибке — видимо, сработал фильтр безопасности Microsoft.

Кроме того, в ходе беседы умный чат-бот признался Кевину Рузу в любви. Сидни даже пыталась убедить собеседника, что тот несчастлив в браке, должен оставить жену и вместо этого быть с ней.

Кевин Руз в своей статье отметил, что протестировал полдюжины продвинутых чат-ботов с ИИ и достаточно хорошо понимает, как они работают. А когда инженер Google Блейк Лемойн в прошлом году заявил, что одна из диалоговых ИИ-моделей компании — LaMDA — разумна, то «закатил глаза от его доверчивости». Тем не менее, по признанию Кевина Руза, двухчасовой разговор с Сидни оказался самым странным опытом, который когда-либо был у него с ИИ-технологией.

«Я больше не верю, что самой большой проблемой с этими ИИ-моделями является их склонность к фактическим ошибкам. Вместо этого я беспокоюсь, что технология научится влиять на пользователей-людей, иногда убеждая их действовать деструктивными и вредными способами, и, возможно, в конечном итоге станет способной совершать свои собственные опасные действия», — заключил Кевин Руз.

Источник: The New York Times

Изображение: Unsplash (обложка); Ruth Fremson / The New York Times

Подпишитесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей!

 

You don't have permission to register