
ИИ в офисе: кто первым окажется под угрозой

Никита Кочерженко, генеральный директор ООО «Адвилабс-Рус» — разработчика операционной системы Uncom OS
Когда речь заходит о замене людей искусственным интеллектом, большинство представляет себе армию уволенных курьеров, операторов кол-центров и начинающих специалистов. Реальность оказывается гораздо более парадоксальной: чем выше ваша зарплата, тем выше риск. И вот почему.
Кривая замещения: опасные края
За годы работы с ИИ мы в Uncom OS пришли к неожиданному выводу: наиболее уязвимыми оказываются две противоположные группы сотрудников. С одной стороны — джуны, выполняющие рутинные задачи. С другой — высокооплачиваемые руководители, которые годами карабкались по карьерной лестнице.
Парадокс в том, что чем выше у сотрудника грейд, тем меньше у него реальной экспертизы и тем больше он полагается на интуицию, а не на глубокие знания. Современный менеджмент пробивается наверх за счет амбициозности и умения принимать решения, а не за счет технической экспертизы. Такие специалисты работают красивыми фразами для отчетности перед вышестоящим начальством и акционерами. И вот здесь ChatGPT или Claude справляются не хуже, а часто даже лучше.
Речь идет о руководителях среднего и высшего звена, чья карьера строилась на управленческих компетенциях, а не на углублении в технологию. Обычно около половины рабочего времени таких управленцев занимают согласования, подготовка отчетности и презентаций для стейкхолдеров. Это именно та деятельность, где сегодня ChatGPT (особенно с плагинами для анализа данных) или Claude показывают результаты сопоставимые, а по скорости — в десятки раз выше. Раньше умение «красиво упаковать» идею или оперативно сгенерировать план действий было маркером профессионализма. Теперь же, когда ИИ способен за секунды составить структуру стратегии, сделать презентацию на основе отчета или написать текст выступления, от руководителя требуются либо глубокая экспертиза, чтобы этот результат проверить и доработать, либо уникальные полномочия для принятия финальных решений.
Не сложно заметить тренд: если менеджер высокого уровня последние 5–7 лет фокусировался исключительно на софт-скилах и политике, а не на развитии предметных знаний в своей отрасли, сейчас он попадает в зону риска. ИИ обесценивает его главный карьерный актив.
С другой стороны баррикад находятся джуны. Простые задачи младших специалистов тоже уже решаются искусственным интеллектом. Возьмем типичную задачу джуна-программиста: перевести макет дизайнера в код, пиксель в пиксель перетащить интерфейс. Раньше на это уходили часы или даже дни. Сейчас ИИ выдает годный результат за 30-70 секунд. Не получилось с первого раза? Ничего страшного, переитерируемся еще 20 раз — это все равно быстрее, чем джун сделает один раз.
А кто в большей безопасности? Те, кто находится посередине — специалисты с глубокой экспертизой, которая пока превосходит возможности искусственного интеллекта.
Гуманитарий vs технарь: ложная дихотомия
Есть распространенное заблуждение, что ИИ в первую очередь заменит гуманитариев, а технари останутся востребованными. На практике все сложнее.
ИИ сейчас одновременно и отличный гуманитарий, и прекрасный технарь. Огромное количество технических задач, которые раньше мы давали джунам, сейчас нет смысла поручать людям. ИИ ошибается, да, но джуниор тоже часто ошибается, причем намного медленнее исправляет ошибки.
Вопрос не в том, гуманитарий вы или технарь. Вопрос в глубине экспертизы. Гуманитарий как синоним малообразованного человека, который пошел заниматься чем попало, потому что математика сложная, — да, такой специалист под угрозой. Но гуманитарий в смысле эксперта в гуманитарной области знаний с серьезно проработанным опытом — нет. Везде, где есть настоящая экспертиза, человек все еще сильнее. У него есть человеческий опыт, на который ИИ опереться не может.
Где ИИ пробуксовывает: юриспруденция и причинно-следственные связи
Юриспруденция — показательный пример. Заявления, обращения в суд, типовые документы ИИ сейчас готовит очень хорошо. Но когда речь касается юридического вопроса, по которому нормативная база меняется каждые полгода и необходимо учитывать все эти изменения вместе, здесь ИИ сильно лажает. Он даст заключение, анализ, но на основе устаревших данных. Мир изменился, а он дал консультацию на прошлый год.
Вся юриспруденция держится на знании особенностей законодательства и умении ими жонглировать в реальном времени. Юридический ответ ценен сегодня, а завтра он уже обесценен.
Исключение — прецедентное право, как в США. Если специализированному ИИ-агенту постоянно скармливать текущую базу дел, он будет опережать юриста, который не в состоянии запомнить последние события и опираться на них. Здесь ИИ побеждает стопроцентно.
Кроме того, ИИ не может устанавливать сложные причинно-следственные связи, пересекая разные области знаний. Пока что он скорее композитор, чем математик. Все, что искусственный интеллект делает, — эстетически красиво, будь то текст, музыка или картинка. Но чтобы выстроить логические цепочки, требуется подключение большого количества разных нейросетей. Вот в чем ИИ пока слаб.
Но это временная история. Вопрос — на какой срок у нас есть это преимущество? Думаю, ближайшие лет десять человек с глубокой многомерной моделью знаний и опыта будет чувствовать себя относительно спокойно.
Наш опыт: где Uncom OS уже использует ИИ
Мы не просто теоретизируем — мы активно используем искусственный интеллект в разных аспектах работы:
⦿ Бюрократия. ИИ помогает создавать подробные описания для государственных учреждений, которые любят читать много букв. Мы даем краткую спецификацию, а ИИ переделывает ее в развернутый ответ на письмо.
⦿ Учебные материалы. Когда готовили курс для Uncom, мы задали структуру и специфику, а ИИ сгенерировал материалы с учетом того, что у нас Linux и есть пересечения с другими дистрибутивами. Получили контент без нарушения авторских прав. Тестовые задания на 20 вопросов с вариантами ответов — за 30 секунд вместо нескольких часов работы.
⦿ Программирование и дизайн. Мы значительно сократили итерации по созданию интерфейсов, верстке, наполнению программным кодом. Один человек может делать то, на что раньше требовалась команда. У нас есть промпт для дизайна интерфейсов с учетом гайдлайнов для Linux — люди копипастят его и получают годный дизайн сразу, без привлечения дизайнера.
⦿ Оптимизация штата. По сути, мы избавились от целого штата низкооплачиваемых специалистов или джунов, которые выполняли бы большое количество итераций. У нас есть несколько стажеров, которых мы учим и развиваем в крутых специалистов. А соковыжималку делаем с искусственным интеллектом, а не с людьми.
⦿ Анализ документов. Юридические договоры, лицензионные соглашения на 30+ страниц — к 30-й странице человек уже не осознает пределы разумного, все начинает замыливаться. ИИ анализирует документ и обнаруживает риски, которые можно было пропустить. Да, 50% будет лажи, но остальные 50% — ценные находки.
⦿ Техническая поддержка на всех языках. У нас пользователи не только из России. Нам пишут на турецком, французском, вьетнамском, бирманском. Содержать инженеров поддержки, говорящих на всех этих языках, невозможно. С помощью ИИ инженер, знающий только русский и английский, в режиме реального времени помогает пользователям на любом языке.
Главный секрет работы с ИИ
Самое важное правило: не затачиваться на одну модель. Главный рецепт — постоянный поиск. Сегодня для одной задачи лучше эта модель, завтра — другая. Мы используем практически все мировые модели: отечественные от «Сбера» и «Яндекса», ChatGPT, Claude, Gemini, Midjourney, Runway — и дальше по списку. Тот, кто выбрал себе фаворита и пользуется только им, сильно отстает.
Плюс вопрос личного восприятия информации. Например, Claude выдает информацию в виде поинтов и табличек с минимумом неструктурированного текста. Google Gemini любит делать текстовые страницы. Кому-то удобнее один формат, кому-то другой.
Одним из важных аспектов остается гигиена данных. Как обеспечить безопасное использование ИИ? Чтобы через год вы не обнаружили, что ChatGPT проанализировал ваши конфиденциальные данные и теперь любой может их получить, просто спросив?
Есть реальные примеры: планы строительства и системы безопасности атомных реакторов Южной Кореи, схемы расположения американских военных баз — все это ChatGPT в какой-то момент честно выдавал всем желающим, потому что конструкторские бюро активно применяли его для ускорения работы.
Бог или тиран?
Искусственный интеллект — это не бог и не тиран. Пока это инструмент в руках и хороших, и плохих, и красных, и белых. Если вы за красных, он за красных. Если за белых — он за белых. Как с ножом: его можно использовать на кухне или как оружие. Вопрос не в ноже, а в субъекте, который его держит.
Это технология, которая способна дать человечеству шанс на выживание. И при этом она несет в себе огромный риск.
Однозначно ответить, зло это или благо, можно будет только через 200-300 лет. Даже расщепление атома мы до сих пор не можем однозначно оценить — атомная бомба или атомный реактор?
Что точно не поможет — зарегулировать и закрутить эту технологию. Ограничения для ИИ должны быть полем для общественной дискуссии и выработки этических правил. Результатом не законодательного давления, а осознанного выбора.
На текущий момент это хороший инструмент, который реально помогает работать. Пока он своими прямыми действиями не наносит вреда человечеству. Когда начнет наносить — возможно, мы заметим. А возможно, и не успеем.
Изображения: создано с помощью ИИ / Qwen (в шапке); из личного архива автора
Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!