YevgeniyTyanDev
ЭссеБлог
GitHubLinkedIn
email:

Эссе/Блог

© 2026 YTDEV. Все права защищены.

Эффективность бизнеса после внедрения ИИ и возможные риски

Время чтения: 13 мин

Опубликовано: 27.04.2026

Какие бывают риски внедрения ИИ в бизнес, какие последствия и как принять верное решение.

Кажется, одно из самых больших заблуждений сегодня это думать, что если ваша команда работает быстрее и производит больше контента или пишет больше кода, значит ее продуктивность выросла.

Со стороны это так и выглядит. Нейронки генерируют документы, тексты, программный код, идеи для брейншторма в сотни раз быстрее, чем это делают люди. Круто же!

– И качество не падает? Подумал бы собственник.

А вот тут уже вопрос второго уровня… проверка того, что генерирует нейросеть все таки лежит на ответственном за результат сотруднике. Потому что если например сайт после обновления ляжет, то пользовательское доверие подорвется. Бизнес понесет репутационные потери, а спрашивать будут… врядли с нейронки.

То есть мы правда можем генерировать огромное количество контента за короткие сроки. Но действительно ли при таких условиях эффективность сотрудника, да и всего отдела, растет?

Недавно на дне рождения подруга, которая работает кем-то между QA и product, рассказывала про проект который они делают. У них сервис, который регулярно дописывает и переписывает свой код сам.

А теперь попробуйте поставить себя на ее место. 2 раза в день она имеет модифицированный продукт, новые функции в нем и неизвестно, работают они корректно или это была галлюцинация нейронки в отчете. Восторг и боль!

Подруга назвала это более точно: ИИ-истерия. Очень стрессово на таких скоростях проверять десятки новых и исправленных старых функций.

Мир бизнеса в очередной раз ускорился. Что принесли в жертву?

Очевидно, что если происходит резкий скачок в чем либо, то дальше должно быть такой же амплитуды движение в обратную сторону либо компенсация (адаптация участников рынка к новому тренду).

В нашем случае идет компенсация. И качество продуктов сильно проседает. Все, что генерируется нейросетями сегодня — абсолютно не годится для слепого выпуска в бой. Люди которые раньше писали статьи, код, технические задания, рисовали дизайны, графику – они все еще остались. Но их количество сократилось в десятки, если не в сотни, тысяч раз. А большинство заняты проверкой того, что генерирует ИИ. Это и есть узкое горлышко бизнеса.

Среднестатистический сотрудник любой диджитал профессии сегодня использует ИИ для задач которые раньше он делал сам. А он только перечитывает портянки отчетов об изменениях, просит от 2 до 20 раз исправить результат, настраивает агентов, ловит расфокус, когда нейронка исправляет сильно больше, чем требовалось, пропускает дюжину контента, не самого лучшего качества, через свой мозг ежедневно. В общем, делает то, что на практике на самом деле понижает эффективность.

Например, в исследовании METRopen-source разработчики ожидали, что ИИ ускорит их примерно на 24%. А по факту задачи с разрешённым ИИ заняли на 19% больше времени. После эксперимента участники всё равно продолжали считать, что ИИ их ускорил.

Мне это кажется особенно интересным, когда мы меньше печатаем руками и быстрее получаем что-то полуготовое, очень легко решить, что работа в целом ускорилась.

Фактически, скорость и правда увеличилась, только это скорость работы мозга людей, проверяющих контент от ИИ. Конечно, у этого есть побочные эффекты. Дальше интереснее!

AI brain fry: когда ИИ увеличивает ~~эффективность~~ вероятность перегруза

В Harvard Business Review это уже описали как AI brain fry. Авторы из BCG опираются на исследование среди 1 488 работников крупных компаний в США и пишут про перегруз внимания, рост числа ошибок, перегрузку решениями и желание уйти с работы.

В той же статье есть фраза пользователя Gas Town: Too much going on for you to reasonably comprehend.

На русский это можно перевести как: Слишком много, чтобы осмыслить.

Мне кажется, она очень точно попадает в происходящее. Мы привыкли думать, что автоматизация снимает нагрузку. На практике агенты и генеративные инструменты нередко добавляют новый слой контроля:

  • Их надо ограничивать во избежание мусорной информации.
  • Их результат надо интерпретировать, так как не всегда понятно, что имеется ввиду.
  • Их ошибки приходится разбирать уже в боевом продукте, а не в тестовом.

LeadDev хорошо описывает это на примере агентов которые пишут код. Причем, всем людям из статьи всё это нравится. Из-за этого они начинают дольше сидеть за компьютером, в таком же темпе работать в выходные и жить с ощущением, что можно успеть сделать ещё немного. Это замкнутый круг.

Для собственника риск заключается в том, что когнитивная перегрузка редко остаётся личной историей одного сотрудника. Через какое-то время она начинает бить по качеству решений руководителей среднего звена и общей ясности происходящего в команде.

То есть работа с ИИ создает workslop *(от англ. work — работа и slop — помои, отходы) — термин, введенный исследователями из Стэнфорда и BetterUp Labs, обозначающий *.

BetterUp Labs и Stanford Social Media Lab называют так контент или задачи, сгенерированные искусственным интеллектом, которые выглядят профессионально и качественно, но не несут реальной смысловой ценности. В их выборке 150 full-time desk workers около 40% сотрудников сталкивались с этим за последний месяц, а один такой эпизод в среднем съедал около двух часов.

Собственно, в этом и проблема. ИИ действительно убирает часть дешёвого труда. Но он не делает за человека всю работу целиком. Другими словами, он ускоряет и изменяет процесс произдодства на предприятиях. Так какие же риски в ускорении и изменных процессах?

Серьезно, что именно вы ускоряете вместе с этим инструментом? Давайте возьмем среднестатистическую компанию в которой процессы выстроены, сильно зависящие от человеческого фактора. В этом случае ИИ может очень быстро:

  • увеличить объём спорных изменений;
  • добавить скрытую нагрузку на CTO, техлидов, продактов и QA;
  • понизить качество кода/контента и увеличить количество рабочих часов сотрудников.

В официальном анонсе отчёта DORA 2025 Google Cloud прямо пишет:

AI adoption continues to have a negative relationship with software delivery stability.

пер.: Внедрение ИИ по-прежнему отрицательно сказывается на стабильности выпуска программного обеспечения.

А на странице DevOps у них есть точная формулировка:

AI is an amplifier, not a fix.

пер.: ИИ — это усилитель, а не решение проблем.

Мне она нравится. В хорошо продуманном и малозависящем от челоческого фактора, процессе ИИ может реально дать выигрыш. А в слабом процессе он способен ускорить не только выпуск обновлений, но и ошибки, организационный шум и повысить цену чужого внимания.

Давайте, например, посмотрим на публичные инциденты корпораций. Они показывают, в какой реальности вообще живут современные технологические компании, даже очень сильные команды постоянно работают на фоне деградаций, сбоев, регрессий и уязвимостей.

У GitHub Status только в апреле 2026 можно увидеть и регрессию в Pull Requests, из-за которой очередь обновлений могла неправильно выпускать обновления, и отдельный инцидент с Pages, где статус-страница пишет о примерно 17.5 миллионах неудачных запросах, и сбой Codespaces, где около 40% ошибок на старте сборки проекта.

У OpenAI Status в апреле 2026 можно найти:

  • Codex unresponsive
  • Elevated conversation errors
  • Login issues
  • File upload failures
  • и отдельные проблемы по разным продуктам.

У Vercel есть и официальная status history, и апрельский security bulletin 2026, где они прямо пишут про ошибки авторизации к внутренним системам. На статус-странице в те же дни отдельно зафиксированы критические ошибки на дашборде и API эндпоинтах, из-за которых у части пользователей были проблемы со сборкой новых версий своих приложений.

Думаю, современные системы и без того хрупкие и дорогие в поддержке. Поэтому безоглядно увеличивать поток изменений — идея сомнительная даже без ИИ. Я бы подходил к внедрению ИИ именно со стороны изменения темпа работы команд:

  • Ограничивать количество параллельных AI-потоков, особенно если у команды уже не хватает времени на нормальное ревью.
  • Проверять, сколько времени команда реально может тратить на проверку результата от ИИ без того, чтобы сыпались остальные задачи.
  • Смотреть на дефекты, инциденты, нагрузку на ревью и качество решений.
  • Требовать тестов и проверки безопасности для AI-generated изменений.
  • Назначать ответственного за результат, а не за промпт.
  • Регулярно спрашивать команду, где ИИ действительно ускоряет работу, а где просто создаёт шум.
  • Не навешивать ИИ как ещё один слой задач поверх старого процесса, а изменять сам процесс.

Итоги

Мне не близка паника вокруг ИИ. Но мне и не очень понятна радость по поводу любого роста генерации только потому, что он выглядит как прогресс. Рост эффективности в данном контексте чаще всего это все-таки иллюзия. Я сам настраиваю агентские системы для своих задач и фактические уходит очень много времени на то, чтобы добиться нужного результата.

Для собственника главный вопрос сейчас в том, может ли компания справиться с управлением командами на повышенной скорости, без потери контроля. Как мне кажется, самый ценный навык ближайших лет вполне могли бы быть саморегуляция и осозанное управление вниманием. Это позволило бы каждому человеку, регулярно работающему с цифровыми технологиями, поддерживать и улучшать своё ментальное, эмоциональное и физическое здоровье.

ВВЕРХ

Если вам понравился материал, буду благодарен за шер