AI-Разочарование: что нас ждет после пика хайпа?

OKPixels : ИТ-Аутсорсинг
OKPixels : ИТ-Аутсорсинг

Сейчас Искусственный Интеллект (AI, Artificial Intelligence), а если быть точнее LLM (Large Language Models) находятся на пике популярности (хайпа). Согласно «Hype Cycle» от Gartner, далее будет разочарования и затем этап эффективного внедрения. В чем же заключается разочарование?

  • AI (в его текущем виде) не заменит людей

LLM модели способны снять рутинные задачи с линейного персонала, особенно в вопросах аналитики и обработки данных, написания базовых текстов, получения общей справочной информации, поиска основных сущностей в документах, написания частей программного кода. Это безусловно снизит количество людей, требуемое для выполнения той или иной функции. Вместо 20 аналитиков останется 2, вместо 6 программистов 3. При этом требования к оставшимся повысятся - для эффективной работы LLM важно поддерживать ее в корректной конфигурации, давать эффективные запросы (задачи) и (самое главное) верифицировать результат.

  • Появятся новые рабочие места (взамен сокращенных)

Prompt-инженеры разных уровней, специалисты поддержки, инженеры по интеграции, методологи - все эти люди нужны для поддержания эффективной работы AI-Инфраструктуры. Также отмечу, что не все данные можно отправить в “LLM” общего доступа - некоторым организациям нужно будет поднимать свой кластер (локально или в облаке), а это новые затраты (на железо и электричество) и рабочие места (как минимум DevOps Engineers).

  • Осознаются ограничения применения

Какая-то текстовая генерация лучше, какая-то хуже. Многое зависит от качества обучающих данных и их наличия. Если я хочу получить общую справку по маркетингу - я ее получу. Если я хочу действительно глубокие и проверенные знания (а не “среднее по больнице, хоть и качественное”) - лучше сходить к эксперту. Аналогично с корпоративными процессами: если я хочу получить общие предложения по улучшению - я получу достаточно адекватный ответ от LLM, если мне нужны экспертные, точечные и реальные “боли” - лучше собрать рабочую группу (и дать ей в помощь AI инструменты).

Важно помнить, что ИИ “не умеет думать” в буквальном смысле, а «галлюцинации» встречаются довольно часто. Задача должна быть поставлена максимально качественно (проработано и в соответствии с лучшими практиками написания PROMPT), отправлена в верную LLM модель (лучшую из существующих или развернутую на своем кластере) и сама модель в ряде случаев должна быть дообучена (на специфичных для задачи данных) - не всюду эти трудозатраты будут оправданы. Иногда будет достаточно классической СППР (Система поддержки принятия решений), математической модели, чат-бота или дешевой рабочей силы.

Ключевое отличие AI-Модели от классического математического моделирования заключается в том, что результат работы AI-Модели поддается статистической проверке, но не имеет строгого доказательства (как в математических моделях). В случае классической математической модели мы знаем почему и как конкретно мы получаем результат, можем доказать достоверность и провести полный логический анализ модели. В случае с AI - нет.

AI может “подсказать” потенциально верный результат, к которому уже можно будет прийти через математические выкладки (имея “подсказку” это сделать гораздо проще). Также в случае с неоднородными данными, системами со сложными точками бифуркации и детерминированным хаосом - использование AI ограничено.

OKPixels : ИТ-Аутсорсинг
OKPixels : ИТ-Аутсорсинг

Сегодня многие люди начинают верить LLM даже больше, чем живым экспертам. Делегируя все задачи машине, они еще меньше задумываются самостоятельно. С одной стороны, это поднимает «средний уровень» решений, но с другой - может снизить «верхний экстремум» специалитета и гениальности.

Большие языковые модели не способны создавать принципиально новые смыслы; они лишь оперируют уже имеющимися данными и идеями. Придумывать по-настоящему новое - удел человека.

4
1
10 комментариев