На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Аргументы недели

99 100 подписчиков

Свежие комментарии

  • Олег
    Носорог не по нал в чем дело о чем реч, у него весь мозг в его нос утек , ему жили высосали, теперь он просто носорог!!!Иран выдвигает Аз...
  • Геннадий Бережнов
    Эта рыжая бестия давит всех неугодных морально. Каждый день повторяет как мантру - берегитесь я иду. Однако в Иране т...Трамп заявил, что...
  • Геннадий Бережнов
    Вучич это Янукович и заявляя как бы предупреждает, вы же знаете что я и вас не брошу!Вучич: Сербия про...

«Мы хотим свой ChatGPT!» — главный вопрос не «Как сделать?», а «А действительно ли он нужен?»

Искусственный интеллект сегодня — это новая нефть. Или новая «золотая лихорадка». Компании бросают миллиарды на внедрение AI, скупают GPU, нанимают целые команды data scientists и пытаются построить «свой ChatGPT». В гонке за инновациями часто теряется простая мысль: нейросети — это инструмент, а не панацея.

И использовать отбойный молоток, чтобы вбить гвоздь, — сомнительная стратегия, особенно когда речь идет о бюджете.

Наш сегодняшний гость — Михаил Давидович, backend-разработчик с уникальной экспертизой в оптимизации высоконагруженных систем. Он работал в финансах, e-commerce, создавал системы для миллионов пользователей и, что самое ценное, умеет радикально — в десятки и сотни раз — снижать затраты на AI-инфраструктуру.

В этом интервью мы поговорим о том, почему попытка объять необъятное разоряет компании, как один простой вопрос сэкономил десятки тысяч токенов и почему самый успешный AI-проект — это тот, который иногда вообще не использует AI.

«Не надо строить ракету, чтобы доехать до магазина»

— Михаил, сегодня сложился культ вокруг искусственного интеллекта. Кажется, что если бизнес не внедряет AI, он отстает от поезда. Вы с этим согласны?

— Тренд понятен, но опасен именно своей массовостью. Сейчас многие компании впадают в иллюзию: «AI — это магия, он решит все наши проблемы». И начинают строить огромные инфраструктуры, закупать суперкомпьютеры, тратить миллионы. Но правда в том, что в большинстве случаев AI стоит дорого не потому, что он «слишком умный», а потому что его используют неправильно.

Большинство компаний начинают с фразы: «Давайте сделаем свой ChatGPT!» Это всё равно что сказать: «Давайте построим свой Google!». Но на практике им не нужен искусственный интеллект. Им нужны простые вещи: классифицировать документы, найти информацию в базе, автоматизировать ответы на типовые запросы. Это задачи уровня Excel-формул или простых алгоритмов — но они пытаются решать их с помощью самой дорогой технологии на рынке.

Я всегда привожу аналогию: это как строить ракету, чтобы доехать до соседнего магазина. Да, ракета крутая, современная, но вам-то нужен просто велосипед или максимум автомобиль. Переоценка задачи — главная ошибка эпохи AI-хайпа.

— А есть яркие примеры таких «космических» провалов? Когда строили ракету, а надо было просто пройти пешком?

— Классический случай — IBM Watson Health. IBM потратила миллиарды долларов на систему, которая должна была помогать врачам ставить диагнозы. На презентациях это выглядело фантастически. Но на практике система не давала стабильных результатов. Её невозможно было нормально встроить в реальную работу клиники. Врачи не доверяли «чёрному ящику», который ошибался в сложных случаях. В итоге проект продали с колоссальными убытками.
Почему это произошло? Не потому, что AI «глупый», а потому что его переоценили. Решили, что он справится с задачей, которая требует не только данных, но и контекста, опыта, интуиции врача и, простите за пафос, эмпатии. Технология не была встроена в процесс, она пыталась заменить процесс целиком. Это обречено.

— Но есть и обратная сторона — компании, которые вроде бы всё делают правильно, но всё равно терпят крах. Например, Zillow с их алгоритмической покупкой недвижимости. Там же чистая математика, казалось бы...

— Zillow — это потрясающий урок для всех, кто слепо верит в алгоритмы. Они создали модель, которая предсказывала цены на дома, и начали массово скупать недвижимость, чтобы потом перепродать. Модель работала на исторических данных. Но рынок изменился. И случилось то, что должно было случиться: алгоритм, не имеющий встроенных ограничителей и контроля рисков, начал генерировать убытки. Сотни миллионов долларов потерь.

Проблема была не в математике. Проблема — в отсутствии здорового скептицизма. Алгоритм не спрашивал: «А не схлопнется ли пузырь?». У него не было стоп-крана. Если вы даёте AI управлять реальными деньгами, вы обязаны вшить в него систему контроля рисков. Но об этом часто забывают в погоне за сверхприбылью.

— Давайте спустимся с небес на землю. Допустим, у меня средний бизнес, и я хочу внедрить AI для обработки документов или классификации. Как не разориться? Вы в своём материале упомянули про экономию в 50–100 раз. Это реально?

— Более чем реально. Я сам недавно делал такую систему. Поставьте себя на место бизнеса: у вас тысячи входящих документов, вам нужно понять, счёт это или договор, и раскидать по папкам.

Первый порыв любого современного разработчика — взять LLM (большую языковую модель), скормить ей весь текст документа и попросить выдать категорию. Это сработает? Да. Дорого? Это дико дорого. Тысячи токенов на документ, тысячи вызовов модели. Бюджет улетает в космос.

Тогда я задал себе вопрос: «А действительно ли мне здесь нужен LLM для каждого документа?»

— И что, не нужен?

— Не в 100 % случаев. Я пошёл другим путём. Я преобразовал документы в векторное представление (числовой ряд) и сравнил их с эталонными примерами через косинусовое сходство. Это классическая, дешёвая и быстрая математика.
И только если результат сравнения был неуверенным (скажем, документ похож и на счёт, и на договор), я подключал тяжёлую артиллерию — LLM. В итоге большая языковая модель стала вызываться не в 100 % случаев, а всего в 10–20 %. Расход токенов сократился кратно, а значит, и стоимость упала в разы. А качество осталось прежним.

— То есть вы использовали принцип «стратификации»: дешёвый инструмент для простых задач, дорогой — для сложных пограничных случаев?

— Именно. Это банальный инженерный подход, но о нём забывают, когда видят перед собой модную игрушку. Нельзя бить из пушки по воробьям. Нужно проектировать архитектуру так, чтобы самый дорогой ресурс использовался только тогда, когда без него действительно нельзя.

Например, Waymo потратила более $10 млрд на беспилотник, который должен работать в любых условиях. А компания Nuro делает робокары только для доставки товаров по фиксированным маршрутам. У них проще сенсоры, меньше сценариев, ниже требования к безопасности. И система на порядок дешевле и проще.

Не нужно решать все задачи сразу. Иногда достаточно ограниченного, но надёжного решения.

— А как быть с теми, кто хочет полного контроля? Говорят: «Давайте поднимем свой кластер, купим H100 (видеокарта, прим. ред.), ни от кого не будем зависеть». Это разумно?

— Один H100 стоит десятки тысяч долларов. Кластер — миллионы. Плюс вам нужны DevOps-инженеры, администрирование, охлаждение, электроэнергия. И простой этих мощностей, когда нагрузка падает.

Альтернатива — использовать API (например, OpenAI или отечественные аналоги) и платить только за потреблённые токены. Для большинства компаний с нестабильной или растущей нагрузкой это даёт экономию в 10 раз и более просто потому, что вы не платите за простаивающее железо. CAPEX (капитальные затраты) переходят в OPEX (операционные), что в кризис намного безопаснее.

— Но есть же задачи, где своя инфраструктура нужна? Например, финансы, где вы работали. Там данные секретные, в облако не отправишь.

— Абсолютно верно. Тут вопрос безопасности и регуляторики перевешивает экономию. Но даже в этом случае внутри периметра можно строить умную архитектуру. Можно использовать open-source модели, которые легче и дешевле, чем гиганты вроде GPT-4. Можно делать fine-tuning (дообучение) маленьких моделей под узкую задачу.

Обучение нейросети с нуля на своих данных — это роскошь, которую могут позволить себе только гиганты. Fine-tuning предобученной модели (например, той же ResNet или BERT) даёт разницу в затратах в 10–50 раз по вычислительным мощностям, а по общим затратам (с учётом сбора данных и времени команды) — до 100 раз. Индустрия давно перешла на transfer learning*, но стартапы почему-то до сих пор наступают на эти грабли.

*Transfer Learning (трансферное обучение) — термин в машинном обучении, который означает метод, при котором модель, обучённая для одной задачи, переиспользуется для решения другой, связанной задачи.

— Какой ваш главный совет бизнесу, который сегодня смотрит в сторону AI?

— Не спрашивайте «Как нам внедрить AI?». Спросите: «Какую конкретную проблему мы решаем?». А потом честно ответьте: нужен ли для этого AI или хватит обычной математики и пары строк кода?

Самые успешные AI-проекты — не те, у кого самая большая и дорогая модель. А те, кто задаёт правильные вопросы и умеет считать деньги. И помните историю IBM Watson: иногда лучше сделать маленький, но работающий инструмент, чем вложить миллиарды в красивую презентацию, которая разбивается о реальность.

Читайте больше новостей в нашем Дзен и Telegram

 

Ссылка на первоисточник
наверх