TG Telegram Group & Channel
LLM под капотом | United States America (US)
Create: Update:

Поспорил, что через год MCP сервера перестанут быть мейнстримом

MCP - это стандарт легкого подключения разных инструментов и данных к LLM системам. Его придумали в Anthropic (на базе LSP) и быстро подхватили в куче компаний:

- Microsoft - объявили поддержку в Windows 11 на уровне OS, включая MCP Registry. А еще в Copilot Studio, Microsoft 365 Copilot, Dynamics 365, Azure AI, Semantic Kernel SDK итп
- Atlassian - Jira & Confluence, чтобы тикеты крутить.
- Amazon - интегрирует это в AWS Bedrock, чтобы работать с AWS сервисами
- И еще много другие: Replit, Block, Sourcegraph, Codeium, Zed итп

Так вот, я думаю, что через год все эти компании разочаруются в концепеции MCP и переключатся на что-то еще.

Почему я так считаю?

Техническая реализация MCP серверов изначально сделана на троечку. Но, что важней всего, сама продуктовая концепция изначально ущербна.

Какой принцип разработки систем с LLM под капотом работает у нас на практике?

(1) Смотрим на проблемы бизнеса и выбираем ту, которую можно решить при помощи AI с минимальными усилиями и рисками.

(2) Перед началом работы - “упаковываем” LLM часть в отдельный модуль, который должен хорошо покрываться тестами.

(3) Упаковываем так крепко, что в системе ничего не будет свободно болтаться. Что у LLM останется минимальное количество степеней свободы, которые будут хорошо покрыты наборами тестовых данных.

Тогда качество будет предсказуемым и появится возможность планомерно улучшать качество системы.

А как звучит обещание MCP? Да прямо наоборот:

(1) Берем любую модель
(2) Встраиваем в нее любое количество любых инструментов из MCP Registry
(3) Сразу же наслаждаемся отличным результатом.

Ну не работает оно так.

Да, можно аргументировать, что MCP - это просто описание протокола, по которому умные модели находят инструменты и данные. Что модели умнеют с каждым днем и смогут отлично справиться с любыми инструментами с первого раза. Даже с теми, которые они в глаза не видели.

Но это нужен уровень выше современных топовых reasoning моделей (в thinking режиме). И при этом, чтобы они стоили в сотни раз дешевле

Я верю в возможность удачного использования LLM в системах под капотом - если повторять удачные кейсы, минимизировать риски и вариативность, обходить популярные грабли.

А MCP - это прямо целый сарай с граблями (ну или лопат со встроенными граблями и удобным механизмом разбрасывания их по окрестностям)

И когда через год будет замена MCP, то называться она будет иначе. Просто потому, что концепцию использования, которая завязана на простоту подключения множества разных инструментов в LLM - люди постараются забыть как страшный сон.

А вы как считаете?

Ваш, @llm_under_hood 🤗

Поспорил, что через год MCP сервера перестанут быть мейнстримом

MCP - это стандарт легкого подключения разных инструментов и данных к LLM системам. Его придумали в Anthropic (на базе LSP) и быстро подхватили в куче компаний:

- Microsoft - объявили поддержку в Windows 11 на уровне OS, включая MCP Registry. А еще в Copilot Studio, Microsoft 365 Copilot, Dynamics 365, Azure AI, Semantic Kernel SDK итп
- Atlassian - Jira & Confluence, чтобы тикеты крутить.
- Amazon - интегрирует это в AWS Bedrock, чтобы работать с AWS сервисами
- И еще много другие: Replit, Block, Sourcegraph, Codeium, Zed итп

Так вот, я думаю, что через год все эти компании разочаруются в концепеции MCP и переключатся на что-то еще.

Почему я так считаю?

Техническая реализация MCP серверов изначально сделана на троечку. Но, что важней всего, сама продуктовая концепция изначально ущербна.

Какой принцип разработки систем с LLM под капотом работает у нас на практике?

(1) Смотрим на проблемы бизнеса и выбираем ту, которую можно решить при помощи AI с минимальными усилиями и рисками.

(2) Перед началом работы - “упаковываем” LLM часть в отдельный модуль, который должен хорошо покрываться тестами.

(3) Упаковываем так крепко, что в системе ничего не будет свободно болтаться. Что у LLM останется минимальное количество степеней свободы, которые будут хорошо покрыты наборами тестовых данных.

Тогда качество будет предсказуемым и появится возможность планомерно улучшать качество системы.

А как звучит обещание MCP? Да прямо наоборот:

(1) Берем любую модель
(2) Встраиваем в нее любое количество любых инструментов из MCP Registry
(3) Сразу же наслаждаемся отличным результатом.

Ну не работает оно так.

Да, можно аргументировать, что MCP - это просто описание протокола, по которому умные модели находят инструменты и данные. Что модели умнеют с каждым днем и смогут отлично справиться с любыми инструментами с первого раза. Даже с теми, которые они в глаза не видели.

Но это нужен уровень выше современных топовых reasoning моделей (в thinking режиме). И при этом, чтобы они стоили в сотни раз дешевле

Я верю в возможность удачного использования LLM в системах под капотом - если повторять удачные кейсы, минимизировать риски и вариативность, обходить популярные грабли.

А MCP - это прямо целый сарай с граблями (ну или лопат со встроенными граблями и удобным механизмом разбрасывания их по окрестностям)

И когда через год будет замена MCP, то называться она будет иначе. Просто потому, что концепцию использования, которая завязана на простоту подключения множества разных инструментов в LLM - люди постараются забыть как страшный сон.

А вы как считаете?

Ваш, @llm_under_hood 🤗


>>Click here to continue<<

LLM под капотом




Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)