Блог

Как MCP делает LLM умнее: память, файлы, интернет и SQL

Я долго проходил мимо MCP протокола — название звучало слишком технично и отпугивало. "Model Context Protocol"... звучит как что-то сложное для энтерпрайза. Но когда я наконец разобрался, что это такое и как работает, понял одно: это решает проблему, о которой я даже не задумывался.

Проблема, которую мы не замечаем

Любая LLM модель — будь то ChatGPT, Claude, или локальная Gemma3 — живёт в замкнутом мире. Да, они умеют генерировать текст, писать код, отвечать на вопросы. Но их возможности ограничены данными, на которых они обучены. Большинство моделей "застряли" в 2024 году и не знают ничего новее.
В 2024-м у моделей появилась возможность выходить в интернет. Perplexity, поиск в ChatGPT, расширения в Claude — всё это позволило получать более актуальную информацию. Но это всё равно ограничивало их в рамках генерации текста.
Они не могли:
  • Работать с вашими файлами на компьютере
  • Помнить контекст между разными чатами
  • Интегрироваться с вашей почтой, Notion, Jira
  • Выполнять SQL-запросы к базе данных
  • Автоматизировать реальные бизнес-процессы
Каждая компания пыталась решить это по-своему. У OpenAI свои плагины, у Google — Extensions, у Microsoft — Copilot extensions. Всё это работало криво, несовместимо друг с другом, и требовало отдельной интеграции под каждую LLM.

MCP: универсальный коннектор для AI

Anthropic посмотрела на этот хаос и выпустила Model Context Protocol (MCP) — открытый протокол для подключения LLM к внешнему миру.
Простыми словами: это REST API для AI-агентов.
Принцип работы:
  • Любая LLM подключается к любому сервису через единый стандарт
  • Сервису (Gmail, Notion, база данных) нужно написать всего одну интеграцию
  • Все LLM модели могут её использовать
До MCP: каждый сервис пишет 5-10 интеграций под разные LLM → хаос и отсутствие масштабируемости.
С MCP: сервис пишет одну интеграцию → работает со всеми LLM → экосистема растёт экспоненциально.
Anthropic выложила протокол в открытый доступ в конце 2024 года. За 10 месяцев появилось 9,853 готовых MCP-сервера. Это не абстрактные концепты — это работающие интеграции, которые можно установить за 5 минут.

Как это работает на практике

Позволю себе показать несколько реальных кейсов из моей практики.

Кейс 1: Локальная LLM выходит в интернет

У меня на компьютере установлена Gemma3 через LM Studio. Отличная модель, быстрая, работает локально. Но она "замкнута" на май 2024 года. Спрашиваю её про актуальные новости — получаю информацию полугодовой давности.
Решение: установил MCP-сервер Brave Search через Docker (буквально 2 клика). Теперь та же Gemma3 делает запросы в интернет и возвращает актуальную информацию от 2 октября 2025 года.
Без единой строчки кода. Просто включил Docker, нажал "Connect" в настройках — и всё заработало.

Кейс 2: Работа с файлами

LLM может создать файл на моём компьютере. Записать в него текст. Посчитать количество PDF в папке. Открыть конкретный файл и отредактировать его.
Я просто пишу: "Создай файл test.txt в папке Research и напиши туда 'Hello, world!'" — и это происходит. Модель использует MCP-сервер для работы с файловой системой и выполняет команду.

Кейс 3: Экономия времени на YouTube

Вышло часовое интервью с Сэмом Альтманом и Такером Карлсоном. Смотреть честно не хочется — жалко времени. Но интересно, о чём говорили.
Копирую ссылку на видео, вставляю в Claude с подключенным MCP-сервером Supadata и пишу: "Дай краткое содержание этого видео".
30 секунд — и у меня готовый саммари. Час жизни сэкономлен.

Кейс 4: Автоматизация Jira-тикетов

У многих IT-команд есть проблема: проходит дейли, все обсуждают задачи, кто-то говорит "нужно завести тикет на этот баг" — и все забывают.
С MCP-сервером для Jira: LLM слушает встречу (через транскрипцию), понимает, что нужно создать задачу, автоматически создаёт тикет и связывает его с нужным спринтом.
Проджект-менеджерам становится чуть меньше работы. А если честно — AI постепенно занимает всё больше их функций.

Мой топ MCP-серверов

За несколько месяцев работы с MCP я выбрал серверы, которыми пользуюсь ежедневно:
1. Brave Search Для локальных моделей — это спасение. Даёт доступ в интернет. Бесплатный лимит — 2,000 запросов в день.
2. Memory Решает главную проблему всех LLM — отсутствие памяти между чатами. Модель запоминает, кто вы, ваши предпочтения, контекст проектов. Больше не нужно каждый раз объяснять заново.
3. Desktop Commander / File Reference Управление файлами на компьютере. Создание, редактирование, поиск, подсчёт — всё через команды LLM.
4. Sequential Thinking Даже non-thinking модели начинают думать step-by-step. Делает их заметно умнее на сложных задачах.
5. Supadata Скачивает субтитры с YouTube (и других платформ), передаёт их в LLM для анализа. Экономия времени — астрономическая.
6. Email sender Когда долгая задача на локальном компьютере завершается — LLM автоматически отправляет мне письмо. Не нужно сидеть и ждать 30 минут.
7. SQL серверы Подключение к базе данных. Спрашиваю LLM: "Покажи активные заказы в статусе доставки" — она формирует SQL-запрос, выполняет его и возвращает результат. Дата-аналитики, задумайтесь.

Где найти MCP-серверы

Есть три основных каталога:
📦 Glama AI — 9,853 сервера с удобным поиском и фильтрами
Awesome MCP Servers — курируемый список на GitHub с категориями
🛠️ Официальный репозиторий — документация, SDK для разных языков, примеры
В Docker MCP Toolkit встроено 224 сервера, которые устанавливаются в 2 клика.

Почему это важно для карьеры

Если раньше "умею работать с ChatGPT API" было плюсом в резюме, то сейчас написание MCP-серверов — это новое конкурентное преимущество.
На данный момент написано всего ~2,000 MCP-серверов. На каждый популярный инструмент — по 5-6 вариантов. Это мало.
Когда каждая компания поймёт ценность и начнёт интегрировать свои внутренние системы через MCP, потребность в разработчиках вырастет кратно.
Прогноз: OpenAI придётся поддержать MCP (сейчас у них нет интеграции). Это станет индустриальным стандартом. И разработчики, которые начнут изучать это сейчас, через 6 месяцев будут на голову выше конкурентов.

Видео: полный разбор

В этом 25-минутном видео я показываю:
  • Установку MCP через Docker (самый простой способ)
  • Установку через NPX (на примере HyperLiquid)
  • Демонстрацию всех топовых серверов
  • Практические кейсы автоматизации
  • Как написать свой MCP-сервер

Начните экспериментировать

Если вы дочитали до конца — значит, тема зацепила. Не откладывайте.
Что сделать прямо сейчас:
  1. Установите Docker (если ещё не установлен)
  2. Откройте Docker MCP Toolkit
  3. Выберите 2-3 сервера из каталога, которые решают ваши задачи
  4. Подключите их к Claude Desktop / LM Studio / Cursor
  5. Попробуйте автоматизировать хотя бы одну рутинную задачу
А потом напишите в комментариях (или на почту), какие кейсы у вас получились. Мне действительно интересно, как разные люди применяют MCP на практике.

Полезные ссылки

Каталоги MCP-серверов:
Официальная документация:
Упомянутые инструменты: