Один комментатор к сегодняшнему стриму [«Research Mastermind»](https://www.youtube.com/watch?v=41rOwT-cPIM) написал: __«Каждый раз я, как айтишник, сижу и думаю о том, как монетизировать свои умения и знания в области ИИ. А тут человек, далекий от всего этого, берет и делает. Смешанные чувства...»__ Этот комментарий относился к [выступлению девушки](https://youtu.be/41rOwT-cPIM?t=256), которая рассказывала, как использует ИИ в бьюти-индустрии. И правда: пока разработчики думают, достаточно ли Claude Code умен, чтобы писать в нем код, люди из индустрии, не связанной с разработкой, вовсю используют свалившиеся ИИ-блага. И буквально недавно создатель Claude Code Борис Черный давал небольшой мастер-класс с кейсами использования его детища в работе людей, далеких от разработки. Получилось пять пайплайнов, которые я собрал в гайд: **1) Пайплайн нарезки видео 2) Агент обогащения лидов 3) Пайплайн конкурентной разведки 4) Пайплайн извлечения данных из документов 5) База знаний и автоматизация поддержки** Ни один из этих кейсов не требует создания приложения или поддержки инфраструктуры. Все работает из коробки.
Не знаю, насколько часто вы работаете с документами, но у меня это основная деятельность. И я давно искал способ подружить NotebookLM и Claude Code, во-первых это офигеть как удобно рулить всем из привычного Клода, а во-вторых, я бы с радостью использовал условно-бесплатную для меня инфраструктуру Гугла в работе с документами, а не выедал дорогие лимиты Клода. И выход [был найден! ](https://x.com/hooeem/status/2042293751805329445?s=46&t=LoFf_niKHC0zGJTOKHFj5Q) Разработчик Teng Ling реверс-инжинирил протоколы NotebookLM и выпустил [open-source CLI](https://github.com/teng-lin/notebooklm-py), который позволяет управлять NotebookLM прямо из терминала. Если подключить его к Claude Code через систему скиллов, получается связка: тяжелую аналитику (30+ документов, веб-исследования, кросс-референсы) делает NotebookLM бесплатно, а Claude тратит токены только на оркестрацию и финальную доработку.
Нравится мне [следить](https://t.me/prompt_design/2010) за ребятами из Dimensional, почти каждую неделю они выкладывают интересные кейсы, реализованные на базе своей [dimOS.](https://github.com/dimensionalOS/dimos) Например, вчера они рассказали, как робособака «охраняет» их офис с помощью автономного агента. Задана следующая инструкция: «Непрерывно патрулировать офис; при обнаружении людей в худи - следовать за ними и поднять тревогу, одновременно вызывая полицию». Проект имеет полностью открытый [исходный код.](https://github.com/dimensionalOS/dimos)
У нас тут проблема в [«ʞошэМ» ](https://t.me/prompt_design/1953)и [«Research Mastermind»](https://t.me/prompt_design/1949) приключилась. Из-за обилия информации, участники сообществ не успевали ее потреблять: вчера кто-то выступил на мастермайнде, а потом на «полезном звонке» разбирали, как бесплатный трафик для проекта организовать, а еще каждый день сотни сообщений с ссылками на GitHub или обсуждение личного опыта внедрения каких-то фишек. Это я еще не говорю о том, что найти эксперта, что разбирается в твоей теме, вообще не реально, так как с ума сойдешь перечитывать эти тысячи сообщений. Как, блин, не погрязнуть в этом обилии информации? И решение было найдено. Помните, я писал о проекте [Андрея Карпатого LLM Knowledge Base](https://t.me/prompt_design/2062), вот эту идею и использовал участник клуба [Артем](https://t.me/aixenix), как основу проекта. Он собрал Telegram-бота, который живет прямо в наших чатах и делает одну мощную штуку - читает весь поток сообщений и собирает из него структурированную базу знаний. По сути - Wiki-справочник сообщества, который сам себя пишет. Все построено на методологии [Zettelkasten](https://github.com/msitarzewski/agency-agents/blob/main/specialized/zk-steward.md) - система связанных заметок, где каждая карточка знаний ссылается на другие. Бот выступает в роли «ZK Steward» агент, который 24/7 сидит в чате. Каждое сообщение он пропускает через LLM (Gemini), выделяет полезное - кто о чем рассказал, какой инструмент порекомендовал, какой опыт описал - и раскладывает по полочкам: профили участников, проекты, инструменты, извлеченные знания. Но чат - это только один источник. Бот еще «смотрит» записи [мастермайндов с YouTube](https://www.youtube.com/@prompt_design/featured): скачивает аудио через yt-dlp, транскрибирует речь в текст через GigaAM (модель заточенная под русский язык), нарезает по спикерам и темам из таймкодов - и тоже все складывает в базу. На стороне пользователя работает так, тегаешь бота в чате или пишешь ему в личку, задаешь вопрос - и он отвечает: кто что внедрял, что сработало, какие инструменты использовали. Имена в ответах - кликабельные ссылки на Telegram-профили, можно сразу написать человеку и уточнить. Под капотом: — **aiogram** - фреймворк для Telegram-бота, ловит сообщения в реальном времени — **Gemini **- извлекает знания из чата, и отвечает на вопросы — **GigaAM + pyannote **- транскрипция стримов: pyannote делит аудио на сегменты речи, GigaAM переводит в текст — **yt-dlp + FFmpeg** - скачивание и конвертация аудио с YouTube — **Zettelkasten wiki **- база знаний в обычных Markdown-файлах — Все крутится на **VPS** Воркфлоу: сообщения копятся в логах, каждые несколько часов LLM пакетно обрабатывает новую порцию, обновляет wiki-файлы. При вопросе - собирает контекст из базы и генерирует ответ. Для YouTube - то же самое, только на вход идет транскрипт стрима. Отдельная история антирекурсия. Бот же сам пишет сообщения в чат, и если бы он начал индексировать свои ответы - получилась бы бесконечная петля: ответил, проиндексировал ответ, в следующем цикле обработал его как новое знание, переписал базу, и так по кругу. Поэтому в каждое исходящее сообщение бота помечается, чтобы тот его пропускал. А, ну и у каждого сообщества своя отдельная база, доступ разграничен: участники «Mastermind» видят только свою, участники «ʞошэМ» - обе.
Буквально вчера Anthropic выпустили [Claude Managed Agents](https://claude.com/blog/claude-managed-agents). Я давно ждал его. Ну реально, каждый раз, когда нужно создать ИИ-агента под свои задачи, приходится руками выстраивать весь воркфлоу: песочницы, оркестрация инструментов, управление контекстом, обработка ошибок, хранение данных. Дни работы до первого полезного результата. Что делает Managed Agents? Вы описываете агента: модель, промпт, инструменты. Все остальное - контейнеры, выполнение кода, сетевой доступ, стриминг событий, отказоустойчивость - берет на себя платформа. Обвязка обновляется автоматически вместе с моделью, и агент всегда использует последние возможности Claude. Удобно. Пока разбирался, как все устроено, перебрал кучу источников - официальную документацию, инженерный блог, практические гайды, а потом решил собрать из них один плейбук. Так что пользуйтесь и делитесь кейсами.
А давайте все же поговорим про Миллу Йовович и ее нашумевший продукт [MemPalace](https://github.com/milla-jovovich/mempalace)? А то из-за этой насыщенной на стримы и конференции недели не было времени поизучать GitHub-движуху. А там было жарко, 30к звезд и миллионы просмотров в Твиттере, это не шутки. Начнем с проблемы, которую решает этот продукт. Каждый раз, когда вы открываете новый чат с ChatGPT или Claude, вы разговариваете с собеседником, у которого полная амнезия. Помните, как в фильме Кристофера Нолана «Memento», 2000, где герой из-за травмы не может запоминать новое и ищет убийцу жены с помощью записок и татуировок? Так и Claude не помнит, что вчера вы два часа обсуждали архитектуру проекта. Не помнит, что вы предпочитаете PostgreSQL и ненавидите MongoDB. Не помнит, что Катя - ваш тимлид, а Серега - джуниор, который вечно ломает деплой. Все, что вы наработали за полгода ежедневного общения с ИИ - решения, споры, инсайты, контекст - исчезает, когда закрывается вкладка. По грубым подсчетам, за полгода активного использования через ИИ проходит около 20 миллионов токенов текста. Это примерно 30 толстых романов. И все 30 улетают в корзину. Конечно, эта проблема на виду и все, от Google до OpenAI, пытаются ее решить. Их подход примерно одинаковый: пусть ИИ-агент прочитает ваш разговор и вытащит из него «важное». Поговорили про базы данных - система запомнит: «пользователь предпочитает PostgreSQL». Обсудили дедлайн - запомнит: «релиз в пятницу». ИИ сам решает, что важно, а что нет. Но часто он решает неправильно. Вы два часа объясняли, почему выбрали PostgreSQL - какие альтернативы рассматривали, какие тесты проводили, почему MongoDB не подошла. А система запомнила только вывод: «предпочитает PostgreSQL». Весь контекст, все аргументы коту под хвост. И вот в начале апреля Милла Йовович и разработчик Бен Сигман опубликовали на [GitHub](https://github.com/milla-jovovich/mempalace) проект под названием MemPalace. Их идея была простой: а что если вообще ничего не выбрасывать? Вместо того чтобы нанимать ИИ-агента, который читает ваши разговоры и составляет карточки, MemPalace просто складывает все ваши разговоры дословно в базу данных. Каждое слово. Без сокращений, без пересказа, без потерь. А когда вам нужно что-то найти - ищет по смыслу, используя ту же технологию, что и поисковики: превращает текст в эмбеддинги и находит похожие фрагменты. Кстати, название MemPalace - это отсылка к древнегреческой технике запоминания. Ораторы представляли знакомое здание и мысленно «раскладывали» идеи по комнатам. Чтобы вспомнить речь, достаточно было мысленно пройтись по зданию. MemPalace устроен так же: ваши данные раскладываются по «крыльям» (люди, проекты), «комнатам» (темы) и «шкафам» (конкретные фрагменты). В общем, вместо того чтобы LLM решал, что запомнить, хранить все дословно в ChromaDB и искать семантическим поиском. И реально раскидывание информации по «крыльям», «комнатам» и «шкафам» дает реальный прирост в retrieval. Ну и конечно, это опенсорс, и любой человек с ноутбуком может развернуть проект у себя за пять минут. Никаких API-ключей, никакого облака, никаких подписок. Все работает локально. Кайф? Конечно! Там же еще бенчмарки какие! На стандартном академическом тесте [LongMemEval](https://xiaowu0162.github.io/long-mem-eval/) - 500 вопросов о содержании прошлых разговоров - MemPalace, без единого вызова к платному ИИ, нашел правильный фрагмент в 96.6% случаев. А в [LoCoMo](https://snap-research.github.io/locomo/) вообще 100% - ура! У нас появилась идеальная локальная память! Но нифига. Все бенчмарки натянуты и результаты не такие сладкие. Если интересно, могу отдельно их разобрать в следующем посте - бахните мне огня 🔥для мотивации.
Сегодня среда, а это значит у нас будет очередной **Research Mastermind** в 19-00 (GMT+3)! О чем поговорим сегодня: **AI как слой управления в B2B-агентстве ** Как заменить себя «образца полуторагодовалой давности» и выстроить коммерческую стратегию: мониторинг, форкастинг и принятие решений. Расскажу, как вдохновить гуманитариев вайбкодить, и покажу пачку примеров внутренних сервисов. **Как делать песни и альбомы в Suno ** Чтобы сделать качественный альбом, нужно понимать стили, жанры, размеры и грамотно руководить ИИ. Разбор профессионального подхода от промпта до готового трека. **Как я упаковала опыт борьбы с раком в продукт ** Кейс проджект-менеджера без навыков разработки, которая за месяц собрала MVP протокола по питанию для онкобольных — от архитектуры до лендинга. Путь создания, инструменты и инсайты. Ставьте уведомление на стримчанский, встретимся там: https://youtube.com/live/56g8-PF1aio?feature=share
СДВГшники-вайбкодеры, я вас спасу! Сделал «шлепатель», который будет уведомлять каждый раз, когда Claude Code закончил работу или требует внимания. А в конце рабочего дня на щеках еще и здоровый румянец появляется.
Что мне нравится в «Силиконовом Мешке», так это внутреннее бурление жизни. В выходные стараюсь больше времени уделять семье и не пишу контент, но жизнь там кипит: в нашем чате @prompt_chat постоянно кто-то задает вопросы и получает ответы (люблю вас за это), в [ʞошэМ](https://t.me/prompt_design/1953) уже два дня ребята перебирают всевозможные способы обхода… ~~ну не важно чего~~, а в [Research Mastermind](https://t.me/prompt_design/1949) накидывают бонусные материалы к своим прошлым выступлениям. А я начал изучать [LLM Knowledge Bases](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f) от Андрея Корпатый (на неделе расскажу). в
В последнее время обожаю смотреть на рабочий календарь. Среди белых клеточек и синих черточек ищу тонкие полоски двадцатиминутных слотов с названием «ʞошэМ между Artem и …». Вместо точек там, конечно, имя стоит. Вот смотрю я на это имя и думаю: а кто этот человек, что его волнует, какая у него история, что он хочет запустить на рынке искусственного интеллекта или чего он боится? В назначенное время захожу в Гуглмит и первые секунды, пока идёт смолтолк, пытаюсь понять, кто передо мной: предприниматель, сотрудник крупной компании или студент... А дальше у нас начинается увлекательный разговор про жизнь, искусственный интеллект и что, блин, делать в этом безумном мире. Такой тет-а-тет созвон - одна из опций [нашего клуба «ʞошэМ»](https://t.me/prompt_design/1953). За эти двадцать минут могу вспомнить кого-то из спикеров в Research Mastermind, который питчил про что-то подобное, и дать контакт. Найти в чертогах памяти похожий кейс или пост с канала. Или успокоить, что никто ничего не понимает и не знает какая ниша выстрелит и что изучать прямо сейчас, чтобы заработать все миллионы. Иногда этого достаточно. И я понял, что хочу внутри этой «ИИзнанки» сосредоточиться на двух вещах: **Экспертиза - **знания приглашённых спикеров и самих участников, обмен опытом. **Аудитория - **хочу рассказывать о ИИ-проектах участников, потому что там есть действительно интересные кейсы. Так что если вам нужна экспертиза, аудитория и поддержка людей, которые тоже ничего не понимают, но разбираются вместе - [залетайте к нам в «ʞошэМ».](https://t.me/prompt_design/1953)
А вот и [еще одно](https://digitalplanet.tufts.edu/ai-and-the-emerging-geography-of-american-job-risk-page/) исследование на тему, как скоро мы окажемся на улице, передав рабочие ноутбуки ИИ-агентам. Спойлер: если твой рабочий инструмент не компьютер, не телефон и вообще не включается в розетку - немного расслабься, но не сильно. Вообще, как говорится в исследовании, эта техническая революция будет отличаться от привычных нам, когда технологии создавали больше рабочих мест, чем уничтожали (людей просто перемещали на более квалифицированную и высокооплачиваемую работу). Типа как с индустриальной революцией: крестьяне стали рабочими, а рабочие стали инженерами. На этот раз все будет по-другому: на каждый процентный пункт автоматизации задач внутри профессии приходится 0,75 п.п. реальной потери рабочих мест. То есть автоматизация не «перемещает» людей наверх, а выбрасывает, и компенсация новыми рабочими местами минимальна. Самое смешное, что чем больше ИИ помогает вам выполнять работу, тем более заменяемым вы становитесь. А кому ИИ помогает больше всего? Не слышу? А, точно: программисты (57% задач автоматизируемы), веб-дизайнеры (55%), писатели (55%). Так подождите. Выходит, мы сами для себя готовим путевку в безработную жизнь? Ну да. Более миллиона специалистов, чья работа - изучать, создавать и писать об ИИ, сами попадают под вытеснение на 26–55%. Кстати, аналитики могут не пережить собственный анализ происходящего в ИИ. А оплачивают весь этот банкет - инвесторы. Например, когда финтех-компания Block объявила об увольнении 40% персонала в рамках ИИ-реструктуризации, её акции выросли на 20%. Инвесторы ставят на автоматизацию, а не на людей. Куда они инвестируют на ИИ-рынке, я [недавно писал.](https://t.me/prompt_design/2028) В общем, очень советую почитать [этот материал](https://digitalplanet.tufts.edu/ai-and-the-emerging-geography-of-american-job-risk-page/), а еще я вам [графики перевел на русский язык.](https://ai.apigpt.ru/ai-risk/) А тут можно посмотреть [дашборд Андрея Карпатого](https://t.me/prompt_design/2009), который я наполнил актуальными данными для рынка СНГ.