Пишу про AI Coding, помогаю разработчикам освоить AI, внедряю AI в бизнес, провожу консультации.
Связь: @yatimur | Визитка: timurkhakhalev.t.me
Связь: @yatimur | Визитка: timurkhakhalev.t.me
Google Stitch
Помимо всех тех штук, о которых вы уже знаете, гугл выпустил Stitch – AI design tool.
Наконец-то!
Можно по промпту сгенерить дизайн, вот только он будет в стиле интерфейсов гугла. Экраны можно сразу же скопировать в Figma. Можно подтюнить экраны с помощью промптов, можно поменять предустановленные стили.
Очень круто! Это именно то, чего так долго не хватало. На видео у меня дизайн генерил 2.5 Flash (Standard Mode), есть так же Experimental Mode на Gemini 2.5 Pro.
Доступно бесплатно тут
https://stitch.withgoogle.com
Prompt guide:
https://discuss.ai.google.dev/t/stitch-prompt-guide/83844
Помимо всех тех штук, о которых вы уже знаете, гугл выпустил Stitch – AI design tool.
Наконец-то!
Можно по промпту сгенерить дизайн, вот только он будет в стиле интерфейсов гугла. Экраны можно сразу же скопировать в Figma. Можно подтюнить экраны с помощью промптов, можно поменять предустановленные стили.
Очень круто! Это именно то, чего так долго не хватало. На видео у меня дизайн генерил 2.5 Flash (Standard Mode), есть так же Experimental Mode на Gemini 2.5 Pro.
Доступно бесплатно тут
https://stitch.withgoogle.com
Prompt guide:
https://discuss.ai.google.dev/t/stitch-prompt-guide/83844
5 tasks per day for free
https://jules.google.com/
Можно оставить заявку на ранний доступ
По новостям – опять ожидается, как минимум, два-три жарких месяцев релизов 🔥
В ближайшие пару недель ожидаем релизов coding agents.
Первыми были OpenAI на прошлой неделе, сегодня Microsoft зарелизили Github Copilot Coding Agent. Завтра стартует Google I/O, на котором я ожидаю релиз coding agent от Google. В среду Anthropic будет проводить Code with Claude 2025, думаю что они тоже зарелизят апдейт их Claude Code.
Далее, ожидаем релиз Google Gemini 2.5 Pro DeepThink, DeepSeek R2, xAI Grok 3.5, OpenAI давно обещали выпустить GPT-5 как раз в это время (май-июнь), Claude тоже готовят следующую новую модель.
UPD: в комментах ссылка на Google Jules: https://jules.google.com/
5 запросов в сутки
В ближайшие пару недель ожидаем релизов coding agents.
Первыми были OpenAI на прошлой неделе, сегодня Microsoft зарелизили Github Copilot Coding Agent. Завтра стартует Google I/O, на котором я ожидаю релиз coding agent от Google. В среду Anthropic будет проводить Code with Claude 2025, думаю что они тоже зарелизят апдейт их Claude Code.
Далее, ожидаем релиз Google Gemini 2.5 Pro DeepThink, DeepSeek R2, xAI Grok 3.5, OpenAI давно обещали выпустить GPT-5 как раз в это время (май-июнь), Claude тоже готовят следующую новую модель.
UPD: в комментах ссылка на Google Jules: https://jules.google.com/
5 запросов в сутки
Что с Apple AI? Мои мысли
Сегодня вышла статья Bloomberg (версия без paywall) о том, что происходит с Apple AI.
Я прочитал статью и написал небольшой саммари и мои мысли на этот счёт в Вастрик.Клубе:
https://vas3k.club/post/28465/
Здесь продублирую выводы и напишу инсайты:
У Apple ещё не всё потеряно и рано списывать их со счётов. Такие огромные компании имеют большой запас прочности. Сфере AI пока всего лишь менее 3-х лет и у Apple всё ещё есть все шансы забрать свою нишу. Достаточно посмотреть на новости за этот год: крупный бигтех сказал спасибо стартапам и начал заходить в AI: Cloudflare — делают много крутых инструментов, Google — начали с кринжового Google Bard в 2023 и теперь у них Gemini, который входит в топ-3 AI по качеству и эффективности. В комментах можете продолжить список :)
Если верить статье, то, Apple, пересмотрели свою политику работы и надеюсь что взялись за голову — датасеты с пользовательскими данными и быстрое принятие решений должно помочь им выпустить качественный и полезный продукт с AI под капотом.
Инсайты
- Google платит в год Apple чуть меньше ($20B), чем они зарабатывают на своем App Store (около $24B)
- Стив Джобс лично курировал разработку Siri на начальном этапе ещё с 2010 года и немного не дожил до первого релиза Siri
- Крейг Федериги настолько был поражён способностями ChatGPT в написании кода после релиза в ноябре 2022, что он и другие executives встречались c OpenAI, Anthropic и другими игроками для того чтобы те провели им "курс" о положении дел на рынке Gen AI.
Сегодня вышла статья Bloomberg (версия без paywall) о том, что происходит с Apple AI.
Я прочитал статью и написал небольшой саммари и мои мысли на этот счёт в Вастрик.Клубе:
https://vas3k.club/post/28465/
Здесь продублирую выводы и напишу инсайты:
У Apple ещё не всё потеряно и рано списывать их со счётов. Такие огромные компании имеют большой запас прочности. Сфере AI пока всего лишь менее 3-х лет и у Apple всё ещё есть все шансы забрать свою нишу. Достаточно посмотреть на новости за этот год: крупный бигтех сказал спасибо стартапам и начал заходить в AI: Cloudflare — делают много крутых инструментов, Google — начали с кринжового Google Bard в 2023 и теперь у них Gemini, который входит в топ-3 AI по качеству и эффективности. В комментах можете продолжить список :)
Если верить статье, то, Apple, пересмотрели свою политику работы и надеюсь что взялись за голову — датасеты с пользовательскими данными и быстрое принятие решений должно помочь им выпустить качественный и полезный продукт с AI под капотом.
Инсайты
- Google платит в год Apple чуть меньше ($20B), чем они зарабатывают на своем App Store (около $24B)
- Стив Джобс лично курировал разработку Siri на начальном этапе ещё с 2010 года и немного не дожил до первого релиза Siri
- Крейг Федериги настолько был поражён способностями ChatGPT в написании кода после релиза в ноябре 2022, что он и другие executives встречались c OpenAI, Anthropic и другими игроками для того чтобы те провели им "курс" о положении дел на рынке Gen AI.
Пост восхваления Gemini
Я давно хотел рассказать о том, что я сам использую в работе.
В последнее время я часто пользуюсь Gemini. Я подключил подписку Gemini Advanced месяц назад, после того как они запустили Deep Research 2.5 Pro, который доступен только для платной подписки, и с тех пор кайфую.
Мне очень нравится Gemini, Гугл очень хорошо прокачал свой AI со времён Google Bard, которым пользоваться было невозможно.
Сейчас у меня подписки на три сервиса по $20 — Gemini Advanced, Claude Pro, OpenAI Plus. И Gemini в последнее время я использую чаще всего. У Gemini по ощущениям самые классные ответы, которые помогают решать мои задачи. Deep Research от Gemini мне нравится больше, чем от OpenAI — это очень подробные репорты, в своей работе Gemini обычно использует 100-200 источников.
Короче, я очень советую попробовать Gemini Advanced. Это прокаченная подписка Google One, которая включает в себя прокаченный Google Drive — там, например, будет доступно 2TB хранилища, увеличенные лимиты к Gemini, доступ к Veo 2 (очень крутая генерация видео) и доступ к Deep Research 2.5 Pro (Использует большую модель Gemini 2.5 Pro).
Я оплачиваю доступ к Gemini с казахстанской банковской карты и соответственно платежный аккаунт Google у меня казахстанский.
Gemini на днях запустил рефералки, только первые три счастливчика получат 4 месяца бесплатного пользования, и по рефералке можно зарегаться только для той же юрисдикции, что и у меня — Казахстан.
Вот моя рефералка — g.co/g1referral/SWTBSXSS
upd: первые три инвайта ушли
По ней вы получите 4 месяца бесплатного доступа к Gemini Advanced. Что я получу за реферала — неизвестно 😅, но мне не жалко.
Пользователям с Android доступны дополнительные фичи от подписки Gemini One. Какие именно — точно не знаю, у меня нет андроида 😄
Думаю что рефералки уйдут быстро, так что если зарегаетесь — делитесь рефералкой в комментах, чтобы другие люди тоже смогли попробовать Gemini Advanced.
Я давно хотел рассказать о том, что я сам использую в работе.
В последнее время я часто пользуюсь Gemini. Я подключил подписку Gemini Advanced месяц назад, после того как они запустили Deep Research 2.5 Pro, который доступен только для платной подписки, и с тех пор кайфую.
Мне очень нравится Gemini, Гугл очень хорошо прокачал свой AI со времён Google Bard, которым пользоваться было невозможно.
Сейчас у меня подписки на три сервиса по $20 — Gemini Advanced, Claude Pro, OpenAI Plus. И Gemini в последнее время я использую чаще всего. У Gemini по ощущениям самые классные ответы, которые помогают решать мои задачи. Deep Research от Gemini мне нравится больше, чем от OpenAI — это очень подробные репорты, в своей работе Gemini обычно использует 100-200 источников.
Короче, я очень советую попробовать Gemini Advanced. Это прокаченная подписка Google One, которая включает в себя прокаченный Google Drive — там, например, будет доступно 2TB хранилища, увеличенные лимиты к Gemini, доступ к Veo 2 (очень крутая генерация видео) и доступ к Deep Research 2.5 Pro (Использует большую модель Gemini 2.5 Pro).
Я оплачиваю доступ к Gemini с казахстанской банковской карты и соответственно платежный аккаунт Google у меня казахстанский.
Gemini на днях запустил рефералки, только первые три счастливчика получат 4 месяца бесплатного пользования, и по рефералке можно зарегаться только для той же юрисдикции, что и у меня — Казахстан.
upd: первые три инвайта ушли
Пользователям с Android доступны дополнительные фичи от подписки Gemini One. Какие именно — точно не знаю, у меня нет андроида 😄
Думаю что рефералки уйдут быстро, так что если зарегаетесь — делитесь рефералкой в комментах, чтобы другие люди тоже смогли попробовать Gemini Advanced.
Новая раздача халявы
Я забрал $100 к browser-use, кайф. Этот промокод нужно указывать при пополнении баланса в страйпе (нужно указать сумму $100, страйп кинет ошибку, перезагрузить страницу и ок)
https://t.me/nobilix/73
Я забрал $100 к browser-use, кайф. Этот промокод нужно указывать при пополнении баланса в страйпе (нужно указать сумму $100, страйп кинет ошибку, перезагрузить страницу и ок)
https://t.me/nobilix/73
На скриншоте TL;DR по выбору моделей для Long-Context RAG for Legal Q&A
https://cookbook.openai.com/examples/partners/model_selection_guide/model_selection_guide
Cursor дает год бесплатной подписки для студентов
https://www.cursor.com/students
Нужна только почта на *.edu домене
Если у вас уже была оплачена годовая подписка, то сделают рефанд
https://www.cursor.com/students
Нужна только почта на *.edu домене
Если у вас уже была оплачена годовая подписка, то сделают рефанд
Хорошая идея использования AI Chatbot как площадки для поиска И проверки идей для продукта: https://t.me/llm_under_hood/561
Годноту раздают здесь:
https://t.me/nobilix/50
Тут в том числе есть промик на Upstash – это очень классное serverless решение для пользования Redis (и еще несколько сервисов у них есть, пока не пользовался).
В каждом своем проекте с LLM я использую Redis (как раз у Upstash) для сохранения запросов к LLM в кэш, это очень полезно при разработке – экономит и время и деньги на при отклаживании промптов и системы в целом
https://t.me/nobilix/50
Тут в том числе есть промик на Upstash – это очень классное serverless решение для пользования Redis (и еще несколько сервисов у них есть, пока не пользовался).
В каждом своем проекте с LLM я использую Redis (как раз у Upstash) для сохранения запросов к LLM в кэш, это очень полезно при разработке – экономит и время и деньги на при отклаживании промптов и системы в целом
Классический роадмап с фичами убьёт твой AI-проект
Я прочитал статью Hamel Husain (я уже несколько раз писал посты по его материалам).
Статья про подход к разработке продуктов с использованием AI. И вот, чем я хотел бы поделиться:
Традиционные роадмапы с датами релиза фич не работают в AI.
Команды обещают "запустить анализ настроений к Q2" или "внедрить агентов поддержки до конца года", а потом обнаруживают, что технология просто не готова. Результат? Либо выпускают дерьмо, либо срывают сроки. В обоих случаях — потеря доверия.
Корень проблемы: классические роадмапы исходят из допущения, что мы знаем что возможно. В обычном софте так и есть. В AI, особенно на острие технологий, ты постоянно проверяешь границы возможного.
Почему AI-продукты требуют экспериментов, а не фич в роадмапе
Традиционные роадмапы с датами релиза фич катастрофически проваливаются в AI-проектах. Причина проста — они предполагают, что мы знаем что возможно, а с AI это часто не так.
Ключевые инсайты:
1. В AI ты постоянно проверяешь границы возможного, а не просто строишь заранее спроектированные фичи.
2. "Capability funnel" — альтернативный подход, который разбивает AI-производительность на уровни полезности от базовой функциональности до полного решения задачи пользователя.
3. Лучшие команды строят роадмапы вокруг экспериментов, а не фич. Они:
- Ограничивают время на исследование
- Устанавливают чёткие точки принятия решений
- Доказывают жизнеспособность перед полной реализацией
4. Инфраструктура для оценки — краеугольный камень. Пример GitHub Copilot: команда сначала построила систему, которая могла тестировать автодополнения кода против огромного корпуса репозиториев.
5. Коммуникация со стейкхолдерами:
Боссы хотят даты релизов, но с AI это бред. Не обещай фичи — обещай эксперименты с жёсткими дедлайнами и чёткими точками решений. Используй Capability funnel — это просто разбивка прогресса на стадии от "базовая функциональность" до "полностью решает задачу". Так руководство видит движение, даже когда финальное решение не готово.
6. Культура экспериментирования включает открытое обсуждение провалов:
- "fifteen-five" — еженедельные обновления (15 минут на написание, 5 на чтение)
- Регулярные сессии обмена опытом без подготовки
- Нормализация неудач как части обучения
Ключевой метрикой для AI роадмапов должно быть количество проведенных экспериментов, а не выпущенных фич. Побеждают команды, которые быстрее экспериментируют, учатся и итерируют.
---
Я согласен с Hamel – при разработке с использованием cutting edge technologies важно установить правильные ожидания и понимать, что нужно много рисерчить и экспериментировать, в моём опыте такое тоже бывает, когда ты ожидаешь, что задачу с парсингом pdf на 500 страниц решить - пара дней, а выливается это в итоге в несколько недель рабочих часов и нарушенные обещания для клиента.
Но когда принимаешь, что тебе приходится проводить эксперименты, то дело идёт в гору.
Далее, в комментах добавлю основные инсайты из статьи, особенно мне понравилась идея про синтетические данные в качестве input в ваших продуктах, которая, казалось бы, довольно очевидна, но не все ею пользуются
Я прочитал статью Hamel Husain (я уже несколько раз писал посты по его материалам).
Статья про подход к разработке продуктов с использованием AI. И вот, чем я хотел бы поделиться:
Традиционные роадмапы с датами релиза фич не работают в AI.
Команды обещают "запустить анализ настроений к Q2" или "внедрить агентов поддержки до конца года", а потом обнаруживают, что технология просто не готова. Результат? Либо выпускают дерьмо, либо срывают сроки. В обоих случаях — потеря доверия.
Корень проблемы: классические роадмапы исходят из допущения, что мы знаем что возможно. В обычном софте так и есть. В AI, особенно на острие технологий, ты постоянно проверяешь границы возможного.
Почему AI-продукты требуют экспериментов, а не фич в роадмапе
Традиционные роадмапы с датами релиза фич катастрофически проваливаются в AI-проектах. Причина проста — они предполагают, что мы знаем что возможно, а с AI это часто не так.
Ключевые инсайты:
1. В AI ты постоянно проверяешь границы возможного, а не просто строишь заранее спроектированные фичи.
2. "Capability funnel" — альтернативный подход, который разбивает AI-производительность на уровни полезности от базовой функциональности до полного решения задачи пользователя.
3. Лучшие команды строят роадмапы вокруг экспериментов, а не фич. Они:
- Ограничивают время на исследование
- Устанавливают чёткие точки принятия решений
- Доказывают жизнеспособность перед полной реализацией
4. Инфраструктура для оценки — краеугольный камень. Пример GitHub Copilot: команда сначала построила систему, которая могла тестировать автодополнения кода против огромного корпуса репозиториев.
5. Коммуникация со стейкхолдерами:
Боссы хотят даты релизов, но с AI это бред. Не обещай фичи — обещай эксперименты с жёсткими дедлайнами и чёткими точками решений. Используй Capability funnel — это просто разбивка прогресса на стадии от "базовая функциональность" до "полностью решает задачу". Так руководство видит движение, даже когда финальное решение не готово.
6. Культура экспериментирования включает открытое обсуждение провалов:
- "fifteen-five" — еженедельные обновления (15 минут на написание, 5 на чтение)
- Регулярные сессии обмена опытом без подготовки
- Нормализация неудач как части обучения
Ключевой метрикой для AI роадмапов должно быть количество проведенных экспериментов, а не выпущенных фич. Побеждают команды, которые быстрее экспериментируют, учатся и итерируют.
---
Я согласен с Hamel – при разработке с использованием cutting edge technologies важно установить правильные ожидания и понимать, что нужно много рисерчить и экспериментировать, в моём опыте такое тоже бывает, когда ты ожидаешь, что задачу с парсингом pdf на 500 страниц решить - пара дней, а выливается это в итоге в несколько недель рабочих часов и нарушенные обещания для клиента.
Но когда принимаешь, что тебе приходится проводить эксперименты, то дело идёт в гору.
Далее, в комментах добавлю основные инсайты из статьи, особенно мне понравилась идея про синтетические данные в качестве input в ваших продуктах, которая, казалось бы, довольно очевидна, но не все ею пользуются
Мой плагин для FigJam опубликовали
https://www.figma.com/community/plugin/1490654577588079169/figjam-text-export
Кому нужно – пользуйтесь 🙂
Баг репорты можно слать в комменты
https://www.figma.com/community/plugin/1490654577588079169/figjam-text-export
Кому нужно – пользуйтесь 🙂
Баг репорты можно слать в комменты
(Этот бенчмарк показывает то, насколько хорошо модель держит контекст на разном количестве токенов)
Основные выводы
• o1 и Claude Sonnet 3.7-thinking демонстрируют хорошие результаты. Они сохраняют высокую точность в течение значительного времени, однако для наших целей их точность всё ещё недостаточна для надёжного использования в написании реальных текстов.
• DeepSeek-r1 значительно превосходит o3-mini и является отличным выбором для пользователей, ориентированных на экономию бюджета. Версия без «рассуждений» резко теряет качество при увеличении длины контекста.
• GPT-4.5-preview — лучшая модель без поддержки рассуждений, уверенно превосходит конкурентов.
• Google Gemini 2.5 Pro теперь является однозначным лидером (SOTA). Это первый случай, когда большая языковая модель (LLM) может быть потенциально использована для работы с длинным контекстом. Сейчас интересно протестировать её на ещё более длинных контекстах.
• Gemma-3 показывает слабые результаты на данном тесте.
• Anthropic Sonnet-3.7 значительно улучшена по сравнению с версией 3.5. Вариант «thinking» использует 8000 токенов на «рассуждения», чего должно быть достаточно для простой логики.
• Jamba сразу же показывает результат ниже 50%, но дальнейшее снижение незначительно.
• Qwen-max хороша в рамках небольших контекстов, для которых у нас есть данные. Версия qwq превосходна и лучше, чем R1.
• Llama 4 разочаровывает. Maverick не превосходит уже ниже среднего уровня Llama 3.3 70b, а Scout показывает откровенно плохие результаты.
Исследование интересное только очкарикам 🤓
Я ношу очки вот уже около 18 лет, примерно с 10-12 лет, на данный момент у меня близорукость -4 – -4.8. На днях я планирую менять очки и прошёл диагностику зрения в оптике, мне выписали рецепт, и во время диагностики зашла речь о полной коррекции зрения очками или не полной.
Я вспомнил, что в моём детстве, когда мне подбирали очки (примерно в возрасте 15-17 лет), мне их выписывали с учётом того, что очки будут давать не полную коррекцию зрения (т. е. в очках я буду видеть не на 100% как здоровый человек, а, скажем, на 80%-90%). Якобы это объяснялось тем, что мои глаза должны как то сами тренироваться и скорость деградации зрения снизится или прекратится или даже зрение вернётся в норму.
Так вот, для меня было открытием узнать, что эта теория на данный момент не подтвердилась и сейчас большинство врачей стараются подбирать очки, которые дают 100% коррекцию зрения.
Мне стало интересно применить здесь OpenAI Deep Research и почитать мнение учёных на этот счёт.
Вот сам отчёт: https://teletype.in/@timur_khakhalev/iOFTScrMgQR
Вот оригинал рисёрча, если нужны ссылки на источники: https://chatgpt.com/share/67eef057-cd00-8009-b608-4500a22255b4
Вот TLDR и основная мысль, текст сгенерил Claude по моему отчёту:
TLDR
Полная оптическая коррекция превосходит частичную по качеству зрения и комфорту. Недокоррекция не замедляет прогрессирование близорукости. Все ведущие офтальмологические организации рекомендуют полную коррекцию в большинстве случаев.
Основная мысль
Полная коррекция зрения обеспечивает оптимальную остроту, комфорт и предотвращает астенопию, в то время как недокоррекция не имеет доказанных преимуществ и может усугублять проблемы. Частичная коррекция оправдана только в ограниченных случаях (детская гиперметропия без косоглазия, период адаптации к сильным очкам).
Интересно будет обсудить это мнение с очкариками, так что велком в комменты 😊
Я ношу очки вот уже около 18 лет, примерно с 10-12 лет, на данный момент у меня близорукость -4 – -4.8. На днях я планирую менять очки и прошёл диагностику зрения в оптике, мне выписали рецепт, и во время диагностики зашла речь о полной коррекции зрения очками или не полной.
Я вспомнил, что в моём детстве, когда мне подбирали очки (примерно в возрасте 15-17 лет), мне их выписывали с учётом того, что очки будут давать не полную коррекцию зрения (т. е. в очках я буду видеть не на 100% как здоровый человек, а, скажем, на 80%-90%). Якобы это объяснялось тем, что мои глаза должны как то сами тренироваться и скорость деградации зрения снизится или прекратится или даже зрение вернётся в норму.
Так вот, для меня было открытием узнать, что эта теория на данный момент не подтвердилась и сейчас большинство врачей стараются подбирать очки, которые дают 100% коррекцию зрения.
Мне стало интересно применить здесь OpenAI Deep Research и почитать мнение учёных на этот счёт.
Вот сам отчёт: https://teletype.in/@timur_khakhalev/iOFTScrMgQR
Вот оригинал рисёрча, если нужны ссылки на источники: https://chatgpt.com/share/67eef057-cd00-8009-b608-4500a22255b4
Вот TLDR и основная мысль, текст сгенерил Claude по моему отчёту:
TLDR
Полная оптическая коррекция превосходит частичную по качеству зрения и комфорту. Недокоррекция не замедляет прогрессирование близорукости. Все ведущие офтальмологические организации рекомендуют полную коррекцию в большинстве случаев.
Основная мысль
Полная коррекция зрения обеспечивает оптимальную остроту, комфорт и предотвращает астенопию, в то время как недокоррекция не имеет доказанных преимуществ и может усугублять проблемы. Частичная коррекция оправдана только в ограниченных случаях (детская гиперметропия без косоглазия, период адаптации к сильным очкам).
Интересно будет обсудить это мнение с очкариками, так что велком в комменты 😊
Навайбил FigJam плагин
Мне очень нравится FigJam для того чтобы описывать там свои заметки, схемы, планы, и т. д. Несколько раз я сталкивался с такой проблемой, что в FigJam сложно экспортировать текст из созданных блоков. Если просто выделить блоки и нажать Ctrl+C, то текст копируется сплошняком без переносов.
Я поискал плагины в интернете. Казалось бы, простейшая фича, которая должна быть по дефолту в приложении, но разработчики Figma её не завезли (экспортнуть можно только в виде картинок или pdf), а коммьюнити сделали плагины только под Figma, не под FigJam.
Ладно, придётся сделать самому..
Для начала, спросил Клод о том, насколько сложно написать свой плагин — на что он мне сразу выдал бойлерплейт код и кратко описал как и что нужно. Далее я пошёл в Cursor и начал с того, что расписал план работ:
- попросил Gemini 2.5 pro обдумать мою идею и сгенерить таски в md файлы
- взял Claude Sonnet 3.7 в роли исполнителя и нагенерил код
- UI открывается, но кнопки не работают. Теперь в течение получаса дебажил проблему с Gemini 2.5 pro и Claude Sonnet 3.7 на пару, порешали проблему
- В процессе генерации я узнал, что Figma может самостоятельно сгенерить темплейт проекта для плагина 😄 и ещё больше упростить мою жизнь
- Ок, воспользовался таким темплетом, переписали весь функционал в темплейт — всё чётко работает, ура!
- Нашлёпал скриншотов
- Сгенерил иконку с ChatGPT 4o
- Поковырялся с Figma и Photoshop чтобы красиво вырезать, вставить иконку и закрасить фон
- Заполнил форму для публикации и отправил
Теперь ждём 5-10 дней и смогу поделиться плагином!
Вот за что я люблю текущие AI инструменты!
Скриншот с UI приложу в комменты
UPD: опубликовали
Мне очень нравится FigJam для того чтобы описывать там свои заметки, схемы, планы, и т. д. Несколько раз я сталкивался с такой проблемой, что в FigJam сложно экспортировать текст из созданных блоков. Если просто выделить блоки и нажать Ctrl+C, то текст копируется сплошняком без переносов.
Я поискал плагины в интернете. Казалось бы, простейшая фича, которая должна быть по дефолту в приложении, но разработчики Figma её не завезли (экспортнуть можно только в виде картинок или pdf), а коммьюнити сделали плагины только под Figma, не под FigJam.
Ладно, придётся сделать самому..
Для начала, спросил Клод о том, насколько сложно написать свой плагин — на что он мне сразу выдал бойлерплейт код и кратко описал как и что нужно. Далее я пошёл в Cursor и начал с того, что расписал план работ:
- попросил Gemini 2.5 pro обдумать мою идею и сгенерить таски в md файлы
- взял Claude Sonnet 3.7 в роли исполнителя и нагенерил код
- UI открывается, но кнопки не работают. Теперь в течение получаса дебажил проблему с Gemini 2.5 pro и Claude Sonnet 3.7 на пару, порешали проблему
- В процессе генерации я узнал, что Figma может самостоятельно сгенерить темплейт проекта для плагина 😄 и ещё больше упростить мою жизнь
- Ок, воспользовался таким темплетом, переписали весь функционал в темплейт — всё чётко работает, ура!
- Нашлёпал скриншотов
- Сгенерил иконку с ChatGPT 4o
- Поковырялся с Figma и Photoshop чтобы красиво вырезать, вставить иконку и закрасить фон
- Заполнил форму для публикации и отправил
Теперь ждём 5-10 дней и смогу поделиться плагином!
Вот за что я люблю текущие AI инструменты!
Скриншот с UI приложу в комменты
UPD: опубликовали
К другим новостям: GPT-5 всё ещё на горизонте нескольких месяцев, хоть компания и «сможет сделать её даже лучше, чем изначально предполагали»
А ещё на OpenRouter появилась загадочная модель, выдающая 130 токенов в секунду (быстрая), говорящая, что она от OpenAI и поддерживающая миллион токенов контекста. Уж не o4-mini ли это?
Этот тест показывает, насколько хорошо llm держит контекст и не забывает его. Все же знают, что даже если у llm контекстное окно в 128k tokens, то большая вероятность что на таком объёме llm может забыть информацию?
И вот перевод основных инсайтов от автора:
Ключевые выводы:
• o1 и Claude Sonnet 3.7-thinking показывают сильные результаты. Они сохраняют высокую точность на протяжении значительного времени, однако для наших целей они всё ещё недостаточно точны для надёжного написания текстов в реальных условиях.
• DeepSeek-r1 значительно превосходит o3-mini и является отличным вариантом для пользователей, чувствительных к цене. Версия без thinking резко теряет точность при увеличении длины контекста.
• GPT-4.5-preview — лучшая модель без механизма рассуждений, опережающая конкурентов.
• Google Gemini 2.5 Pro сейчас явно занимает лидирующую позицию (SOTA). Впервые появилась модель, потенциально пригодная для написания текстов с длинным контекстом. Есть интерес протестировать её с бо́льшими размерами контекста.
• Gemma-3 показала слабые результаты в этом тесте.
• Anthropic Sonnet-3.7 значительно улучшена по сравнению с версией 3.5. Версия с механизмом рассуждений (thinking) использует 8000 токенов на рассуждения, чего должно быть достаточно, поскольку логика простая.
• Jamba сразу показывает результаты ниже 50%, но дальнейшее снижение точности незначительно.
• Qwen-max хорошо справляется на небольших окнах контекста, где имеются данные. qwq также показывает отличные результаты, превосходя R1.