З розвитком AI інструментів IT галузь досягла тієї точки, коли зробити новий проєкт часто стає дешевше і простіше, ніж підтримувати існуючий. Проте для багатьох великих довготривалих проєктів переписування з нуля не найкращий варіант, особливо якщо навчитися їх підтримувати та розвивати за допомогою Agentic інструментів. Досвід роботи з подібними проєктами у всіх ключових аспектах роботи з людьми, інструментами, технологіями і процесами розглянемо на прикладі реальних кейсів.
Вʼячеслав Колдовський
(Competence Manager at SoftServe),Давайте чесно: в більшості команд performance-оптимізацією починають займатись лише тоді, коли вже «горить». І зазвичай це роблять одна-дві людини. Не тому що іншим не цікаво — просто справжня оптимізація потребує багато часу, контексту і експертизи. У Temabit ми вирішили поексперементувати з іншим підходом: делегувати частину задач оптимізації агентам. Я розповім, що з цього вийшло: як ми навчилися формулювати задачі оптимізації так, щоб агенти давали корисні результати, як перевіряємо їхні пропозиції, і чому оптимізацію виявилось значно складніше делегувати, ніж написання коду — але й користі від цього більше Реальні кейси, чесні висновки без прикрас. І головне питання: наскільки реально довірити агентам performance вашого продукту?
Дмитро Шабанов
(Temabit, Solution Architect),Розробка AI зараз впливає на всіх — тож давайте зануримось у неї разом. Усі хочуть, щоб AI-агенти замінили звичні інтерфейси. У цій доповіді я розповім про еволюцію нашого мультиінструментального AI-агента, створеного на Node.js поверх Google Vertex AI. Я поділюся нашим шляхом вибору правильних моделей та масштабування розробки за допомогою CI/CD, TDD і моніторингу продуктивності. Але виникає питання: чи взагалі можливо досягти стабільних результатів у AI-проєктах, де моделі можуть галюцинувати та повертати різні відповіді? Цікаво, що з часом ми вирішили відмовитися від MCP-серверів і валідації схем через Zod — технологій, які часто вважають «стандартом» для таких задач. Хочете дізнатися, чому ми відійшли від них? Приходьте на мою доповідь, щоб отримати ці інсайти та поставити свої запитання наживо.
Андрій Шумада
(WalkMe),Сервіси AI-генерації відео розвиваються дуже стрімко й фактично відкривають новий спосіб створення відео — у момент, коли стандарти, мова та правила цієї індустрії ще тільки формуються. Це схоже на перевинайдення кінематографа, де поки немає “правильного” підходу, але вже видно, що саме заважає перетворювати генерацію на керований продакшен-процес. Я поділюся ідеями, як можна вдосконалити існуючі платформи, спираючись на режисерський досвід: які потреби режисера продукт має враховувати, де сучасні сервіси найчастіше ламають пайплайн, і які продуктові зміни можуть дати відчутний приріст якості результату. У фокусі — платформа, яка однаково добре працює для двох аудиторій: досвідчених відеомейкерів, яким потрібен контроль і передбачуваність, та “native AI” авторів, які почали шлях у відео з генерації й не мають досвіду реального продакшену; для обох окреслю логіку пайплайну “ідея → генерація → чорновий монтаж → експорт”, мінімально необхідний монтаж у сервісі та професійний експорт у Premiere/DaVinci для фіналізації.
Василь Гошовський
(Founder at Multimedia Lab),Розповідати про щось абстрактне легко і прикольно – і розумним можна прикинутися, і перевірити тези ніяк не вийде – це ж абстракція. У світі, де кожен перший тепер "ШІ-візіонер" я хочу поговорити з вами про ШІ максимально предметно на прикладі своєї роботи – GitLab. І це ідеальний приклад, поки всі розповідають про світ рожевих поні – greenfield проєкти, де все пишеться з нуля, я хочу поділитися досвідом хардкорного brownfield – що де і як на проєкті, що існує багато років. Ми поговоримо про те: - Як ми дружимо (або скоріше ні) штучний інтелект та джаваскрипт - Мої налаштування та секретний соус для агентської розробки - Які мої досягнення на пару з Опусом (улюблена моделька) - Скільки коду на джаваскрипті я пишу руками - Що заважає нам отримати оту міфічну х10 продуктивність і що я з цим роблю Я сподіваюся, що з цього case study кожен вийде з розумінням, а що саме зробити на своєму проєкті, щоб покращувати життя вже просто зараз.
Ілля Климов
(JavaScript.Ninja),Більшість використовує штучний інтелект насамперед як інструмент підвищення продуктивності — щоб виконувати задачі швидше та якісніше. Однак чи можемо ми розвиватися швидше та якісніше завдяки ШІ? З одного боку, ШІ як дизайнер планів допомагає визначати кроки для досягнення особистих цілей. ШІ як рефлексивний партнер аналізує твій голосовий щоденник (структурує хаотичні думки, виявляє патерни, відкриває несподівані інсайти), дозволяє глибше розмірковувати над статтями, книжками, відеороликами. ШІ як спаринг-партнер створює безпечний простір для відпрацювання навичок у симуляціях — від інтерв’ю і складних розмов до практикування англійської. ШІ як тьютор дозволяє опановувати нові знання та навички у зручному для вас темпі. З іншого боку, виникає ризик ілюзії компетентності — як ви зрозумієте, що якісно опанували знання та навички за допомогою ШІ, якщо не є експертом у цій сфері? Ба більше, деякі дослідження показують когнітивну атрофію у людей через аутсорсинг мислення і використання ШІ як милиці для розмірковувань. Тож, використання ШІ — це про прискорений розвиток чи про поступову деградацію? Під час виступу спікер представить результати практичного експерименту з кейсами — чи може використання ШІ допомогти стати кращою версією себе.
Олексій Мінаков
(Consultant & Educator in Generative AI),
Всеволод Поляков
(Head of Infrastructure, Let's Enhance),Ігор Дрозд
(CTO, Silpo(E-commerce)),Гліб Смоляков
(DevOps Technical Lead at Uklon),Євген Лисенко
(Numotamo.com, Co-CEO & Co-founder),Ця доповідь демонструє практичні підходи до unified observability, де метрики, логи, траси та профілі інтегровані для швидкої діагностики проблем у розподілених системах. Розглянемо техніки кореляції даних через traceId та лейбли для миттєвого переходу від помилок до конкретних span'ів, налаштування continuous profiling для preview-середовищ, використання flame charts для аналізу продуктивності, dependency maps і service graphs для візуалізації архітектури. Окрема увага приділена AI-специфічним аспектам: застосування AI-асистентів для автоматизації root cause analysis та впровадження AI Evals для систематичного оцінювання якості, коректності та надійності AI-систем.
Денис Васильєв
(Principal Site Reliability Engineer / UK Global Talent Visa Holder),Ця сесія досліджує еволюцію від простих ланцюжків LLM до надійних когнітивних архітектур, зосереджуючись на розгортанні агентів зі станом у межах власної інфраструктури (On-Premise). Ми порівняємо сучасні фреймворки оркестрації, протиставляючи Google ADK (Agent Development Kit) для структурованого, незалежного від моделі проєктування агентів, LangGraph для детального контролю стану та CrewAI для багатoагентної взаємодії за ролями. Ключовим фокусом стане Model Context Protocol (MCP) — новий стандарт підключення агентів до внутрішніх даних і інструментів без прив’язки до конкретного постачальника. Ми продемонструємо, як побудувати гнучке середовище виконання за допомогою Vercel AI SDK Core (розгорнутого в Docker) для обслуговування таких агентів, забезпечуючи повну незалежність від хмарних провайдерів. На завершення ми розглянемо стек AgentOps, детально пояснивши, як реалізувати self-hosted спостережуваність (через Langfuse) та політики доступу для безпечного керування автономними системами у виробничому середовищі.
Володимир Цап
(CTO, SHALB),Оновлення кор-залежностей часто відкладається роками через страх “зламати все”, і ризик зростає експоненційно. Андрій покаже workflow для стрибка через кілька версій: AI аналізує breaking changes та генерує правила трансформації, AST-інструменти виконують рутину, а технічний борг перетворюється на керований процес.
Андрій Яценко
(Software Architect at Oro Inc.),