Ольга Ведерникова

Эксперт в геопространственных технологиях с 20-летним опытом в ИТ, геоаналитике и Data Science.
Специализируюсь на проектах в транспортe и логистике, телекоммуникационной инфраструктуре, урбанистике, недвижимости и финансах. Работала в Luxoft, Boeing, Ренессанс Капитале и ВТБ. Образование: МИФИ ("Прикладная математика"), Executive MBA в Стокгольмской школе экономики. В 2020 основала Epsilon Metrics - российскую платформу геоаналитики с поддержкой искусственного интеллекта.

33 статей


AI-агенты и Agentic Reasoning: Не рассуждай, не хлопочи — AI-агенты рассуждают

За последние несколько лет большие языковые модели (LLM) и мультимодальные модели (LMM) стали основой множества ИИ-приложений. Сегодня быстро развивается новая парадигма — AI-агенты и агентное мышление, которые предлагают ещё более эффективные способы создания ИИ-приложений. Неструктурированные данные — текст, изображения, видео и аудио — становятся важнейшим ресурсом, и AI-агенты уже показывают, как с ними работать проще и быстрее. Эти технологии не просто анализируют данные, а позволяют разрабатывать приложения, которые раньше казались невозможными. В статье мы разбираем, как AI-агенты меняют подход к разработке, как они работают с данными и почему растёт их влияние на автоматизацию.

Graph RAG: как RAG, только c графом знаний

Графы знаний отлично отражают взаимосвязи и контекст данных, что делает их идеальным дополнением к технологиям Retrieval-Augmented Generation (RAG). В этой статье мы разберём, как технология Graph RAG объединяет сильные стороны графов знаний и RAG, улучшает точность ответов и ускоряет разработку AI-приложений. Рассмотрим, где Graph RAG приносит наибольшую пользу и как внедрить эту технологию для улучшения контекста, который вы передаёте большим языковым моделям (LLM).

AI-агенты на основе LLM и мультиагентные системы

Текущие LLM генерируют текст или выполняют задачи только по запросу, но с появлением AI-агентов всё меняется. К 2028 году 33% корпоративного ПО будут использовать AI-агентов. AI-агенты не требуют явных запросов и не выдают предопределённые результаты. Вместо этого они принимают инструкции, самостоятельно строят планы, используют инструменты для их выполнения и адаптируются к изменениям. 

От слов к векторам: как эмбеддинги помогают моделям понимать нас

Эмбеддинги помогают преобразовать текст в векторы, что позволяет большим языковым моделям (LLM) понимать контекст и давать точные ответы. Они служат «языком», на котором модели «общаются» с нами. Разобравшись, как работают эмбеддинги, можно использовать LLM для решения бизнес-задач.

Извлечение данных: определение, принцип работы и примеры

Извлечение данных — это первый этап в процессе ETL (Extract, Transform, Load), который помогает превратить разрозненные данные из различных источников в ценный ресурс для анализа и ИИ-приложений. Разберёмся, почему извлечение данных играет ключевую роль, как оно работает для различных типов данных, и какие инструменты помогают его автоматизировать.

Мультимодальные RAG и VLM против OCR + LLM: Как откровенно поговорить с вашими PDF?

Представьте, что вы можете просто «поговорить» с документом. Именно это делают ИИ-приложения типа «Talk to your PDF» (или «Chat with your docs») — загружаете PDF или другой документ, задаёте вопросы по его содержимому и получаете ответы. Эта возможность ИИ стала одной из самых востребованных для тех, кто работает с многостраничными документами. Однако есть одно «но»:… Читать далее Мультимодальные RAG и VLM против OCR + LLM: Как откровенно поговорить с вашими PDF?

Что такое консолидация данных и как она работает: 7 советов и примеры

Консолидация данных — это шаг к получению целостного представления о бизнесе. Расскажем, как и зачем консолидировать данные из разных источников, какие методы и инструменты помогут упростить этот процесс, а также поделимся практическими советами и реальными примерами. Покажем, как правильно организовать процессы консолидации, чтобы ускорить аналитику и оптимизировать работу с машинным обучением.

Serverless-решения для LLM-приложений: 5 шаблонов и примеры

Рассмотрим, как работать с LLM в serverless средах при создании LLM-приложений. На примерах разберём архитектурные шаблоны, такие как последовательная и параллельная обработка промптов, использование кэша и обработка ошибок, которые помогают оптимизировать производительность и снизить затраты на управление LLM-приложениями.

No-code конвейеры помогут внедрить genAI и ML, даже если кажется, что вы пока не готовы

Рассмотрим, как использование no-code конвейеров данных помогает компаниям упростить и ускорить внедрение генеративного искусственного интеллекта (genAI — generative artifitial intelligence) и машинного обучения (ML). Как автоматизировать процессы подготовки, интеграции и анализа данных без необходимости программирования, что делает технологии машинного обучения и ИИ доступными для бизнеса любого масштаба и уровня технической подготовки.