Introducción a LLMs y Agentes con Python: posibilidades, límites y frameworks. Imagen tecnológica para curso de introducción a LLMs y agentes con Python, frameworks de agentes, orquestación, prompts, herramientas, RAG, APIs, automatización

Introducción a LLMs y Agentes con Python: posibilidades, límites y frameworks

Introducción

Este curso ofrece una visión completa y actualizada del ecosistema de modelos de lenguaje (LLMs) y agentes inteligentes en Python, pensado para perfiles técnicos que necesiten comprender las capacidades reales, los límites y las herramientas disponibles para desarrollar soluciones basadas en IA generativa.

Durante 20 horas de formación en directo (streaming), los participantes explorarán los fundamentos teóricos de los LLMs —cómo funcionan, qué problemas resuelven y cuáles son sus limitaciones— y aprenderán los principales enfoques de ampliación y personalización de modelos, como RAG (Retrieval-Augmented Generation) y Fine-Tuning.

El curso también introduce el paradigma de los agentes de IA y los sistemas multiagente, explicando su arquitectura, ciclo de razonamiento y acción, y sus aplicaciones reales en automatización, asistencia inteligente y toma de decisiones.

Una parte clave de la formación es la comparativa práctica entre los frameworks más utilizados en Python:

  • OpenAI SDK, para desarrollo directo y controlado de modelos.
  • LangChain, para construcción modular de cadenas y agentes complejos.
  • LangGraph, como evolución orientada a grafos con control preciso de estado y flujo.

A lo largo de las sesiones se combinarán explicaciones teóricas, ejemplos de código, demostraciones prácticas y análisis crítico de casos reales, con el objetivo de que los participantes puedan tomar decisiones informadas sobre qué tipo de arquitectura y framework utilizar en sus propios proyectos de IA generativa.

 

Objetivos del curso

  • Entender la arquitectura y funcionamiento de los LLMs (transformers, atención, contexto, tokenización).
  • Analizar limitaciones de los LLMs (contexto, costos, alucinaciones, latencia).
  • Comprender y comparar técnicas de RAG (retrieval-augmented generation) y su papel en aplicaciones útiles.
  • Revisar qué implica hacer fine-tuning (adaptación de modelo) frente a usar modelos en “modo prompt”.
  • Introducir el concepto de agentes (agentic AI): definición, ciclo de pensamiento / acción / observación, memoria, herramientas.
  • Explorar la extensión al paradigma multiagente, coordinación y delegación entre agentes.
  • Comparar los principales frameworks en Python (OpenAI SDK puro, LangChain, LangGraph): capacidades, ventajas, desventajas, casos de uso ideales.
  • Mostrar ejemplos prácticos en cada framework, incluyendo prototipos funcionales.
  • Evaluar escenarios reales: qué tipo de agente tiene sentido, cuándo no usar agente, cuándo quedarse con enfoque clásico con LLM.
  • Discusión de riesgos, mantenimiento, escalabilidad y arquitectura de sistema generativo con agentes.

 

Índice de Contenidos

  1. Fundamentos de LLMs
    • Arquitectura transformer: atención, capas, embeddings
    • Contexto máximo, token ventanas, costos por token
    • Problemas clásicos: alucinaciones, incoherencias, sesgos
  2. RAG (Retrieval-Augmented Generation)
    • Motivación: superar limitaciones de conocimiento fijo
    • Diseño de sistemas de recuperación + generación
    • Índices vectoriales, embeddings, motores de búsqueda
    • Estrategias de fusión entre recuperación y generación
    • Limitaciones prácticas y coste
  3. Fine-Tuning / Adaptación de modelo
    • Qué es fine-tuning, diferencias frente a prompt engineering
    • Métodos: LoRA, adaptadores, full fine-tuning
    • Ventajas y desventajas (coste, mantenimiento, overfitting)
    • Casos de uso reales y ejemplos
  4. Introducción a agentes (agentic AI)
    • Definición de agente frente a modelo conversacional
    • Ciclo agente: pensar, actuar, observar
    • Conceptos de memoria, seguimiento de contexto, herramienta (“tool”)
    • Patrones clásicos: ReAct, plan + execute
  5. Multiagentes y coordinación
    • Escenarios de múltiples agentes colaborando
    • Delegación de tareas, comunicación entre agentes
    • Supervisión, orquestadores, fallback agents
  6. Framework de base: OpenAI SDK puro en Python
    • Cómo llamar modelos de lenguaje, embeddings
    • Estrategias para componer funciones que actúan como agente
    • Limitaciones al gestionar estado complejo, herramientas
  7. Framework LangChain
    • Principios y arquitectura de LangChain (cadenas, agentes, memoria)
    • Ventajas: modularidad, ecosistema de integraciones
    • Ejemplos de agentes construidos con LangChain
    • Casos en los que LangChain es más idóneo
  8. Framework LangGraph
    • Qué es LangGraph: orquestación basada en grafos, estado y control de flujo
    • Comparativa con LangChain: enfoque visual, control, casos de uso más adecuados
    • Ejemplo práctico de agente con LangGraph
    • Cuándo conviene usar LangGraph frente a otras opciones
  9. Comparativas y decisiones arquitectónicas
    • Tabla comparativa: capacidades, complejidad, mantenimiento, escalabilidad
    • Criterios de selección de framework según escenario (prototipo, producto, mantenimiento)
    • Riesgos operativos (costes, errores, latencias, consistencia)
  10. Cierre, casos de estudio y discusión
    • Presentación de casos reales (por ejemplo proyectos de agentes generativos)
    • Discusión: qué proyectos podrían hacerse, cuáles son inviables con agentes
    • Agenda de hitos futuros en el ecosistema agentic AI
    • Recomendaciones para comenzar un piloto

Detalles del Curso

  • Presencial o Streaming en directo
  • Sesiones sincrónicas (vídeo + codificación en directo)
  • Contacta con nosotros para conocer tus necesidades formativas

Requisitos

  • Dominio intermedio/avanzado de Python (estructuras de datos, funciones, módulos, manejo de APIs).
  • Familiaridad con conceptos básicos de redes, HTTP, JSON, APIs REST.
  • Conocimiento básico de modelos de lenguaje (prompts, embeddings) será una ventaja, pero no obligatorio.
  • Entorno de desarrollo (VSCode, PyCharm u otro) con acceso a la terminal.
  • Acceso a claves de API de algún proveedor de LLM (OpenAI, o modelo local) para ejercicios prácticos.
  • Conexión estable a Internet durante sesiones.

Alumnado

  • Desarrolladores y programadores Python que quieran integrar LLMs en aplicaciones reales.
  • Ingenieros de software interesados en arquitecturas modernas basadas en IA generativa.
  • Científicos de datos y perfiles de IA/ML que deseen ampliar conocimientos hacia sistemas de agentes y RAG.
  • Arquitectos tecnológicos que necesiten evaluar frameworks y enfoques para soluciones basadas en LLMs.
  • Consultores tecnológicos que quieran comprender capacidades, límites y casos de uso reales de IA generativa.
  • Equipos de innovación y transformación digital dentro de empresas tecnológicas.