AI Literacy & Human-in-the-Loop Training: El Mandato que No Puede Ignorar
La ley exige que toda persona que supervise un sistema de IA de alto riesgo esté "debidamente capacitada para detectar y corregir sesgos." No es una recomendación — es una obligación legal con plazo de cumplimiento.
¿Por Qué es un Requisito Legal y No Solo "Nice to Have"?
El Artículo 1.2 del DS 115-2025-PCM establece de forma explícita que los operadores de sistemas de IA de alto riesgo deben garantizar que el personal de supervisión esté capacitado para:
Detectar Sesgos Algorítmicos
Identificar cuándo un modelo de IA produce resultados discriminatorios o injustos, especialmente en scoring crediticio, selección de personal o diagnóstico médico.
Corregir Desviaciones
Intervenir de manera efectiva cuando un sistema de IA se desvía de su comportamiento esperado, activando protocolos de escalamiento y corrección documentados.
Documentar Decisiones
Mantener un registro auditable de las intervenciones humanas sobre sistemas automatizados — evidencia crítica para inspecciones de la SGTD y auditorías regulatorias.
Programas de Capacitación por Nivel
Tres niveles diseñados para cubrir desde el directorio hasta los operadores técnicos de IA.
AI Governance para el C-Suite
Para directores y gerentes generales. Comprensión del marco regulatorio, responsabilidades legales, y cómo evaluar el riesgo de sus iniciativas de IA.
- Panorama regulatorio: Ley 31814 + DS 115-2025-PCM
- Responsabilidad legal del directorio en IA
- Framework de toma de decisiones sobre IA
- Casos reales de sanciones por IA no gobernada
Supervisión de Sistemas de IA
Para gerentes de área, compliance officers y data owners. Habilidades prácticas de supervisión "Human-in-the-Loop" para sistemas en producción.
- Protocolos de intervención humana
- Lectura de reportes de sesgo y drift
- Escalamiento de incidentes de IA
- Documentación para auditorías regulatorias
Operación y Monitoreo de Modelos
Para científicos de datos, ingenieros de ML y equipos técnicos. Capacidades prácticas de detección de bias, drift y operación de guardrails éticos.
- Métricas de fairness y detección de sesgo
- Monitoreo de data drift y concept drift
- Implementación de guardrails técnicos
- Generación de Expedientes Técnicos para la SGTD
Capacitación Adaptada a su Industria
Farmacéutica (GxP)
Supervisión de IA en farmacovigilancia, filing regulatorio ante DIGEMID, y modelos predictivos en clinical data. Incluye casos de uso de agentes autónomos en entornos GxP donde el error es inaceptable.
- IA en expedientes técnicos DIGEMID
- Supervisión de agentes de farmacovigilancia
- Trazabilidad de datos clínicos generados por IA
Financiero (SBS/SMV)
Supervisión de modelos de scoring crediticio, detección de fraude y agentes de cobranza empática. Cumplimiento con requisitos de SBS para explicabilidad algorítmica.
- Sesgo en scoring crediticio y su impacto legal
- Supervisión de agentes KYC/AML automatizados
- Explicabilidad de decisiones automatizadas para clientes
Certificación Interna de Supervisores de IA
Un programa de certificación recurrente que demuestra cumplimiento con el mandato del DS 115-2025-PCM y genera evidencia auditable.
Evaluación de Conocimiento Base
Diagnóstico del nivel actual de comprensión de IA, riesgos algorítmicos y marco regulatorio en su equipo.
Programa de Capacitación Personalizado
Talleres presenciales (Lima) o virtuales con casos de uso de su propia industria y sistemas de IA.
Evaluación y Certificación
Examen práctico con escenarios reales. Los aprobados reciben certificación interna con validez anual.
Recertificación Anual
Actualización con nuevos requisitos regulatorios, nuevos tipos de sesgo, y evolución del panorama de IA. Ingreso recurrente para su organización y para nosotros.
Servicios Relacionados
La capacitación es más efectiva cuando se combina con auditoría y monitoreo continuo.
Evaluación de Impacto IA
Informe formal de evaluación de impacto para sistemas de IA de alto riesgo según Ley 31814 y DS 115-2025-PCM.
Ver Servicio →Auditoría IA & Compliance
Auditoría estratégica de gobernanza de IA y cumplimiento normativo para sectores de alto riesgo en Perú.
Ver Servicio →Monitoreo Post-Deployment
Monitoreo continuo de modelos de IA en producción: detección de drift, vigilancia de sesgos y reportes mensuales de transparencia. Cumplimiento con la obligación de "vigilancia continua" del DS 115-2025-PCM.
Ver Servicio →Disponible en
Preguntas Frecuentes
Sí. El Artículo 1.2 del DS 115-2025-PCM establece que el personal que supervise sistemas de IA de alto riesgo debe estar capacitado para detectar y corregir sesgos algorítmicos. Es una obligación legal, no una recomendación.
Ofrecemos tres niveles: Ejecutivo (1 día, para directores), Gerencial (2-3 días, para supervisores y compliance officers) y Técnico (3-5 días, para científicos de datos e ingenieros de ML).
Es una certificación interna que demuestra cumplimiento con el requisito del DS 115-2025-PCM. Genera evidencia auditable para inspecciones de la SGTD. La certificación requiere recertificación anual.
Sí. Tenemos módulos específicos para el sector financiero (SBS/SMV) y farmacéutico (DIGEMID/GxP), con casos de uso y escenarios reales de cada industria.
No Espere a que el Regulador le Exija la Evidencia
El plazo de cumplimiento del DS 115-2025-PCM vence en septiembre 2026. Capacite a su equipo ahora y tenga la documentación lista.