Plazo Ley 31814: Ver plazos →
Mandato Legal — Art. 1.2 DS 115-2025-PCM

AI Literacy & Human-in-the-Loop Training: El Mandato que No Puede Ignorar

La ley exige que toda persona que supervise un sistema de IA de alto riesgo esté "debidamente capacitada para detectar y corregir sesgos." No es una recomendación — es una obligación legal con plazo de cumplimiento.

¿Por Qué es un Requisito Legal y No Solo "Nice to Have"?

El Artículo 1.2 del DS 115-2025-PCM establece de forma explícita que los operadores de sistemas de IA de alto riesgo deben garantizar que el personal de supervisión esté capacitado para:

Detectar Sesgos Algorítmicos

Identificar cuándo un modelo de IA produce resultados discriminatorios o injustos, especialmente en scoring crediticio, selección de personal o diagnóstico médico.

Corregir Desviaciones

Intervenir de manera efectiva cuando un sistema de IA se desvía de su comportamiento esperado, activando protocolos de escalamiento y corrección documentados.

Documentar Decisiones

Mantener un registro auditable de las intervenciones humanas sobre sistemas automatizados — evidencia crítica para inspecciones de la SGTD y auditorías regulatorias.

Programas de Capacitación por Nivel

Tres niveles diseñados para cubrir desde el directorio hasta los operadores técnicos de IA.

Nivel Ejecutivo

AI Governance para el C-Suite

1 día

Para directores y gerentes generales. Comprensión del marco regulatorio, responsabilidades legales, y cómo evaluar el riesgo de sus iniciativas de IA.

  • Panorama regulatorio: Ley 31814 + DS 115-2025-PCM
  • Responsabilidad legal del directorio en IA
  • Framework de toma de decisiones sobre IA
  • Casos reales de sanciones por IA no gobernada
Nivel Gerencial

Supervisión de Sistemas de IA

2-3 días

Para gerentes de área, compliance officers y data owners. Habilidades prácticas de supervisión "Human-in-the-Loop" para sistemas en producción.

  • Protocolos de intervención humana
  • Lectura de reportes de sesgo y drift
  • Escalamiento de incidentes de IA
  • Documentación para auditorías regulatorias
Nivel Técnico

Operación y Monitoreo de Modelos

3-5 días

Para científicos de datos, ingenieros de ML y equipos técnicos. Capacidades prácticas de detección de bias, drift y operación de guardrails éticos.

  • Métricas de fairness y detección de sesgo
  • Monitoreo de data drift y concept drift
  • Implementación de guardrails técnicos
  • Generación de Expedientes Técnicos para la SGTD

Capacitación Adaptada a su Industria

Farmacéutica (GxP)

Supervisión de IA en farmacovigilancia, filing regulatorio ante DIGEMID, y modelos predictivos en clinical data. Incluye casos de uso de agentes autónomos en entornos GxP donde el error es inaceptable.

  • IA en expedientes técnicos DIGEMID
  • Supervisión de agentes de farmacovigilancia
  • Trazabilidad de datos clínicos generados por IA

Financiero (SBS/SMV)

Supervisión de modelos de scoring crediticio, detección de fraude y agentes de cobranza empática. Cumplimiento con requisitos de SBS para explicabilidad algorítmica.

  • Sesgo en scoring crediticio y su impacto legal
  • Supervisión de agentes KYC/AML automatizados
  • Explicabilidad de decisiones automatizadas para clientes

Certificación Interna de Supervisores de IA

Un programa de certificación recurrente que demuestra cumplimiento con el mandato del DS 115-2025-PCM y genera evidencia auditable.

1
Diagnóstico

Evaluación de Conocimiento Base

Diagnóstico del nivel actual de comprensión de IA, riesgos algorítmicos y marco regulatorio en su equipo.

2
Formación

Programa de Capacitación Personalizado

Talleres presenciales (Lima) o virtuales con casos de uso de su propia industria y sistemas de IA.

3
Certificación

Evaluación y Certificación

Examen práctico con escenarios reales. Los aprobados reciben certificación interna con validez anual.

4
Anual

Recertificación Anual

Actualización con nuevos requisitos regulatorios, nuevos tipos de sesgo, y evolución del panorama de IA. Ingreso recurrente para su organización y para nosotros.

Servicios Relacionados

La capacitación es más efectiva cuando se combina con auditoría y monitoreo continuo.

Ley 31814

Evaluación de Impacto IA

Informe formal de evaluación de impacto para sistemas de IA de alto riesgo según Ley 31814 y DS 115-2025-PCM.

Ver Servicio →
DS 115-2025-PCM

Auditoría IA & Compliance

Auditoría estratégica de gobernanza de IA y cumplimiento normativo para sectores de alto riesgo en Perú.

Ver Servicio →
Retainer

Monitoreo Post-Deployment

Monitoreo continuo de modelos de IA en producción: detección de drift, vigilancia de sesgos y reportes mensuales de transparencia. Cumplimiento con la obligación de "vigilancia continua" del DS 115-2025-PCM.

Ver Servicio →

Disponible en

Preguntas Frecuentes

Sí. El Artículo 1.2 del DS 115-2025-PCM establece que el personal que supervise sistemas de IA de alto riesgo debe estar capacitado para detectar y corregir sesgos algorítmicos. Es una obligación legal, no una recomendación.

Ofrecemos tres niveles: Ejecutivo (1 día, para directores), Gerencial (2-3 días, para supervisores y compliance officers) y Técnico (3-5 días, para científicos de datos e ingenieros de ML).

Es una certificación interna que demuestra cumplimiento con el requisito del DS 115-2025-PCM. Genera evidencia auditable para inspecciones de la SGTD. La certificación requiere recertificación anual.

Sí. Tenemos módulos específicos para el sector financiero (SBS/SMV) y farmacéutico (DIGEMID/GxP), con casos de uso y escenarios reales de cada industria.

No Espere a que el Regulador le Exija la Evidencia

El plazo de cumplimiento del DS 115-2025-PCM vence en septiembre 2026. Capacite a su equipo ahora y tenga la documentación lista.

Solicitar Programa de Capacitación Ver Plazos de Cumplimiento