Riesgo regulatorio
Sanciones del AI Act, GDPR y normativa sectorial aplicadas en cascada.
Auditoría técnica independiente para empresas que ya tienen sistemas de IA en producción. Revisamos modelos, datos y procesos, clasificamos el riesgo regulatorio y entregamos un informe ejecutivo con plan de remediación.
La mayoría de empresas no pueden demostrar, hoy, cómo se entrenó un modelo, qué datos contiene, qué decisiones toma ni cómo se mitigan sus errores. Esto se traduce en exposición legal, fricción comercial y pérdida de contratos.
Sanciones del AI Act, GDPR y normativa sectorial aplicadas en cascada.
Modelos que afectan a personas sin evaluación formal de equidad.
Datasets, versiones y decisiones de entrenamiento sin registro auditable.
Sin ficha técnica, sin evaluación de impacto, sin política de uso.
Prompt injection, fuga de datos, dependencias opacas en proveedores.
Decisiones que la empresa no puede justificar ante un cliente o regulador.
Una semana. Precio fijo. Un equipo técnico revisa sus sistemas de IA como lo haría un auditor externo bajo el AI Act, y entrega evidencia que puede compartir con clientes, inversores y reguladores.
Marco de referencia: Reglamento (UE) 2024/1689 — AI Act — y las normas armonizadas en desarrollo bajo el propio reglamento. La metodología se actualiza conforme se publican las normas técnicas armonizadas oficiales.
Un documento estructurado que su equipo legal, técnico y comercial puede usar el mismo día que lo recibe. Pensado para soportar preguntas de clientes empresariales, due diligence y auditorías cruzadas.
Conclusiones, riesgos críticos y decisiones recomendadas.
Modelos propios, modelos de proveedores y usos internos de IA generativa.
Mapeo contra Anexo III del AI Act y categorías prohibidas.
Qué puede justificar la empresa ante un cliente o regulador.
Pruebas sobre grupos protegidos y subpoblaciones críticas.
Prompt injection, fuga de datos, dependencias en terceros.
Comparación contra los artefactos exigidos por el reglamento.
Escenarios concretos de sanción, contrato perdido o queja del usuario.
Acciones priorizadas por impacto, esfuerzo y plazo.
Métrica trazable para seguir progreso entre auditorías.
Identificamos sistemas, responsables y stakeholders. Firma de NDA y acceso seguro.
Inspeccionamos modelos, datos, pipelines, prompts y documentación existente.
Aplicamos el marco AI Act y normativa sectorial. Identificamos brechas críticas.
Entrega del informe ejecutivo y sesión con dirección, legal y tecnología.
Empieza por la evaluación. Las fases siguientes solo se contratan si tienen sentido para su organización.
desde 2.500 €
1 semana · hasta 3 sistemas
desde 10.000 €
4–8 semanas · proyecto a medida
a consultar
suscripción anual
27 controles concretos que debe poder evidenciar antes de que un cliente empresarial, un inversor o un regulador se los pida. PDF, en castellano, listo para circular internamente.
El AI Act exige revisar modelos, datos y pipelines. Eso lo hace alguien que ha construido sistemas en producción durante años, no un consultor generalista.
Auditor principal · Co-fundador y ex-CTO de MeetFox (adquirida por Brevo) · Engineering Manager en Brevo
Más de una década construyendo SaaS B2B en producción: arquitectura, datos, integración con sistemas empresariales y gestión de equipos de ingeniería. Master en Business Informatics por la TU Wien. Experiencia directa con los procesos de procurement, due diligence y cumplimiento que hoy se aplican a sistemas de IA.
Para cada auditoría se moviliza una red de colaboradores asociados con perfiles complementarios — asesoría jurídica especializada en protección de datos y AI Act, ingeniería de machine learning y seguridad ofensiva sobre modelos — según el alcance contratado. El auditor principal mantiene la responsabilidad sobre el informe firmado.
Perfil de LinkedIn →Plataforma de selección con cuatro sistemas de IA en producción (cribado de CVs, scoring de candidatos, parsing semántico y un chatbot conversacional). Mapeada como alto riesgo bajo el Anexo III del AI Act. Hallazgo principal: falta de trazabilidad en el entrenamiento — sin versionado de datasets ni registro auditable de decisiones de entrenamiento. Plan de remediación entregado y priorizado en una semana.
No. Complementa al asesor legal con la parte técnica que las firmas jurídicas no realizan: revisión de modelos, datos, pipelines, seguridad y documentación técnica.
El propio Reglamento (UE) 2024/1689 (AI Act) y las normas armonizadas que se están publicando bajo el reglamento. A medida que se aprueban estándares técnicos oficiales, la metodología se actualiza para reflejarlos.
Las prohibiciones aplican desde febrero de 2025. Las obligaciones para sistemas de alto riesgo aplican desde agosto de 2026. La preparación documental razonable empieza ya.
Sí, especialmente si venden a clientes empresariales o sector público, donde el procurement exige evidencias antes de firmar.
NDA antes de cualquier acceso, datos tratados en entornos controlados, mínimo privilegio y eliminación verificable al cierre del proyecto.
Sí. El informe se entrega firmado y con identificación del equipo auditor, listo para compartir con clientes, inversores o procurement.
30 minutos. Sin compromiso. Salimos con una primera idea de su exposición regulatoria y qué tendría sentido auditar primero.
¿Prefiere elegir hora directamente? Reservar en Calendly →