AI at Work Insights
La brecha de gobernanza: lo que los líderes se equivocan sobre la AI en el trabajo
La mayoría de las conversaciones sobre gobernanza de AI ocurren en el nivel equivocado. Los consejos directivos quieren una política. El área legal quiere un proceso de revisión. Pero los fallos reales de gobernanza en el uso de AI en el trabajo no están ocurriendo en las salas de juntas. Están ocurriendo cuando un rep pega el historial de deals de un cliente en ChatGPT, cuando un manager usa análisis de desempeño generado por AI sin decírselo a la persona evaluada, y cuando nadie ha decidido qué decisiones de AI requieren la firma de un humano.
La brecha no es de políticas. Es de comportamiento y estructura. Y las empresas que están construyendo sistemas de gobernanza reales han entendido algo que los que priorizan las políticas no han captado: no se puede gobernar un comportamiento que se pretende que no está ocurriendo.
Tres fallos que ya están ocurriendo en su empresa
Antes de construir cualquier estructura de gobernanza, conviene ser honesto sobre los fallos que ya están en marcha. En empresas que no han abordado explícitamente la gobernanza de AI, estos tres aparecen casi de manera universal.
Fallo 1: Fuga de datos a través de herramientas de AI de consumo. El problema más común y menos discutido. Los empleados están usando ChatGPT, Claude, Gemini y una docena de otras herramientas de AI de consumo para hacer su trabajo. Algo de esto es productividad inocua. Parte de ello implica pegar datos de clientes, proyecciones financieras internas, términos contractuales o información de empleados en herramientas cuyos políticas de manejo y retención de datos se rigen por términos de servicio para consumidores, no por acuerdos de datos empresariales. El Microsoft 2024 Work Trend Index encontró que el 78% de los usuarios de AI en el trabajo llevan sus propias herramientas de AI, herramientas que la empresa nunca aprobó ni evaluó en términos de riesgo de datos.
Un rep que pega tres años del historial de deals de un cliente en ChatGPT para obtener una estrategia de negociación no está siendo descuidado a propósito. Está resolviendo un problema real con la herramienta más conveniente disponible. El fallo es estructural: la empresa nunca le dijo qué era aceptable, nunca proporcionó una alternativa aprobada y nunca creó una razón para pensarlo dos veces. Los riesgos aquí van más allá de la reputación: la ética de la AI y la privacidad de datos cubre por qué las herramientas de consumo crean una exposición legal real cuando se usan con datos empresariales de clientes.
Salesforce Einstein y HubSpot AI operan bajo acuerdos de datos empresariales que la mayoría de los empleados no saben que existen. La distinción entre "función de AI dentro de su CRM contratado" y "herramienta de AI en una pestaña del navegador de consumo" es real, pero es invisible para la persona que hace el trabajo a menos que alguien la haga visible.
Fallo 2: Confusión de autoridad entre el output de la AI y la decisión de la AI. Este es el que crea los problemas más costosos downstream. El output de la AI es información. Una decisión de la AI es una acción tomada o una recomendación aceptada sin revisión independiente. La mayoría de las organizaciones no han definido qué decisiones requieren juicio humano, cuáles pueden acelerarse con el output de la AI y cuáles pueden tomarse de manera autónoma por la AI dentro de parámetros definidos.
Cuando un manager usa puntuaciones de desempeño generadas por AI de una herramienta de productividad para tomar una decisión de compensación o promoción sin revelar que la AI contribuyó a la evaluación, eso no es solo una brecha de política. Es una potencial exposición laboral en varias jurisdicciones y un problema de confianza con el equipo cuando salga a la luz. La investigación de Stanford HAI sobre AI en el lugar de trabajo documenta la creciente brecha entre la rapidez con que los empleados adoptan herramientas de AI y la lentitud con que las organizaciones establecen marcos de gobernanza para gestionar esa adopción. Regulaciones como la Ley de AI de la UE ya están imponiendo requisitos de divulgación y auditoría exactamente en este tipo de decisiones de AI de alto riesgo; vale la pena revisar las implicaciones estratégicas para el CEO de la Ley de AI de la UE antes de su próximo ciclo de evaluación de desempeño.
La confusión de autoridad se agrava por cómo las funciones de AI se integran en las herramientas existentes. HubSpot AI puede puntuar la preparación de un prospecto sin que el rep se dé cuenta de que la puntuación es generada por AI. Cuando los reps actúan sobre esas puntuaciones como si fueran hechos, han delegado una decisión de criterio a un modelo que nunca han evaluado. Eso es una decisión, no solo asistencia.
Fallo 3: El problema de adopción invisible. Los equipos de liderazgo subestiman consistentemente cuán extensamente la AI ya está integrada en los flujos de trabajo diarios. En la mayoría de las empresas, cuando finalmente ocurre una discusión formal sobre política de AI a nivel ejecutivo, entre el 40 y el 60% de los empleados ya están usando herramientas de AI diariamente, muchas de ellas herramientas que la empresa no ha aprobado ni catalogado.
Esto crea un dilema de gobernanza: no se pueden construir barreras efectivas alrededor de un comportamiento que no se sabe que existe. Y una política que llega después del hecho, prohibiendo o restringiendo herramientas que las personas ya han integrado en sus flujos de trabajo, genera resentimiento en lugar de cumplimiento.
La versión productiva de la auditoría de adopción invisible no es una amenaza. Es una encuesta y una conversación. "¿Qué herramientas de AI estás usando, para qué las usas y qué necesitarías de la empresa para sentirte seguro usándolas de manera apropiada?" Esa conversación genera el mapa real del desafío de gobernanza.
Por qué fallan las políticas de AI
La respuesta organizacional estándar a un desafío de gobernanza de AI es escribir una política. La política recibe revisión legal, es aprobada por el equipo ejecutivo, se publica en la intranet y luego no tiene ningún efecto medible en el comportamiento.
Las políticas fallan porque describen el comportamiento aceptable e inaceptable en términos abstractos pero no cambian las condiciones que producen el comportamiento. Una política que dice "no pegues datos de clientes en herramientas de AI externas" no resuelve el problema si no existe una herramienta de AI interna aprobada para la tarea que el empleado está tratando de realizar. El rep pegará los datos de todas formas, ahora con una probabilidad ligeramente menor de hacerlo frente a un manager.
Un sistema de gobernanza es diferente de un documento de política en cuatro aspectos:
Proporciona alternativas aprobadas, no solo prohibiciones. Si pegar datos de clientes en ChatGPT está prohibido, debe haber una forma aprobada de realizar la tarea subyacente. De lo contrario, la prohibición agrega fricción, no resuelve el problema.
Define los derechos de decisión explícitamente. ¿Quién puede aprobar una nueva herramienta de AI para uso del equipo? ¿Quién decide qué decisiones de AI requieren revisión humana? ¿Quién posee la función de gobernanza de AI? Sin derechos de decisión claros, la gobernanza es consultiva.
Crea responsabilidad ligera sin burocracia. Los buenos sistemas de gobernanza tienen una manera de señalar preocupaciones y reportar situaciones ambiguas sin requerir un informe formal de incidentes. Un canal de Slack que monitorea una persona designada es más efectivo que un portal de cumplimiento.
Evoluciona a medida que las herramientas evolucionan. Un documento de gobernanza de AI de hace 18 meses casi con certeza no cubre las capacidades que ahora existen en las herramientas que usa su equipo. La revisión trimestral es la cadencia mínima.
La pregunta sobre el humano en el bucle
La pregunta de gobernanza técnicamente más compleja no es sobre datos. Es sobre autoridad de decisión: ¿qué decisiones de AI requieren que un humano revise, apruebe o anule?
La respuesta honesta depende de las apuestas y la reversibilidad. Una decisión tiene altas apuestas si equivocarse causa un daño material: pérdida financiera, exposición legal, daño a relaciones, impacto en la seguridad. Una decisión es irreversible si corregirla después del hecho es costoso o imposible.
Las decisiones de altas apuestas e irreversibles siempre deben tener un humano en el bucle. Declinar automáticamente una solicitud de crédito, rescindir un contrato de cliente, enviar una campaña de outreach masiva, despedir a un empleado basándose en datos de productividad generados por AI: todo esto requiere revisión humana antes de la acción, no solo después. La guía de Anthropic sobre despliegue responsable de AI enmarca esto como un principio central: los sistemas de AI que operan en dominios de alto riesgo requieren arquitecturas de supervisión humana proporcionales a la gravedad de los posibles errores.
Pero aquí es donde la mayoría de los marcos de gobernanza fallan: definen la necesidad de revisión humana sin hacer que la revisión sea fácil de realizar. Si revisar una recomendación de AI tarda 15 minutos y requiere navegar por tres sistemas, las personas omitirán la revisión y aprobarán el output. Un diseño de gobernanza efectivo hace que la anulación humana sea el camino de menor resistencia, no el desvío burocrático.
Para la AI integrada en CRM específicamente (la puntuación de deals de Salesforce Einstein, las funciones predictivas de contactos de HubSpot, las recomendaciones de pipeline de Zoho Zia), la pregunta de gobernanza es: ¿sus líderes de ventas están tratando estos outputs como puntos de datos o como decisiones? Construir una cultura de higiene del pipeline donde los reps y managers traten los outputs del modelo con escepticismo es la base de comportamiento que hace que la capa de gobernanza realmente funcione.
La capa de gobernanza mínima viable
Una empresa SaaS de 200 personas no necesita un comité de gobernanza, una junta de revisión ética ni un oficial de política de AI dedicado. Lo que necesita es un conjunto de acuerdos operativos, un propietario claro y una estructura ligera de responsabilidad.
Así es como se ve en la práctica:
Un registro de herramientas de AI. Una lista simple de herramientas de AI aprobadas, sus casos de uso aprobados y su nivel de manejo de datos (puede manejar datos de clientes / no puede manejar datos de clientes / necesita aprobación caso por caso). Esto tarda aproximadamente dos horas en construirse y reduce significativamente el problema de adopción invisible. Cuando los empleados saben qué herramientas están aprobadas y para qué, toman mejores decisiones. Una referencia de seguridad y cumplimiento de AI es útil al clasificar herramientas por nivel de datos: cubre las preguntas que hacer a los proveedores sobre residencia y retención de datos antes de agregar una herramienta a su registro.
Mapeo de derechos de decisión. Una página que responde: ¿qué outputs de AI requieren revisión humana antes de la acción? ¿Quién aprueba nuevas herramientas de AI para uso del equipo? ¿Quién posee el proceso de gobernanza? No necesita ser exhaustivo desde el primer día. Necesita ser lo suficientemente específico para que las situaciones ambiguas más comunes se resuelvan sin escalada.
Normas de divulgación. Un acuerdo de que cuando la AI contribuyó de manera significativa a una decisión (una recomendación de contratación, una evaluación de desempeño, una propuesta importante), esa contribución se divulga. No porque invalide la decisión, sino porque cambia cómo el receptor puede evaluarla. Esto es un acuerdo de comportamiento, no un documento de política, y debe ser modelado primero por el liderazgo.
Un camino de escalada ligero. Una persona (típicamente un líder de operaciones o de personas) que es el punto de contacto designado para las preguntas de gobernanza de AI. No un comité formal. Solo una persona con la autoridad para tomar una decisión cuando surge algo ambiguo, y la expectativa de que lo hará rápidamente.
El Scorecard de Preparación para Gobernanza de AI
Califique su organización del 1 al 5 en cada una de estas cinco dimensiones operativas para identificar dónde son mayores las brechas de gobernanza:
Claridad en el manejo de datos (1–5). ¿Saben los empleados qué categorías de datos pueden usarse con herramientas de AI externas? ¿Existe una lista documentada de herramientas aprobadas y su nivel de datos?
Responsabilidad de decisiones (1–5). ¿Ha mapeado qué decisiones asistidas por AI requieren revisión humana? ¿Están documentados los derechos de decisión y los conocen las personas que toman esas decisiones?
Conciencia de los empleados (1–5). ¿Los empleados conocen cuáles son las normas de gobernanza de AI? ¿Fueron capacitados, no solo notificados?
Diseño de anulación (1–5). ¿Es fácil para los empleados desafiar o anular un output de AI? ¿El flujo de trabajo hace que la revisión sea el defecto, no la excepción?
Pista de auditoría (1–5). ¿Puede reconstruir qué herramientas de AI se usaron en una decisión si lo necesitara? ¿Hay registro suficiente para abordar una consulta de cumplimiento?
Una puntuación de 20 a 25 indica una base de gobernanza madura. 10 a 15 indica las brechas que con mayor probabilidad causarán un problema material en los próximos 12 meses. Por debajo de 10 significa que el problema de adopción invisible es casi con certeza mayor de lo que el liderazgo cree.
Una agenda para un taller de 90 minutos
Si desea producir un acuerdo operativo real de gobernanza de AI con su equipo de liderazgo en lugar de otro documento de política, aquí hay una estructura de taller que funciona:
Minutos 0–20: Descubra el uso real. Comience con lo que está ocurriendo, no con lo que debería ocurrir. Pida a cada líder que comparta dos herramientas de AI que su equipo está usando y para qué. Sin juicios, solo mapeo. Esta es la auditoría de adopción invisible en acción.
Minutos 20–40: Mapee las apuestas. Trabaje en la pregunta sobre los derechos de decisión. ¿Qué decisiones de AI en su organización son de alto riesgo e irreversibles? Use el marco de apuestas/reversibilidad para categorizarlas. Esta conversación produce los requisitos del humano en el bucle sin necesitar un consultor de gobernanza.
Minutos 40–60: Construya el registro de herramientas. Como grupo, clasifique las herramientas surgidas en el primer segmento: aprobadas, necesitan revisión, no aprobadas. Asigne niveles de datos. Esto tarda más de 20 minutos si la lista es larga, pero el output (un registro real) vale la pena.
Minutos 60–80: Asigne derechos de decisión. ¿Quién posee la función de gobernanza? ¿Quién aprueba nuevas herramientas? ¿Quién maneja las escaladas? Sea específico con nombres, no solo con roles. Los acuerdos con nombres adjuntos se hacen seguimiento.
Minutos 80–90: Defina las normas de divulgación. Acuerde cuándo la contribución de la AI a una decisión debe divulgarse y a quién. Estos son a menudo los 10 minutos más útiles del taller porque obliga al equipo de liderazgo a ser explícito sobre algo que ha sido implícitamente variable.
El output es un acuerdo operativo de una página, no un documento de política de 20 páginas. Responde las preguntas que los empleados realmente enfrentan. Y porque fue construido a través de conversación en lugar de redactado por el área legal, refleja la realidad operacional real de cómo se está usando la AI.
Esa es la diferencia entre la gobernanza como teatro y la gobernanza como sistema.
