Universidad

Guía para directores: Consejos sobre el uso de la IA en empresas

Inteligencia Artificial

Redacción | Lunes 15 de septiembre de 2025

Directores deben ser cautelosos al usar herramientas de IA, evitando compartir información confidencial y asegurándose de que los datos no sean accesibles a terceros, para proteger los intereses corporativos.



Guía para Directores: Uso Responsable de la IA

El uso de la inteligencia artificial (IA) en el ámbito corporativo se ha convertido en una herramienta esencial, pero también presenta riesgos específicos que los directores deben considerar. **Los directores que utilizan IA para fines empresariales deben estar atentos a ciertos peligros inherentes a sus funciones**.

Una de las principales recomendaciones es evitar compartir información confidencial de la empresa con chatbots hasta que se confirme que el modelo de IA no entrenará con ese material ni lo hará accesible a empleados del chatbot. **Las conversaciones generadas por IA pueden ser objeto de escrutinio por parte de reguladores o adversarios legales**, lo que podría revelar información perjudicial para los intereses de la compañía.

Además, el uso de herramientas de grabación y transcripción basadas en IA puede exponer información sensible, haciéndola vulnerable a solicitudes de descubrimiento o similares.

Precauciones al Usar Herramientas de IA

A medida que los chatbots y herramientas de IA transforman las operaciones comerciales, desde la estrategia hasta la optimización de flujos de trabajo, es crucial que los directores reflexionen sobre su propio uso. **Es tentador subir materiales del consejo antes de una reunión y solicitar un resumen mediante IA**, pero esto debe hacerse con precaución. La información personal, secretos comerciales u otros datos confidenciales solo deben ser analizados con herramientas validadas por el equipo interno de TI.

Al introducir materiales confidenciales en un chatbot público, existe el riesgo de que dicha información sea accesible para personal del proveedor de IA, incluso incorporándose en salidas para otros usuarios, incluyendo competidores. Por ello, es recomendable utilizar únicamente insumos públicos y no confidenciales al emplear herramientas públicas de IA.

Esto puede ser útil para analizar tendencias industriales disponibles públicamente o generar resúmenes financieros sin comprometer la seguridad empresarial.

La Descubribilidad de Chats Generados por IA

Es fundamental recordar que los chats generados por IA pueden ser descubiertos legalmente. Al igual que correos electrónicos y otros registros, estos chats podrían caer en manos equivocadas si son solicitados por reguladores o adversarios legales. **Incluso si ya no tienes acceso a tu historial con un chatbot**, el proveedor podría estar obligado a presentar dicha información ante un tribunal.

Por ejemplo, en caso de una adquisición significativa, los reguladores antimonopolio podrían considerar que el contenido generado por IA relacionado con competencia o mercados específicos es susceptible a descubrimiento.

Cuidado con las Grabaciones y Transcripciones

Aunque la IA puede ser útil para transcribir discusiones, **las herramientas de transcripción pueden retener datos sensibles**. Dada la naturaleza delicada de las reuniones del consejo y la importancia del registro preciso, permitir el acceso externo a estos diálogos puede acarrear riesgos legales significativos. Además, tales registros podrían ser descubiertos en litigios relacionados con accionistas u otras demandas.

Asimismo, se debe evitar usar servicios externos para grabar comunicaciones con asesores legales; esto podría resultar en la pérdida del privilegio abogado-cliente si esas comunicaciones son accesibles fuera de la empresa.

Verificación Necesaria en Salidas Generadas por IA

A pesar del avance tecnológico, **la tendencia de la IA a "alucinar" hechos falsos es bien conocida**. No se debe asumir que toda información proporcionada es precisa solo porque parece correcta. Es esencial revisar las fuentes citadas por los modelos de IA para confirmar su fiabilidad y asegurar una interpretación adecuada.

Los modelos están limitados por sus datos y contexto; aunque son excelentes analizando patrones, pueden fallar al abordar condiciones del mercado sin precedentes o requisitos regulatorios emergentes. Por ejemplo, solicitar una evaluación sobre un objetivo adquisitivo basado únicamente en métricas financieras históricas podría llevar a respuestas imprecisas si el modelo solo tiene acceso a datos hasta 2023.

La IA como Complemento del Juicio Humano

La inteligencia artificial debe considerarse como una herramienta poderosa que apoya la toma de decisiones humanas pero no como un sustituto del juicio humano. Los chatbots son útiles para generar ideas y validar pensamientos; sin embargo, **no se deben delegar decisiones críticas sin supervisión humana**. Hacerlo podría violar deberes fiduciarios y tener implicaciones legales graves.

Dado lo anterior, es aconsejable que los consejos trabajen junto con la dirección para desarrollar políticas claras sobre el uso responsable de la IA en sus actividades corporativas.

TEMAS RELACIONADOS:


Noticias relacionadas