Marco de gobernanza y gestión de la Inteligencia Artificial en la Universidad de Costa Rica

Banner horizontal de diseño minimalista con fondo blanco. En el lado derecho, destaca una flor estilizada con efecto tridimensional de papel recortado en tonos azul, turquesa y amarillo. Varios pétalos sueltos parecen flotar hacia la izquierda siguiendo ondas de color suaves, dejando un amplio espacio en blanco a la izquierda para texto.

El Marco de gobernanza y gestión de la Inteligencia Artificial en la Universidad de Costa Rica surge como una respuesta institucional ética y humanista para orientar la integración de la IA en la docencia, investigación, acción social y administración. Su objetivo principal es aprovechar el potencial transformador de estas tecnologías —como la personalización del aprendizaje y la optimización de la gestión—, siempre bajo una integración regulada y gradual que subordine la técnica a la autonomía humana y a los valores de la educación pública. Para ello, el Marco busca mitigar riesgos críticos como la discriminación algorítmica, la opacidad en la toma de decisiones, la deshumanización de los procesos educativos y la profundización de las brechas digitales.

La estrategia se organiza en cuatro pilares (gobernanza, alfabetización, infraestructura segura y transformación de procesos) y se fundamenta en diez principios rectores:

  1. Transparencia: Exige que los procesos, criterios y alcances del uso de la IA sean visibles y comprensibles para la comunidad.
  2. Rendición de cuentas: Impone la existencia de responsables identificables y mecanismos de trazabilidad, revisión y corrección de las soluciones tecnológicas.
  3. Equidad y no discriminación: Obliga a prevenir sesgos algorítmicos y evitar que la tecnología reproduzca o profundice desigualdades estructurales.
  4. Respeto a los derechos humanos: Establece un límite irrenunciable para cualquier implementación, asegurando la dignidad de las personas.
  5. Integridad académica: Preserva la honestidad en el trabajo intelectual, la originalidad y la justicia en los procesos de enseñanza y aprendizaje.
  6. Honestidad intelectual: Demanda un juicio crítico constante, la verificación de resultados y el reconocimiento explícito de las limitaciones de la IA.
  7. Protección de datos personales: Se orienta a resguardar la privacidad y asegurar un tratamiento legítimo y seguro de la información.
  8. Preservación de la autonomía humana: Reafirma que las decisiones sustantivas y el discernimiento final deben permanecer siempre bajo control humano.
  9. Sustentabilidad: Llama a valorar y mitigar los impactos sociales, culturales y ambientales derivados del desarrollo y uso de la IA.
  10. Impacto social positivo: Orienta la tecnología hacia la generación de beneficios verificables, la ampliación de capacidades y el fortalecimiento del bien común.

Finalmente, establece un modelo de implementación que exige evaluaciones previas, validaciones éticas proporcionales al riesgo y un monitoreo continuo para asegurar que cualquier herramienta, propia o de terceros, contribuya al bien común universitario.