El avance de la IA en la educación superior ya no es una promesa futura: está ocurriendo hoy. Desde sistemas de admisión predictiva hasta herramientas generativas utilizadas en clases y en investigación, las tecnologías basadas en IA están transformando múltiples áreas de las instituciones. Pero ese avance ha sido, en muchos casos, desordenado y sin una guía ética clara.

Por eso, un grupo de expertos convocado por EDUCAUSE publicó un nuevo marco de principios éticos para ordenar y guiar esta integración. Titulado AI Ethical Guidelines, el documento fue elaborado por profesionales de distintas universidades estadounidenses y se inspira en el histórico Informe Belmont (1979), que definió los principios éticos para la investigación con seres humanos. Ahora, ese mismo espíritu se traslada a la IA.

Un debate urgente y transversal

“La pregunta ya no es si vamos a usar inteligencia artificial, sino cómo lo haremos de forma responsable y alineada con los valores académicos”, afirman los autores Maya Georgieva (The New School) y John Stuart (Florida International University), en diálogo con EDUCAUSE Review.

El documento subraya que el impacto de la IA es mucho más que técnico: es cultural, institucional y ético. Y que muchas universidades la están adoptando de forma reactiva o fragmentada, sin una mirada estratégica.

Esto puede acentuar desigualdades, incorporar sesgos en decisiones clave como las admisiones, erosionar la autonomía docente o diluir la transparencia en procesos académicos.

Ocho principios para una integración responsable

El marco ético propone una guía práctica para que las instituciones de educación superior puedan alinear el uso de IA con su misión académica. Los ocho principios son:

  • Beneficencia: maximizar los beneficios de la IA y minimizar sus posibles daños.
  • Justicia: garantizar un acceso equitativo y evitar que la tecnología profundice desigualdades.
  • Autonomía: permitir que estudiantes y docentes elijan cómo interactuar con herramientas basadas en IA.
  • Transparencia y explicabilidad: asegurar que los sistemas sean comprensibles y auditables.
  • Responsabilidad: definir quién toma decisiones y quién responde por los errores.
  • Privacidad y protección de datos: gestionar los datos sensibles con criterios éticos, no solo legales.
  • No discriminación y equidad: mitigar sesgos en los algoritmos y considerar impactos diferenciales por contexto o identidad.
  • Evaluación de riesgos y beneficios: analizar los efectos a largo plazo de cada implementación tecnológica.

Además, se plantea la necesidad de crear comités éticos institucionales de IA, similares a los comités de ética en investigación, para que cada universidad cuente con una instancia formal de evaluación y seguimiento.

Más allá del cumplimiento: la ética como diseño

Uno de los aportes clave del documento es su carácter pragmático: ofrece ejemplos concretos sobre cómo aplicar estos principios en áreas como enseñanza, evaluación, asesoría académica, admisiones y gestión institucional. Y se distancia de los enfoques meramente normativos o técnicos, al entender que la ética no es un límite a la innovación, sino su fundamento.

También propone un enfoque participativo: el uso de IA debe ser debatido y definido junto a estudiantes, docentes, diseñadores instruccionales, directivos y personal técnico. La confianza, señalan los autores, no se construye solo con buenas intenciones, sino con procesos transparentes y compartidos.


Podría interesarte:

Más del 70% del contenido académico será generado con IA en 2028