Por Matthew Connelly, nota de opinión publicada originalmente en The New York Times.
Como educadores, tenemos la obligación de defender, y hacer avanzar, la inteligencia humana. Para hacerlo, primero debemos reconocer que está bajo ataque. La ciencia ficción ha retratado durante mucho tiempo un futuro en el que la inteligencia artificial se vuelve tan poderosa que domina a la humanidad. En realidad, la batalla entre bots y cerebros ya ha comenzado, y los educadores pueden ver cómo podría terminar.
Los jóvenes se están volviendo tan dependientes de la IA que están perdiendo la capacidad de pensar por sí mismos. Y, en lugar de organizar resistencia, los administradores académicos están ayudando e instigando una toma hostil de la educación superior.
Con la esperanza de ganar reconocimiento como líderes en A.I., o por temor a quedarse atrás, cada vez más colegios y universidades se asocian con entusiasmo con empresas de A.I., a pesar de décadas de evidencia que demuestra la necesidad de evaluar la tecnología educativa, que a menudo no logra mejoras medibles en el aprendizaje estudiantil.
Las empresas de A.I. están ejerciendo una influencia desproporcionada sobre la educación superior y utilizando estos entornos como campos de entrenamiento para avanzar en su objetivo de crear inteligencia artificial general (sistemas capaces de sustituir a los humanos).
Dado el uso creciente de herramientas de A.I., los líderes universitarios como yo tenemos pocas opciones más que negociar condiciones de acceso para estudiantes y docentes, aunque solo sea porque estamos legalmente obligados a proteger información sensible. Pero esto no constituye una verdadera alianza entre iguales.
En diplomacia, sabes que tratas con un adversario cuando siembra divisiones en tus filas. Anthropic, por ejemplo, exige tarifas exorbitantes por cuentas corporativas y paga “embajadores de campus” para promover el uso de sus herramientas Claude en las universidades.
Otras empresas prometen bonificaciones en efectivo cuando los estudiantes alcanzan objetivos de marketing. Esto crea conflictos de interés, especialmente cuando esos embajadores ocupan cargos electos en el gobierno estudiantil.
Un estudiante de pregrado de Columbia, Roy Lee, presumió haber desarrollado una herramienta de A.I. para hacer trampa en entrevistas laborales tecnológicas online. La firma de capital de riesgo Andreessen Horowitz elogió su “enfoque audaz”, explicando que “detrás de escena sus movimientos están arraigados en una estrategia deliberada e intencional”. La firma ayudó a recaudar 15 millones de dólares para lanzar la empresa que Lee cofundó, la cual afirma querer ayudar a los usuarios a “hacer trampa en todo”.
Algunos en Silicon Valley dicen querer que sus herramientas se usen de forma responsable y manteniendo la integridad educativa. El CEO de OpenAI, Sam Altman, ha dicho que los educadores “deberían liderar este próximo cambio con la A.I.”, y la empresa afirma estar construyendo “herramientas para educadores” que los ayuden a marcar el rumbo.
Pero, tras bambalinas, sus acciones dicen lo contrario. Hace años desarrolló una tecnología con 99,9 % de precisión para detectar trabajos generados con ChatGPT. Ejecutivos debatieron internamente si permitir a los educadores acceder a esa herramienta. Decidieron no hacerlo. Una de las razones: una encuesta mostró que colocar marcas de agua invisibles en textos generados por ChatGPT podría llevar a algunos usuarios a migrar a productos competidores.
En realidad, las empresas de A.I. parecen ver a los estudiantes universitarios como una base de clientes financieramente presionada a la que captar cuando están más estresados. En abril, Altman anunció que ChatGPT Plus sería gratis para universitarios durante exámenes finales. Dos semanas después, Google ofreció acceso gratuito a su servicio premium de A.I. durante todo el año académico. Perplexity organizó en 2024 una competencia donde universidades con más registros obtenían su programa top gratis por un año.
Durante el último año, algunos profesores reportaron una fuerte caída en las preguntas de los estudiantes.
Las ambiciones de la industria van más allá. OpenAI quiere desplegar un ejército de bots que “se conviertan en parte de la infraestructura central de la educación superior”, lo que, desde la mirada administrativa, podría abarcar desde admisiones hasta asesoramiento académico.
Google dice a mis estudiantes que “aprenderán más rápido y en mayor profundidad” si suben grabaciones de clases a NotebookLM (Columbia y otras instituciones prohíben grabar clases sin permiso). Las universidades no tienen acceso a los datos que estudiantes y docentes cargan en estos sistemas, lo que hace imposible garantizar un uso responsable o prevenir daños.
Aún es temprano para saber cómo el uso de A.I. afecta la capacidad de aprendizaje. Pero investigaciones sugieren que quienes usan A.I. leen con menos atención al investigar y escriben con menor precisión y originalidad. Los estudiantes ni siquiera perciben lo que pierden. Pero educadores y empleadores sí lo saben.
Leer con detenimiento, pensar críticamente y escribir con lógica y evidencia son precisamente las habilidades necesarias para aprovechar el verdadero potencial de la A.I. en el aprendizaje permanente.
Algunos educadores están encontrando formas de aprovechar la A.I. para estimular el compromiso intelectual y la exploración creativa. Otros desconfían tanto de Silicon Valley que prohíben cualquier uso, dejando a los estudiantes solos para descubrir cómo usarla ética y eficazmente.
La carrera hacia la inteligencia artificial general no solo ha debilitado la educación de los jóvenes -base del progreso futuro-, sino que también ha obstaculizado la construcción de apoyo para desarrollar sistemas que realmente podrían hacer a los estudiantes más inteligentes.
La historia muestra que las guerras pueden perderse antes de declararse si los defensores entregan terreno estratégico sin luchar. Para las universidades, ese terreno es la cima definitiva: la inteligencia humana misma. Si no luchamos por ella ahora, quienes vengan después enfrentarán una batalla aún más desigual.
Por Matthew Connelly, profesor y vicedecano de iniciativas de inteligencia artificial en la Universidad de Columbia.
Nota traducida al español.

