En un mundo donde la inteligencia artificial se convierte en parte integral de nuestras vidas, la necesidad de un enfoque ético es más urgente que nunca. Sergio Calvo, vicerrector de la Universidad Europea, comparte sus reflexiones sobre cómo garantizar que la IA beneficie a todos, evitando sesgos y promoviendo la transparencia.

Publicado por: Karoll Zarate Pedraza
En 2024, las tecnologías de IA están siendo implementadas en tareas cotidianas y complejas, mejorando la eficiencia en sectores como la medicina, el transporte y la industria tecnológica. En las universidades, los estudiantes utilizan herramientas impulsadas por IA para agilizar el aprendizaje. Estas plataformas pueden ayudar a personalizar la educación, adaptándose a las necesidades de cada estudiante, optimizando la enseñanza con recomendaciones sobre qué contenidos estudiar o cuáles son las mejores formas de aprender ciertos conceptos. Herramientas como los tutores virtuales y los asistentes de escritura automatizados están transformando la forma en que los estudiantes completan sus tareas y mejoran sus habilidades.
Además, la IA se usa en la investigación académica. Los estudiantes de ciencias y humanidades pueden emplear programas que analizan grandes cantidades de datos en poco tiempo, generando resultados que de otra forma tomarían semanas o meses en conseguir. Esto ha democratizado el acceso a herramientas avanzadas de investigación, permitiendo que más estudiantes accedan a análisis complejos de datos sin necesidad de ser expertos en programación, indicó Mike Cummings escritor de la oficina de asuntos públicos y comunicaciones de la Universidad de Yale. Lea: El controversial comentario de Lorelei Tarón, esposa de Falcao, sobre las mujeres
La vida estudiantil y la IA
En el ámbito universitario, la Universidad de Yale en su articulo Descubierto, desconocido e incierto: orientaciones éticas en la era de la IA, describen cómo ha cambiado la dinámica del día a día de los estudiantes. No solo ayuda en lo académico, sino que también facilita la organización personal, la gestión del tiempo y la colaboración en proyectos grupales. Por ejemplo, aplicaciones que usan IA pueden organizar calendarios, optimizar rutinas y recordar fechas importantes, haciendo más eficiente el manejo del tiempo de los estudiantes. Además, en plataformas de aprendizaje colaborativo, la IA ayuda a conectar a estudiantes con intereses similares o con compañeros que puedan asistirlos en temas específicos.
Sin embargo, este uso intensivo de IA no está exento de preocupaciones éticas. Los estudiantes están cada vez más expuestos a herramientas que pueden realizar tareas en su lugar, lo que plantea preguntas sobre la dependencia excesiva de la tecnología y el desarrollo real de sus habilidades. La inteligencia artificial también está presente en procesos como la selección de candidatos a becas o en programas de admisión automatizados, lo que lleva a debates sobre equidad y transparencia en los procesos de toma de decisiones.
En una entrevista reciente, Sergio Calvo, Director de Comunicación y Asuntos Públicos, vicerrector de la Universidad Europea, compartió su perspectiva sobre la importancia de abordar estos desafíos de manera responsable.

La IA tiene el potencial de mejorar la eficiencia y la productividad en diversos sectores, desde la atención médica hasta la educación y la industria. Sin embargo, Sergio Calvo advierte que “la tecnología por sí sola no es suficiente; es fundamental que la IA se implemente de manera que respete los valores éticos y los derechos humanos”.
El uso ético de la IA
Santiago Calvo enfatiza que, a medida que la IA se integra más en nuestras vidas, se deben considerar las implicaciones éticas de su uso. “La sociedad necesita confiar en que las tecnologías que adoptemos no solo sean eficaces, sino también justas y equitativas”, señaló Calvo.
Varias universidades e instituciones académicas han implementado políticas y guías para asegurar que los estudiantes usen estas herramientas de manera responsable. Por ejemplo, universidades como Caltech han desarrollado pautas que promueven un uso ético de la IA, centradas en la transparencia y la evitación del plagio. En muchos casos, se pide a los estudiantes que declaren cuándo y cómo han utilizado IA para completar sus trabajos, para evitar un uso indebido o deshonesto de estas herramientas
Publicidad
Para garantizar un uso ético de la IA, Santiago Calvo sugiere la necesidad de crear equipos diversos de desarrollo que representen diferentes perspectivas. “Cuando se crean algoritmos, es esencial que los equipos de trabajo incluyan a personas de diversas formaciones y antecedentes para minimizar los sesgos en la tecnología”, agregó. Le puede interesar: Abierta convocatoria para concursos nacionales de duetos y compositores del Festival Nacional de la Música Colombiana 2025
El enfoque ético también incluye la lucha contra sesgos en los algoritmos de IA. Las aplicaciones de IA, que pueden analizar grandes cantidades de datos, a menudo replican los sesgos presentes en esos datos. Por ejemplo, si un algoritmo se entrena con datos históricos sesgados (como un menor acceso a recursos para ciertos grupos étnicos), sus recomendaciones pueden perpetuar estas desigualdades. Por ello, el desarrollo y la implementación de IA responsable requieren equipos diversos y datos equilibrados para minimizar estos problemas.
Calvo afirma que “es crucial que estas tecnologías se utilicen de manera que no perpetúen sesgos ni generen desigualdades”. Esta perspectiva destaca la importancia de un enfoque inclusivo en el desarrollo y la implementación de sistemas de IA.
Normativas y legislación sobre IA
El vicerrector de la Universidad Europea también hizo hincapié en la importancia de establecer marcos regulatorios adecuados para guiar el uso de la IA. “Las políticas que guían el uso de la IA deben asegurar el respeto a los derechos humanos y la protección de datos personales”, afirmó. La falta de regulación puede dar lugar a abusos y aplicaciones irresponsables de la IA, lo que podría tener consecuencias graves.
A nivel global, se están desarrollando marcos legales para regular el uso de la inteligencia artificial. En la Unión Europea, por ejemplo, el “AI Act” establece reglas claras para el desarrollo y uso de la IA, con un enfoque especial en aplicaciones que tienen un alto riesgo, como el reconocimiento facial y los sistemas que procesan grandes volúmenes de datos personales. Este tipo de legislación busca proteger los derechos humanos y garantizar que la IA no se utilice para manipular o violar la privacidad de las personas. Al mismo tiempo, las normativas están diseñadas para fomentar la innovación, asegurando que las empresas e instituciones sigan desarrollando tecnologías de IA seguras y eficaces.
El vicerrector sugirió que las universidades y otras instituciones educativas desempeñen un papel clave en la formación de los futuros líderes en tecnología. “Debemos preparar a nuestros estudiantes para que no solo sean competentes en el uso de la tecnología, sino que también sean conscientes de su impacto social y ético”, explicó.
Sergio Calvo hizo un llamado a la colaboración entre instituciones académicas, gobiernos y empresas para fomentar un diálogo sobre el futuro de la inteligencia artificial. “Es vital que todos los actores trabajen juntos para crear principios éticos que guíen el desarrollo de la IA y garanticen que beneficie a la sociedad en su conjunto”, concluyó.

















