Tecnología
Lunes 03 de abril de 2023 - 12:00 AM

ChatGPT: ¿Representa un riesgo para la humanidad?

Elon Musk, directivos de Microsoft y Google pidieron suspender avances sobre IA: advierten que podría traer grandes riesgos. Italia ordena bloquear al ChatGPT. ¿Qué está pasando con esta Inteligencia Artificial? Expertos le cuentan.

Getty Images / VANGUARDIA
Getty Images / VANGUARDIA

Compartir

Publicado por: Redacción Tecnología

En los últimos días, un grupo de expertos en Inteligencia Artificial y ejecutivos del sector, entre ellos Elon Musk, hicieron un llamado a hacer una pausa de seis meses en la investigación sobre IA, incluso más potentes que Chat GPT-4, el modelo de OpenAI lanzado este mes, y que ha dado tanto de qué hablar. El argumento es que esta tecnología podrían traer “grandes riesgos para la humanidad”.

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política, especialmente para la democracia, que causará la IA”.

La firman personalidades como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Por su parte, el director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”. Recientemente declaró en ABCNews: “La empresa necesita tiempo para adaptarse”.

Los laboratorios de IA están en una carrera desmedida para desarrollar y desplegar cerebros digitales cada vez más potentes. “La velocidad de crecimiento, entrenamiento y avance que lleva la IA en la actualidad está dejando atrás la capacidad que la sociedad puede llevar, esto puede afectar en varios aspectos, por ejemplo, puede poner en riesgo la estabilidad social teniendo en cuenta que actividades propias de los humanos se están viendo realizadas con alta eficiencia por este tipo de herramientas”, señala Nieder Vergara, docente de la Escuela de Tecnologías de la Información y las Comunicaciones.

Pero, ¿representa ChatGPT una amenaza real? En Vanguardia consultamos con algunos expertos para saber qué opinan. Aquí sus argumentos.

¿Qué tan confiable es ChatGPT?

Diana Lancheros Cesta, doctora (PhD) en ingeniería

“No es posible establecer un nivel de confianza. Sin embargo, las múltiples pruebas que se han realizado en múltiples escenarios permiten afirmar que en un gran porcentaje la información es verdadera. No obstante, en los términos y condiciones de la aplicación se recomienda no utilizar información sensible, personal o empresarial. Esto porque los algoritmos se entrenan con la información que se va dando y puede volver a utilizarla”.

Nieder Vergara, docente de la Escuela de Tecnologías de la Información y las Comunicaciones

“En general las herramienta de IA implementan modelos de aprendizaje confiables, aún más las consideradas IA Avanzadas, en gran parte, la confiabilidad de estas depende de la calidad de datos con los que son entrenadas, teniendo en cuenta que chatGPT es una IA que implementa aprendizaje continuo e histórico, podemos percibir un grado de confiabilidad alto en lo que a la información que puede suministrar se refiere”.

Jeison Mauricio Delgado González, Ingeniero de Sistemas, docente e investigador de la Universidad de Santander, UIS

“A nivel académico podemos decir que estas herramientas de IA interactúan utilizando patrones y relaciones que aprendió entrenando, para averiguar cómo a través de un conjunto de palabras de entrada, podía predecir palabras de salida para hacer que las consultas sean coherentes a través de la estructura y el significado del lenguaje. Pero no siendo capaz de interpretar que tiene sentido y que no, sino que se basa en la coherencia del texto generado por la probabilidad de cada palabra dadas las palabras anteriores de la secuencia. Es muy difícil determinar hasta qué punto este tipo de herramientas ayudan a satisfacer las necesidades de los usuarios”.

ChatGPT

“En general, se considera que la precisión de GPT-3 es bastante alta y ha demostrado ser útil en una amplia variedad de aplicaciones, como la generación de texto, la traducción de idiomas y la respuesta a preguntas.

Sin embargo, es importante tener en cuenta que ChatGPT no es perfecto y puede cometer errores”.

¿Cuáles podrían ser los posibles fines maliciosos?

Diana Lancheros Cesta, doctora (PhD) en ingeniería

“Lo malísimo se puede dar desde el uso indebido de la información, que las personas tomen decisiones con las respuestas que da la inteligencia artificial. Que se falte a los principios de ético. Y sobre todo estos algoritmos de inteligencia artificial entrenados de forma incorrecta podrían falsificar información, generar contenido que va en contra de la moral. Por otro lado el impacto puede ser dado desde la utilización de la inteligencia artificial para cargos o labores que hace el ser humano, aumentando el desempleo y logrando una desigualdad laboral”.

Nieder Vergara, docente de la Escuela de Tecnologías de la Información y las Comunicaciones

“Teniendo en cuenta las formas y posibilidades de acceso a la herramienta, esta puede ser empleada para inimaginables fines, las personas podrían usarla para generar información o contenido falso, manipular información indebidamente, entre otras. La facilidad de acceso y el poco control en la forma de acceder a la herramienta permite que los usos maliciosos sean muchos y muy variados, desde otra perspectiva, la herramienta posee mucha información que no todos los usuarios están en capacidad de manejar o que pueden usar con fines indebidos, no existe algún tipo de filtro sobre quién accede a la información o los niveles de profundidad que se pueden manejar”.

Sol González, especialista de seguridad informática de Laboratorio ESET LATAM

“Es muy sencillo generar noticias falsas porque lamentablemente Chat GPT no entiende qué es real y que no. Uno le puede pedir que genere una noticia o un párrafo, y lo va a producir.

Por otro lado también hay que hablar del robo de identidad. Lamentablemente hemos hecho una prueba con el laboratorio, en donde le pedimos a Chat GPT que redactara un tuit personificando a Elon Musk, por lo cual imaginen lo contraproducente que puede ser.

También puede ser usado para el desarrollo de malware. Hemos hecho varias pruebas, si bien en las últimas versiones la compañía está tratando de que no se genere este tipo de código, lamentablemente todavía sigue posibilitando el desarrollo de malware”.

Chat GPT

“Algunos de estos posibles fines podrían ser: generación de contenido engañoso, ongeniería social, suplantación de identidad, discriminación o acoso. Es importante tener en cuenta que estos son solo algunos posibles fines maliciosos y que el verdadero alcance de cualquier uso indebido de ChatGPT dependerá de la intención y las habilidades del usuario”.

¿Debe haber más control y regulación?

Diana Lancheros Cesta, doctora (PhD) en ingeniería

“Sí, cada organización debe crear sus códigos de ética y de uso de este tipo de plataformas con inteligencia artificial, también se debe hacer seguimiento y monitoreo de su uso. Colombia ya cuenta con un marco ético de la inteligencia artificial. Este se debe conocer y aplicar en las universidades, colegios y organizaciones”.

Nieder Vergara, docente de la Escuela de Tecnologías de la Información y las Comunicaciones

“Sería positivo para nuestra adaptación a la herramienta manejar controles en diferentes aspectos, los niveles de información que se manejan son altos y no es recomendable un acceso libre a ella. Tal vez, implementando niveles y roles de acceso, también, controlando o registrando con mayor detalle los perfiles o información de quién accede a la información. Por otro lado, también es importante controlar el ritmo con que avanzan las IA de este tipo, como se manifiesta en la carta firmada por los expertos, la velocidad de crecimiento, entrenamiento y avance que llevan las IA en la actualidad está dejando atrás la capacidad que la sociedad puede llevar, esto puede afectar en varios aspectos, por ejemplo, puede poner en riesgo la estabilidad social teniendo en cuenta que actividades propias de los humanos se están viendo realizadas con alta eficiencia por este tipo de herramientas, también, debido a que nuestra sociedad no puede seguir este vertiginoso proceder, puede llevarse a un mal uso o desaprovechamiento de los beneficios que podrían obtenerse de un uso correcto de las IA”.

Jeison Mauricio Delgado González, Ingeniero de Sistemas, docente e investigador de la Universidad de Santander, UIS

“Es definitivo que la legislación no va de la mano con los avances en ciencia, tecnología e innovación, en el caso de nuestro país como lo he mencionado anteriormente en otras intervenciones, tenemos una constitución en la que se promueve reformar lo que ya se conoce pero en la que poco se legisla sobre este tipo de escenarios que son muy importantes para los cuales se debe tener conciencia sobre lo que es aceptado y lo que no.

Por ahora estas herramientas seguirán sirviendo para mejorar la productividad, aumentar los contenidos que se consumen a través de internet, mejorar el servicio al cliente, apoyar el proceso enseñanza-aprendizaje-evaluación, realizar traducciones, programar, diseñar, pero es incierto hasta donde se pueda llegar, eso dependerá de la creatividad de cada uno de las personas que utilicen la herramienta”.

ChatGPT:

“La regulación y el control de tecnologías como ChatGPT pueden ser necesarios para prevenir posibles abusos y asegurar que se utilice de manera responsable y ética. Sin embargo, es importante encontrar un equilibrio entre la regulación y la innovación para no limitar indebidamente el potencial positivo de estas tecnologías”.

Publicado por: Redacción Tecnología

Publicidad

Publicidad

Noticias del día

Publicidad

Publicidad

Tendencias

Publicidad