Publicidad

Tendencias
Viernes 16 de febrero de 2024 - 12:00 PM

Cuáles son los peligros de la IA

Si bien la Inteligencia Artificial se trata de una tecnología que revolucionará el mundo y ofrece innumerables ventajas en todos los escenarios sociales y áreas del saber existen peligros asociados a su mal uso o errores que se puedan cometer

Compartir
Imprimir
Comentarios
Suministrada
Suministrada

Compartir

Suministrada

La inteligencia artificial (IA) es uno de los avances tecnológicos más importantes de la actualidad. Al principio estaba sólo expuesta teóricamente como la posibilidad que tenía una máquina para reproducir con autonomía procesos mentales y acciones del ser humano. ¡Hoy es una realidad! Ya la vemos en la ciencia, el arte, el trabajo, los videojuegos, los casinos con su bono sin depósito, etc. Y cada vez actuará en más campos de la sociedad moderna.

Sin embargo, es verdad que para muchos hay peligros asociados al mal uso de esta tecnología o a los errores que pueda cometer. En nuestro artículo queremos hablarte de ellos para que te pongas al día.

Desafíos éticos y sociales

Uno de los problemas de la IA señalados es que, al ser programada por humanos, reproduce sesgos que pueden perpetuar la discriminación. El ejemplo más emblemático de esto es la opción de reconocimiento facial, que parece estar programado a la medida de las facciones de varones blancos. Se han reportado más errores, cuando hombres y, sobre todo, mujeres negras tratan de usar esa función en sus dispositivos.

Esto puede ser peligroso si pensamos que los programas de reconocimiento facial ya son usados por la policía para identificar criminales. Por otra parte, la IA desafía los modelos de protección de intimidad, pues recolecta datos personales de muchos usuarios que luego pueden usarse para alimentar sistemas prejuiciosos. De hecho, ya se han reportado respuestas racistas de algunos bots. Imaginemos esto en un sistema judicial o que comprometa los intereses de la persona.

Estos sesgos también son evidentes cuando se les hacen preguntas a los sistemas con IA sobre el futuro. Es obvio que responderán de acuerdo con los rasgos culturales de la sociedad y no podrían tomarse como un conocimiento objetivo o crítico. Por eso, uno de los trabajos más importantes es tratar de que la inteligencia artificial responda a los desafíos éticos del mundo para no reproducir sus preconceptos.

Seguridad y control

En la última época de guerras, la IA comenzó a usarse en armamentos. Los drones autónomos híbridos con cohetes son los mecanismos más reconocidos. Estos pueden recorrer largas distancias y atacar objetivos concretos sin un operador que los controle. Han sido usados en la guerra de Rusia contra Ucrania y comenzaron a funcionar por primera vez durante 2020 en Libia.

La inteligencia militar también usa bases de datos para tomar fotos de los objetivos de ataque y hacer reconocimiento facial de personas. Esto permite hacer perfilamientos. El problema es que, en un contexto de persecución política, puede aumentar la represión y limitar el derecho de los civiles a la protesta al convertirlos en blanco.

El peligro más fuerte de la IA en el campo militar es que las decisiones dependen de robots. Estas no pueden tener en consideración los mismos factores que los humanos y, por ello, no son confiables. Imaginemos una guerra en la que es necesario dar paso a los heridos o al transporte de la ayuda médica internacional dentro del campo. Si el robot está programado con base en patrones muy generales, es posible que los vea como enemigos.

Impacto en el empleo y la economía

Desde el boom de la inteligencia artificial en 2023, del chat GPT y de otros mecanismos de creación con algoritmos, comenzaron a reportarse despidos masivos en varios lugares. Al parecer, la IA podría sustituir las funciones de empleados reales y las empresas lo vieron como una oportunidad para reducir costos y aumentar la producción.

Evidentemente, los primeros despidos se vieron en las empresas tecnológicas. Se ha reportado ya la culminación de 32.000 cargos laborales en ellas. Amazon, Dropbox y Paypal son algunos ejemplos. Sin embargo, los despidos se vieron en otros sectores: en las empresas de marketing digital o diseño ya hay herramientas automatizadas que pueden prescindir de la mano de obra humana para crear contenido e imágenes. El año pasado, el sindicato de actores de Hollywood salió a una huelga contra Disney y Netflix para pedir restricciones en el uso de la IA, que ya es capaz de crear réplicas de actores fallecidos y escribir guiones.

Otra de las consecuencias que se ha evaluado es la dependencia económica que la IA puede crear en los países. Al aumentar la capacidad productiva de países del primer mundo, también podría ampliar la brecha con los países en vías de desarrollo. Esto se debe a que la inversión se iría a los países ricos más automatizados. Mientras tanto, en los países pobres se tendría que importar tecnología de IA, aunque no la más avanzada, y eso representaría un coste adicional. Además, la producción con mano de obra tradicional no podría competir contra la robótica.

Superinteligencia y el problema de control

La superinteligencia artificial es la etapa en la que las máquinas no sólo podrían reproducir pensamientos y acciones humanas, sino superarlos. Esto sería riesgoso para la humanidad, pues supone que los robots se hagan conscientes de su poder y traten de establecer control sobre las personas.

Incluso, en las fantasías más distópicas se ha llegado a imaginar que la superinteligencia podría crear un control militar o trabajar para élites poderosas. Debido a esto, es importante que se pongan límites y regulaciones internacionales a la IA.

Recomendaciones para el uso de la IA

Ante los posibles peligros de la IA, quizás no vale la pena tratar de ir en contra de ella. Los especialistas saben que se trata de una tecnología que se quedará con la humanidad y revolucionará el mundo. Ofrecerá ventajas en el campo de la ciencia, la medicina, la educación y el desarrollo en general. Lo mejor es aceptarla y aprovecharla para el progreso social y material.

Lo ideal es, entonces, establecer sistemas de regulación y ética que puedan guiar la IA hacia un uso responsable. Actualmente, se están creando legislaciones y los trabajadores están comenzando a exigir nuevos derechos con relación a sus funciones y su permanencia en las empresas. También hay críticos de algoritmos específicos que buscan evitar el sesgo en las herramientas de IA.

Elija a Vanguardia como su fuente de información preferida en Google Noticias aquí y únase a nuestro canal de Whastapp acá.

Publicado por Suministrado

Publicidad

Publicidad

Tendencias

Publicidad

Publicidad

Noticias del día

Publicidad