Riesgos y desafíos éticos de la Inteligencia Artificial

Tiempo de lectura: 4 minutos

A medida que nuevas aplicaciones basadas en inteligencia artificial salen a la luz, también aparecen nuevos dilemas éticos sobre su crecimiento exponencial. Y es que entre las preguntas que más se repiten en este aspecto, una destaca sobre el resto: ¿Qué límites debe tener la inteligencia artificial?

Hemos visto que, en pocos meses, las maravillas nacidas de la IA, van a la par de sus riesgos. Desde amenazas para la ciberseguridad, sesgos raciales y manipulación de la información, los riesgos que entraña esta tecnología resaltan la importancia de elaborar un marco ético para controlar su uso. 

Vamos a entrar en profundidad en este asunto, así que sigue leyendo al respecto si no te quieres perder nada sobre la revolución tecnológica de la inteligencia artificial.

¿Qué implicaciones éticas conlleva la IA?

Aunque la noción inteligencia artificial lleva décadas con nosotros (concretamente desde mediados del siglo XX, cuando Alan Turing ideó su famoso test) y ha ido evolucionando desde sus primeros pasos en los años 80, no ha sido hasta hace escasos años que ha provocado una conmoción en el gran público.

¿Qué es lo que hay detrás de todo este revuelo? El principal motivo es la evolución de los grandes modelos de lenguaje (LLM), entre los cuales se encuentra GPT, el motor de ChatGPT

GPT y su creador, OpenAI, han expuesto un gran dilema al mundo: quizás no estamos preparados para el cambio que va a provocar la inteligencia artificial avanzada.

Esto ha quedado patente, no sólo por su aplicación a la optimización de tareas repetitivas y su gran capacidad para generar lenguaje humano con naturalidad, sino también por el uso malintencionado de sus supuestos beneficios.

MÁSTER EN DATA SCIENCE

¡Conviértete en Data Scientist de la mano de los mejores profesionales!

!Cuéntame más!

Como mencionamos anteriormente, esta tecnología es un arma de doble filo por su propia naturaleza de constante aprendizaje. Como señala el data scientist Carlos Pérez en el libro de Dating Science, ya en 2016 cuando Microsoft publicó su chatbot Tay, se necesitaron poco menos de 24 horas para que los usuarios lo convirtieran en un bot con comportamientos xenófobos y sexistas.

¿Por qué aparecen estos sesgos? Pérez señala que la IA no decide ser así por voluntad propia, sino que es la constante exposición a este tipo de comportamientos lo que provoca este tipo de reacciones.

Y hace hincapié, en que aquí radica el dilema sobre su aplicación a otros campos, como puede ser la salud o la financiación económica. Los sesgos inculcados en un sistema así, pueden llevar a una mala praxis por parte de la inteligencia artificial a cargo de ejecutar un diagnóstico o conceder un préstamo.

imagen de móvil usando chatgpt

Riesgos para el futuro de la humanidad

El pasado mes de abril, Geoffrey Hinton, uno de los informáticos y pioneros en la investigación en inteligencia artificial a nivel mundial, decidía apartarse de Google, con una afirmación bien contundente contra el trabajo de su vida, alegando que «se arrepiente de haber trabajado en el avance de la inteligencia artificial». 

¿Cuál es el motivo detrás de estas declaraciones? Una de las principales razones, es su temor por el uso malintencionado que se pueda hacer de estas tecnologías y sobre todo, de versiones muy superiores en rendimiento a las que tenemos ahora. Este temor lo comparten los más de 1000 líderes del sector tecnológico, los cuales han firmado una carta en la que se pide que se frene todo tipo de avance en la investigación y creación de inteligencias artificiales.

El miedo que parece acechar a estos grandes actores del mundo tecnológico, es el de la aparición de una AGI, de las siglas en inglés Artificial General Intelligence. Aunque tan sólo se ha teorizado sobre este tipo de inteligencia artificial, si se convirtiera en una realidad, podría suponer un punto de inflexión para la humanidad.

imagen de robot con cara enfadada

¡Conoce el enorme potencial de las IA que generan imágenes y úsalas a tu favor! 🖼️ 

Dadas las condiciones teóricas de las AGl, nos encontraríamos con una tecnología capaz de igualar o exceder la inteligencia humana promedio. Y el temor de Hinton y otros investigadores, es que nos encontremos mucho más cerca de llegar a este momento de lo que creemos. De hecho, Demis Hassabis, CFO en la división de inteligencia artificial de Google llamada DeepMind, ha declarado recientemente que es probable que «consigamos desarrollar algún tipo de inteligencia artificial general (AGI) en los próximos años». 

Sin duda, esto plantea grandes dilemas éticos sobre la aparición de nuevos entes pensantes y conscientes, así como sobre el futuro de nuestra especie. ¿Qué sucede en un mundo donde hay máquinas igual o más capaces que un humano en realizar tareas complejas? ¿Avanzamos hacia un mundo sin trabajo? Estas y otras cuestiones son las que debemos plantearnos e intentar elaborar inteligencias artificiales de forma consciente, que sigan unos principios éticos y estén a merced del bien común. 

La privacidad y la desinformación en la era IA

Antes de cerrar la cuestión tratada en este artículo, debemos hablar sobre otros riesgos que han aflorado con la explosiva aparición de las herramientas de IA. Y entre esos riesgos, está la pérdida de privacidad y la vulneración de los derechos de autor.

Diferentes países europeos, entre los que se incluyen España, Italia e Alemania, han puesto de manifiesto que aplicaciones como ChatGPT, hacían una recogida y un uso ilícito de los datos que usa para alimentar su modelo de machine learning. 

Y este no sería el único caso de una posible vulneración de derechos, puesto que aplicaciones como DALL-E, han sido nutridas del trabajo de cientos de artistas para generar sus obras. Esto abre el debate sobre los derechos de autor y sobre la autoría de las obras llevadas a cabo con herramientas de inteligencia artificial

imagen de robot dibujando

Las obras creadas por las IA han generado también otros conflictos y debates, como por ejemplo el generado por las imágenes y vídeos que recrean a personas (famosas o no) de manera muy precisa. ¿Es lícito crear este tipo de contenido o es un atentado contra la imagen de estas personas, así como una vía para la desinformación?

Si bien es cierto que probablemente estamos lejos de coexistir con robots por las calles y el valle inquietante domina las creaciones artísticas de las IA, el futuro no espera a nadie.

Así que, si no quieres perder la carrera contra las máquinas, te recomendamos que des un empujón a tu carrera con nuestro Máster en Data Science.

Carlos Palmón
Carlos Palmón es sociólogo, consultor SEO y copywriter. Apasionado por entender la sociedad, se lanzó a estudiar el grado en Sociología. En 2020, descubrió en el marketing digital una forma de aunar su interés sociológico con sus aptitudes creativas.