Cómo utilizar la inteligencia artificial de manera ética

La inteligencia artificial llegó para quedarse. ¿Seremos capaces de usarla en beneficio del desarrollo de la sociedad?
Cómo utilizar la inteligencia artificial de manera ética
Sara González Juárez

Escrito y verificado por la psicóloga Sara González Juárez.

Última actualización: 26 abril, 2023

Los humanos, que tanto recreamos la fantasía de confrontar inteligencias que actuaran en contra de nuestros intereses, nos encontramos en un punto de inflexión donde enfrentamos el desafío de utilizar la inteligencia artificial (IA) de manera ética. Este avance tecnológico promete un florecimiento sin precedentes, pero también trae retos y dificultades que merecen reflexión y posterior actuación.

Los cambios acelerados generan una serie de problemas de índole social que parecen no poder adaptarse al ritmo. ¿Qué marca los límites en esta época de transformación?

Esta es justo la respuesta que esbozaremos en las siguientes líneas, empezando por resaltar que es necesario establecer límites morales -y probablemente también legales- a la hora de usar las inteligencias artificiales; de lo contrario, nos exponemos a que el desarrollo de la civilización se convierta en todo lo opuesto.

Modos de utilizar la inteligencia artificial de manera ética

El debate alrededor de las IA y de su uso es amplio y complejo. Sin embargo, se tiene cierto acuerdo sobre algunas normas morales a este respecto. Vamos a verlas.

1. Las inteligencias artificiales al servicio de los intereses humanos

Anales de la Real Academia de Ciencias Morales y Políticas señaló en un trabajo, desde un punto de vista humanista, que una IA tiene el cometido de reducir al mínimo el sufrimiento evitable de las personas. Aquí es donde entra en escena el concepto de «uso malicioso de la inteligencia artificial», referente a los peligros potenciales que supone para la sociedad un mal empleo de estos programas.

Por tanto, se debe garantizar la seguridad de las personas, así como la intimidad, la identidad y la privacidad de los entornos. Si no se incumpliría el precepto de este apartado.

2. Evitar la dictadura de los datos

La recogida de datos masivos (o big data) es el motor del avance, por ejemplo, de ramas tan dispares como la tecnología médica o del desarrollo económico. No obstante, cuando esos datos se utilizan para sesgar a la población y segregarla, se habla de la «dictadura de los datos», señala el boletín del Consejo Superior de Investigaciones Científicas.

Siguiendo con el ejemplo, una IA sería capaz de recoger enormes muestras de resultados de un nuevo tratamiento médico o de la incidencia de problemas de salud. En este escenario, nos tendríamos que preguntar hasta qué punto es ético que una aseguradora tuviera acceso a estos datos para hacernos un presupuesto o darnos cobertura.

Médico utilizando un programa de inteligencia artificial en el laboratorio
La IA ya es aplicable en diversos ámbitos, por lo que urgen más normas y legislaciones al respecto.

3. Respetar los neuroderechos

La big data también podría utilizarse para realizar predicciones sobre el comportamiento humano. Esto se explota, sobre todo, en el ámbito del marketing. En este sentido, para emplear la inteligencia artificial con ética, tales datos no deberían ser una herramienta que influya en la identidad de los usuarios o en su libertad cognitiva. Esto es lo que se llaman neuroderechos.

En el ámbito de la inteligencia artificial, es esencial garantizar que se respeten los neuroderechos en la recopilación, almacenamiento, análisis y uso de datos cerebrales. De este modo, implica obtener el consentimiento informado y explícito de las personas antes de recopilar datos de su cerebro, proteger la privacidad y confidencialidad de estos datos, y asegurar que se utilicen de manera ética y responsable.

Además, el respeto a los neuroderechos debe asegurar que la IA no se aproveche para manipular o influir indebidamente en la identidad, la libertad cognitiva o la autonomía de las personas.

Abarca, entonces, evitar la discriminación, la estigmatización o la manipulación basada en datos cerebrales, y garantizar que las decisiones y acciones con sustento en IA sean transparentes, explicables y justas. Es todo un desafío, ya que la mayoría de modelos con los que trabajan las inteligencias artificiales son opacos: dan buenos resultados, pero no sabemos por qué.



4. Preservar la dignidad humana, otra manera ética de utilizar la inteligencia artificial

Ciertos puestos de trabajo, en especial aquellos que proporcionan cuidados, se consideran inadecuados para las IA y los robots. Se debe a que requieren de la capacidad de empatía y de respeto. Así, por ejemplo, no sería ético someter a una persona a una terapia dirigida por una inteligencia artificial, ni poner a que estas funcionen como policías o jueces.

La empatía en los robots plantea retos muy interesantes, por la naturaleza de la emoción y la conciencia humana. Aunque los robots pueden programarse para reconocer y responder a las expresiones faciales, el tono de voz y otros indicadores emocionales de los humanos, aún no tienen la capacidad de experimentar emociones y comprender, igual que lo hacemos nosotros.

A este ámbito alude un trabajo presentado en la revista Economía y Sociedad, en el que explican que a las tecnologías inteligentes se les intenta dar funciones inherentes a manejar las emociones, como lo hacen los humanos, cayendo en una contradicción entre el deber moral y el escenario en que se implementa.

5. Mantener el código abierto

Dentro del debate sobre las inteligencias artificiales prima una afirmación: el código de las mismas debería ser abierto y público. Su desarrollo no tendría que estar en manos de unos pocos, dado que se trata de una tecnología que afecta directo a la vida de las personas y la configuración social de las mismas, incluso a su cultura. De esta forma se garantizaría la transparencia y se prevendría un uso malicioso de las IA.



Imagen computarizada de lo que representa la inteligencia artificial
Si bien las IA transforman la cultura, en el hombre queda el compromiso del uso responsable.

¿Por qué utilizar la inteligencia artificial de manera ética?

Desde la seguridad nacional hasta el uso de una app, pasando por la política y la medicina, el empleo de la inteligencia artificial necesita una revisión ética aislada de intereses particulares. Un uso malicioso de la misma no solo provocaría o aumentaría amenazas en la sociedad, también haría más profundas sus consecuencias negativas.

Puesto que la IA está cambiando nuestro mundo y cultura, los agentes pasivos debemos desarrollar, de manera paralela, una cultura de responsabilidad y buenos usos de la misma. Esto, al contrario de lo que muchos piensan, no solo consiste en aprender y aplicar medidas de ciberseguridad.

De hecho, promover dicha cultura responsable es solo el primer paso. Es más que necesario exigir a gobiernos y empresas que tomen medidas para un manejo ético de las IA, pues la reflexión moral ya comenzó. Y se han dado algunos avances al respecto, comenta una publicación de Derecho Global.

La efectividad de las conclusiones de esta reflexión dependerá de que cumplan con su objetivo humanista, pues, de momento, quienes de verdad nos dominan son los humanos tras los robots. Es decir, por ahora, detrás de toda inteligencia artificial hay una inteligencia humana.


Todas las fuentes citadas fueron revisadas a profundidad por nuestro equipo, para asegurar su calidad, confiabilidad, vigencia y validez. La bibliografía de este artículo fue considerada confiable y de precisión académica o científica.



Este texto se ofrece únicamente con propósitos informativos y no reemplaza la consulta con un profesional. Ante dudas, consulta a tu especialista.