La Ética de La Inteligencia Artificia

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 45

Recomendación sobre

la ética de
la inteligencia
artificial
Adoptada el 23 de noviembre de 2021
Publicado en 2022 por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura,
7, place de Fontenoy, 75352 París 07 SP, Francia

© UNESCO 2022

SHS/BIO/PI/2021/1

Todos los derechos reservados.

Esta publicación está disponible en acceso abierto bajo la licencia Attribution-NonCommercial-


ShareAlike 3.0 IGO (CC-BY-NC-SA 3.0 IGO) (http://creativecommons.org/licenses/by-nc-sa/3.0/igo/).
Al utilizar el contenido de la presente publicación, los usuarios aceptan las condiciones de utilización
del Repositorio UNESCO de acceso abierto (www.unesco.org/open-access/terms-use-ccbyncsa-sp).

Fotografías de cubierta:
Irina Bg/Shutterstock.com; Artistdesign29/Shutterstock.com; kynny/gettyimages; gorodenkoffy/
gettyimages; Gorodenkoff/Shutterstock.com; dieddin/Shutterstock.com; Gorodenkoff/Shutterstock.
com; PopTika/Shutterstock.com; Horth Rasur/Shutterstock.com.

Fotografías en el interior:
p.8 : ESB Professional/Shutterstock.com
p.11 : Ruslana Iurchenko/Shutterstock.com
p.12 : metamorworks/Shutterstock.com
p.14/15 : Alexander Supertramp/Shutterstock.com
p.16 : Wazzkii/Shutterstock.com
p.19 : Mukesh Kumar Jwala/Shutterstock.com
p.21 : supparsorn/Shutterstock.com
p.24 : everything possible/Shutterstock.com
p.29 : Gorodenkoff/Shutterstock.com
p.32 : only_kim/Shutterstock.com
p.34 : SeventyFour/Shutterstock.com
p.35 : ESB Professional/Shutterstock.com
p.37 : KlingSup/Shutterstock.com
p.39 : Miriam Doerr Martin Frommherz/Shutterstock.com

Diseño grafico: Aurélia Mazoyer

Impresión: UNESCO

Impreso en Francia
CLD 484_22
Recomendación sobre

la ética de
la inteligencia
artificial
Adoptada el 23 de noviembre de 2021
Índice

Preámbulo 5

I Ámbito de aplicación 9

II. Fines y objetivos 13

III Valores y principios 17


III.1 VALORES 18
III.2 PRINCIPIOS 20

IV. Ámbitos de acción política 25


ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO 26
ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS 27
ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS 29
ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN INTERNACIONAL 30
ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS 31
ÁMBITO DE ACTUACIÓN 6: GÉNERO 32
ÁMBITO DE ACTUACIÓN 7: CULTURA 33
ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN 34
ÁMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN 36
ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO 36
ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL 38

V. Seguimiento y evaluación 40

VI. Utilización y aplicación de la presente Recomendación 42

VII. Promoción de la presente Recomendación 43

VIII. Disposiciones finales 44

3
Preámbulo

La Conferencia General de la Organización de las Naciones la dignidad humana, los derechos humanos y las libertades
Unidas para la Educación, la Ciencia y la Cultura (UNESCO), fundamentales, la igualdad de género, la democracia, los
reunida en París del 9 al 24 de noviembre de 2021, en su 41ª procesos sociales, económicos, políticos y culturales, las
reunión, prácticas científicas y de ingeniería, el bienestar animal y el
medio ambiente y los ecosistemas,
Reconociendo las repercusiones positivas y negativas
profundas y dinámicas de la inteligencia artificial (IA) en las Reconociendo también que las tecnologías de la IA
sociedades, el medio ambiente, los ecosistemas y las vidas pueden agravar las divisiones y desigualdades existentes en
humanas, en particular en la mente humana, debido en el mundo, dentro de los países y entre ellos, y que es preciso
parte a las nuevas formas en que su utilización influye en el defender la justicia, la confianza y la equidad para que ningún
pensamiento, las interacciones y la adopción de decisiones de país y ninguna persona se queden atrás, ya sea mediante el
los seres humanos y afecta a la educación, las ciencias sociales acceso equitativo a las tecnologías de la IA y el disfrute de los
y humanas, las ciencias exactas y naturales, la cultura y la beneficios que aportan o mediante la protección contra sus
comunicación y la información, consecuencias negativas, reconociendo al mismo tiempo las
diferentes circunstancias de los distintos países y respetando
Recordando que, con arreglo a su Constitución, la UNESCO el deseo de algunas personas de no participar en todos los
se propone contribuir a la paz y a la seguridad estrechando, avances tecnológicos,
mediante la educación, la ciencia, la cultura y la comunicación
y la información, la colaboración entre las naciones, a fin de Consciente de que todos los países se enfrentan a una
asegurar el respeto universal a la justicia, a la ley, a los derechos aceleración del uso de las tecnologías de la información y la
humanos y a las libertades fundamentales que se reconocen a comunicación y las tecnologías de la IA, así como a una necesidad
todos los pueblos del mundo, cada vez mayor de alfabetización mediática e informacional,
y de que la economía digital presenta importantes desafíos
Convencida de que la Recomendación que aquí se sociales, económicos y ambientales y ofrece oportunidades
presenta, en su calidad de instrumento normativo elaborado de compartir los beneficios, especialmente para los países de
mediante un enfoque mundial, basado en el derecho ingreso mediano bajo, incluidos, entre otros, los países menos
internacional y centrado en la dignidad humana y los derechos adelantados (PMA), los países en desarrollo sin litoral (PDSL)
humanos, así como en la igualdad de género, la justicia social y los pequeños Estados insulares en desarrollo (PEID), que
y económica y el desarrollo, el bienestar físico y mental, requieren el reconocimiento, la protección y la promoción de
la diversidad, la interconexión, la inclusión y la protección las culturas, los valores y los conocimientos endógenos a fin de
del medio ambiente y de los ecosistemas, puede dar una desarrollar economías digitales sostenibles,
orientación responsable a las tecnologías de la IA,
Reconociendo además que las tecnologías de la
Guiada por los propósitos y principios de la Carta de las IA pueden ser beneficiosas para el medio ambiente y los
Naciones Unidas, ecosistemas y que, para que esos beneficios se materialicen, no
Considerando que las tecnologías de la IA pueden ser deberían pasarse por alto, sino tenerse en cuenta, los posibles
de gran utilidad para la humanidad y que todos los países daños y las repercusiones negativas que pueden ocasionar en
pueden beneficiarse de ellas, pero que también suscitan el medio ambiente y los ecosistemas,
preocupaciones éticas fundamentales, por ejemplo, en relación Observando que el hecho de tener en cuenta los
con los sesgos que pueden incorporar y exacerbar, lo que riesgos y las preocupaciones éticas no debería obstaculizar
puede llegar a provocar discriminación, desigualdad, brechas la innovación y el desarrollo, sino más bien ofrecer nuevas
digitales y exclusión y suponer una amenaza para la diversidad oportunidades y estimular una investigación y una innovación
cultural, social y biológica, así como generar divisiones sociales realizadas de manera ética que afiancen las tecnologías de la
o económicas; la necesidad de transparencia e inteligibilidad IA en los derechos humanos y las libertades fundamentales,
del funcionamiento de los algoritmos y los datos con los que los valores, los principios y la reflexión moral y ética,
han sido entrenados; y su posible impacto en, entre otros,

5
Recordando también que en noviembre de 2019 la Discriminación (Empleo y Ocupación) (1958), la Convención
aprobó, en su 40ª reunión, la resolución 40 C/37, en la que Internacional sobre la Eliminación de Todas las Formas de
encargó a la Directora General que “[preparara] un instrumento Discriminación Racial (1965), el Pacto Internacional de Derechos
normativo internacional sobre la ética de la inteligencia Civiles y Políticos (1966), el Pacto Internacional de Derechos
artificial (IA) en forma de recomendación”, que se le presentaría Económicos, Sociales y Culturales (1966), la Convención sobre
en su 41ª reunión en 2021, la Eliminación de Todas las Formas de Discriminación contra
la Mujer (1979), la Convención sobre los Derechos del Niño
Reconociendo que el desarrollo de las tecnologías de (1989), la Convención sobre los Derechos de las Personas con
la IA requiere un incremento proporcional de la educación Discapacidad (2006), la Convención relativa a la Lucha contra
en materia de datos y de la alfabetización mediática e las Discriminaciones en la Esfera de la Enseñanza (1960) y la
informacional, así como el acceso a fuentes de información Convención sobre la Protección y Promoción de la Diversidad
independientes, pluralistas y fidedignas, en particular en el de las Expresiones Culturales (2005), así como cualesquiera
marco de los esfuerzos destinados a atenuar los riesgos de otros instrumentos, recomendaciones y declaraciones
información errónea, desinformación y discurso de odio, así internacionales pertinentes,
como los daños causados por el uso indebido de los datos
personales, Tomando nota de la Declaración sobre el Derecho
al Desarrollo (1986); de la Declaración sobre las
Observando también que el marco normativo para las Responsabilidades de las Generaciones Actuales para con
tecnologías de la IA y sus implicaciones sociales se fundamenta las Generaciones Futuras (1997); de la Declaración Universal
en los marcos jurídicos internacionales y nacionales, los sobre Bioética y Derechos Humanos (2005); de la Declaración
derechos humanos y las libertades fundamentales, la ética, de las Naciones Unidas sobre los Derechos de los Pueblos
la necesidad de acceder a los datos, la información y los Indígenas (2007); de la resolución de la Asamblea General de
conocimientos, la libertad de investigación e innovación y el las Naciones Unidas sobre el examen de la Cumbre Mundial
bienestar de los seres humanos, del medio ambiente y de los sobre la Sociedad de la Información (A/RES/70/125) (2015);
ecosistemas, y conecta los valores y principios éticos con los de la resolución de la Asamblea General de las Naciones
retos y oportunidades vinculados a las tecnologías de la IA, Unidas titulada “Transformar nuestro mundo: la Agenda
sobre la base de un entendimiento común y unos objetivos 2030 para el Desarrollo Sostenible” (A/RES/70/1) (2015); de
compartidos, la Recomendación relativa a la Preservación del Patrimonio
Documental, comprendido el Patrimonio Digital, y el Acceso
Reconociendo también que los valores y principios
al mismo (2015); de la Declaración de Principios Éticos en
éticos pueden ayudar a elaborar y aplicar medidas de política
relación con el Cambio Climático (2017); de la Recomendación
y normas jurídicas basadas en los derechos, proporcionando
sobre la Ciencia y los Investigadores Científicos (2017); de los
orientación con miras al rápido desarrollo tecnológico,
indicadores sobre la universalidad de Internet (aprobados en
Convencida también de que las normas éticas 2018 por el Programa Internacional para el Desarrollo de la
aceptadas mundialmente para las tecnologías de la IA, que Comunicación de la UNESCO), incluidos los principios ROAM
respetan plenamente el derecho internacional, en particular el (aprobados por la Conferencia General de la UNESCO en 2015);
derecho de los derechos humanos, pueden desempeñar una de la resolución del Consejo de Derechos Humanos sobre “El
función esencial en la elaboración de normas relacionadas con derecho a la privacidad en la era digital” (A/HRC/RES/42/15)
la IA en todo el mundo, (2019); y de la resolución del Consejo de Derechos Humanos
titulada “Las tecnologías digitales nuevas y emergentes y los
Teniendo presentes la Declaración Universal de derechos humanos” (A/HRC/RES/41/11) (2019),
Derechos Humanos (1948), los instrumentos del marco
internacional de derechos humanos, entre ellos la Convención Haciendo hincapié en que debe prestarse atención
sobre el Estatuto de los Refugiados (1951), el Convenio sobre específica a los países de ingreso mediano bajo, incluidos,

6
entre otros, los PMA, los PDSL y los PEID, ya que, aunque diversidad cultural, y puede perturbar las normas y los valores
tienen su propia capacidad, han estado insuficientemente éticos locales y regionales,
representados en el debate sobre la ética de la IA, lo que suscita la
preocupación de que se descuiden los conocimientos locales, 1. Aprueba la presente Recomendación sobre la Ética
de la Inteligencia Artificial;
el pluralismo cultural, los sistemas de valores y las exigencias
de equidad mundial para gestionar las repercusiones positivas 2. Recomienda que los Estados Miembros apliquen,
y negativas de las tecnologías de la IA, de manera voluntaria, las disposiciones de la presente
Recomendación mediante la adopción de las medidas
Consciente también de que existen numerosas adecuadas, en particular las medidas legislativas o de
políticas en el plano nacional, así como otros marcos e otra índole que puedan ser necesarias, de acuerdo con la
iniciativas elaborados por las entidades pertinentes de las práctica constitucional y las estructuras de gobierno de
Naciones Unidas, por organizaciones intergubernamentales, cada Estado, con el fin de dar efecto en sus respectivas
incluidas organizaciones regionales, así como las del sector jurisdicciones a los principios y normas enunciados en
privado, y por organizaciones profesionales, organizaciones no la Recomendación, de conformidad con el derecho
gubernamentales y de la comunidad científica, relacionados internacional, incluido el derecho internacional de los
con la ética y la regulación de las tecnologías de la IA, derechos humanos;

Convencida además de que las tecnologías de la 3. Recomienda también a los Estados Miembros que
IA pueden aportar importantes beneficios, pero que su hagan partícipes a todas las partes interesadas, incluidas
consecución también puede hacer aumentar la tensión en las empresas, para asegurarse de que desempeñan sus
respectivas funciones en la aplicación de la presente
lo que respecta a la innovación, el acceso asimétrico a los
Recomendación y que señalen la Recomendación a la
conocimientos y las tecnologías, en particular la insuficiente
atención de las autoridades, organismos, organizaciones
educación digital y cívica que limita la capacidad del público universitarias y de investigación, instituciones y
para participar en los temas relacionados con la IA, así como organizaciones de los sectores público, privado y de la
las barreras al acceso a la información y las brechas en cuanto sociedad civil que participan en las tecnologías de la IA,
a las capacidades humanas e institucionales, los obstáculos al para que el desarrollo y la utilización de esas tecnologías
acceso a la innovación tecnológica y la falta de infraestructura se guíen tanto por una investigación científica sólida
física y digital y de marcos reguladores adecuados, en particular como por un análisis y una evaluación éticos.
los relativos a los datos, problemas todos ellos que deben ser
abordados,

Subrayando que es necesario fortalecer la cooperación


y la solidaridad mundiales, en particular mediante el
multilateralismo, para facilitar el acceso equitativo a las
tecnologías de la IA y hacer frente a los desafíos que
estas plantean en culturas y sistemas éticos diversos e
interconectados, para reducir la posibilidad de usos indebidos,
para aprovechar todo el potencial que la IA puede aportar,
especialmente en el ámbito del desarrollo, y para garantizar
que las estrategias nacionales en materia de IA se guíen por
principios éticos,

Teniendo plenamente en cuenta que el rápido


desarrollo de las tecnologías de la IA complica su aplicación
y gobernanza éticas, así como el respeto y la protección de la

7
8
I.
Ámbito de
aplicación

9
1. La presente Recomendación trata de las cuestiones sensores y el funcionamiento de los actuadores
éticas relacionadas con el ámbito de la inteligencia en el entorno en que operan los sistemas de IA;
artificial en la medida en que competen al mandato de
la UNESCO. Aborda la ética de la IA como una reflexión b) las cuestiones éticas relativas a los sistemas de IA
normativa sistemática, basada en un marco integral, atañen a todas las etapas del ciclo de vida de estos
global, multicultural y evolutivo de valores, principios sistemas, que aquí se entiende que van desde
y acciones interdependientes, que puede guiar a las la investigación, la concepción y el desarrollo
sociedades a la hora de afrontar de manera responsable hasta el despliegue y la utilización, pasando
los efectos conocidos y desconocidos de las tecnologías por el mantenimiento, el funcionamiento, la
de la IA en los seres humanos, las sociedades y el medio comercialización, la financiación, el seguimiento y
ambiente y los ecosistemas, y les ofrece una base para la evaluación, la validación, el fin de la utilización,
aceptar o rechazar las tecnologías de la IA. Considera el desmontaje y la terminación. Además, los
la ética como una base dinámica para la evaluación actores de la IA pueden definirse como todo actor
y la orientación normativas de las tecnologías de la que participe en al menos una etapa del ciclo de
IA, tomando como referencia la dignidad humana, el vida del sistema de IA y pueden ser tanto personas
bienestar y la prevención de daños y apoyándose en la físicas como jurídicas, por ejemplo, investigadores,
ética de la ciencia y la tecnología. programadores, ingenieros, especialistas en
datos, usuarios finales, empresas, universidades y
2. La presente Recomendación no pretende proporcionar entidades públicas y privadas, entre otros;
una única definición de la IA, ya que tal definición
tendría que cambiar con el tiempo en función de los c) los sistemas de IA plantean nuevos tipos de
avances tecnológicos. Su objetivo es más bien abordar cuestiones éticas que incluyen, aunque no
las características de los sistemas de IA que tienen exclusivamente, su impacto en la adopción de
una importancia ética central. Por tanto, la presente decisiones, el empleo y el trabajo, la interacción
Recomendación considera los sistemas de IA sistemas social, la atención de la salud, la educación,
capaces de procesar datos e información de una manera los medios de comunicación, el acceso a la
que se asemeja a un comportamiento inteligente, información, la brecha digital, la protección
y abarca generalmente aspectos de razonamiento, del consumidor y de los datos personales, el
aprendizaje, percepción, predicción, planificación o medio ambiente, la democracia, el estado de
control. Tres elementos ocupan un lugar central en este derecho, la seguridad y el mantenimiento del
enfoque: orden, el doble uso y los derechos humanos y las
libertades fundamentales, incluidas la libertad de
a) los sistemas de IA son tecnologías de expresión, la privacidad y la no discriminación.
procesamiento de la información que integran Además, surgen nuevos desafíos éticos por
modelos y algoritmos que producen una el potencial de los algoritmos de la IA para
capacidad para aprender y realizar tareas reproducir y reforzar los sesgos existentes, lo
cognitivas, dando lugar a resultados como que puede exacerbar las formas ya existentes de
la predicción y la adopción de decisiones en discriminación, los prejuicios y los estereotipos.
entornos materiales y virtuales. Los sistemas de Algunas de estas cuestiones tienen que ver con
IA están diseñados para funcionar con diferentes la capacidad de los sistemas de IA para realizar
grados de autonomía, mediante la modelización y tareas que antes solo podían hacer los seres vivos
representación del conocimiento y la explotación y que, en algunos casos, incluso se limitaban
de datos y el cálculo de correlaciones. Pueden solo a los seres humanos. Estas características
incluir varios métodos, como, por ejemplo, otorgan a los sistemas de IA una función nueva
aunque no exclusivamente: y determinante en las prácticas y la sociedad
humanas, así como en su relación con el medio
i) el aprendizaje automático, incluido el ambiente y los ecosistemas, creando un nuevo
aprendizaje profundo y el aprendizaje de contexto para que los niños y los jóvenes crezcan,
refuerzo; desarrollen una comprensión del mundo y de sí
mismos, comprendan críticamente los medios
ii) el razonamiento automático, incluidas
de comunicación y la información y aprendan a
la planificación, la programación, la
tomar decisiones. A largo plazo, los sistemas de IA
representación del conocimiento y el
podrían disputar al ser humano el sentido especial
razonamiento, la búsqueda y la optimización.
de la experiencia y la capacidad de actuar que le
Los sistemas de IA pueden utilizarse en los son propios, lo que plantearía nuevas inquietudes
sistemas ciberfísicos, incluidos la Internet de las sobre la autocomprensión, la interacción social,
cosas, los sistemas robóticos, la robótica social y cultural y ambiental, la autonomía, la capacidad
las interfaces entre seres humanos y ordenadores, de actuar, el valor y la dignidad del ser humano,
que comportan el control, la percepción, el entre otras.
procesamiento de los datos recogidos por

10
3. En la presente Recomendación se presta especial pocos actores, lo que puede tener consecuencias
atención a las repercusiones éticas más amplias de los negativas para la diversidad y el pluralismo
sistemas de IA en las principales esferas de competencia de las lenguas, los medios de comunicación,
de la UNESCO —la educación, la ciencia, la cultura y las expresiones culturales, la participación y la
la comunicación y la información—, examinadas en igualdad;
el estudio preliminar sobre la ética de la inteligencia
artificial elaborado en 2019 por la Comisión Mundial d) la comunicación y la información, ya que las
de Ética del Conocimiento Científico y la Tecnología tecnologías de la IA desempeñan una función
(COMEST) de la UNESCO: cada vez más importante en el procesamiento,
la estructuración y el suministro de información;
a) la educación, porque vivir en sociedades en las cuestiones del periodismo automatizado y del
proceso de digitalización exige nuevas prácticas suministro algorítmico de noticias y la moderación
educativas, una reflexión ética, un pensamiento y la conservación de contenidos en los medios
crítico, prácticas de concepción responsables y sociales y los buscadores son solo algunos
nuevas competencias, dadas las implicaciones ejemplos que plantean cuestiones relacionadas
para el mercado laboral, la empleabilidad y la con el acceso a la información, la desinformación,
participación cívica; la información errónea, el discurso de odio, la
aparición de nuevas formas de narrativa social,
b) la ciencia, en el sentido más amplio, que abarca la discriminación, la libertad de expresión,
todos los ámbitos académicos desde las ciencias la privacidad y la alfabetización mediática e
exactas y naturales y las ciencias médicas hasta las informacional, entre otras.
ciencias sociales y humanas, ya que las tecnologías
de la IA aportan nuevas capacidades y enfoques de 4. La presente Recomendación se dirige a los Estados
investigación, influyen en nuestra concepción de Miembros, tanto en su calidad de actores de la IA como
la comprensión y la explicación científicas y crean de autoridades responsables de la elaboración de
una nueva base para la adopción de decisiones; marcos jurídicos y reguladores a lo largo de todo el ciclo
de vida de los sistemas de IA, así como de la promoción
c) la identidad y la diversidad culturales, ya que de la responsabilidad empresarial. También proporciona
las tecnologías de la IA pueden enriquecer las orientación ética a todos los actores de la IA, incluidos
industrias culturales y creativas, pero también los sectores público y privado, al sentar las bases para
pueden dar lugar a una mayor concentración de una evaluación del impacto ético de los sistemas de IA a
la oferta de contenidos, los datos, los mercados lo largo de su ciclo de vida.
y los ingresos de la cultura en manos de unos

11
12
II.
Fines y
objetivos

13
5. La presente Recomendación tiene por objeto servir 7. Dado que la complejidad de las cuestiones éticas que
de base para poner los sistemas de IA al servicio de la rodean a la IA exige la cooperación de múltiples partes
humanidad, las personas, las sociedades y el medio interesadas en los diversos niveles y sectores de las
ambiente y los ecosistemas, así como para prevenir comunidades internacionales, regionales y nacionales,
daños. Aspira también a estimular la utilización de los la presente Recomendación tiene por objeto permitir
sistemas de IA con fines pacíficos. que las partes interesadas asuman una responsabilidad
compartida basada en un diálogo mundial e intercultural.
6. Además de los marcos éticos relativos a la IA existentes
en todo el mundo, la presente Recomendación 8. Los objetivos de la presente Recomendación son los
pretende aportar un instrumento normativo aceptado siguientes:
mundialmente que no solo se centre en la articulación
de valores y principios, sino también en su aplicación a) proporcionar un marco universal de valores,
práctica, mediante recomendaciones de política principios y acciones para orientar a los Estados
concretas, haciendo especial hincapié en la inclusión, en la formulación de sus leyes, políticas u otros
las cuestiones de igualdad de género y la protección del instrumentos relativos a la IA, de conformidad con
medio ambiente y los ecosistemas. el derecho internacional;

14
b) orientar las acciones de las personas, los grupos, las d) fomentar el diálogo multidisciplinario y
comunidades, las instituciones y las empresas del pluralista entre múltiples partes interesadas y la
sector privado a fin de asegurar la incorporación concertación sobre cuestiones éticas relacionadas
de la ética en todas las etapas del ciclo de vida de con los sistemas de IA;
los sistemas de IA;
e) promover el acceso equitativo a los avances
c) proteger, promover y respetar los derechos y los conocimientos en el ámbito de la IA y el
humanos y las libertades fundamentales, la aprovechamiento compartido de los beneficios,
dignidad humana y la igualdad, incluida la prestando especial atención a las necesidades y
igualdad de género; salvaguardar los intereses de contribuciones de los países de ingreso mediano
las generaciones presentes y futuras; preservar bajo, incluidos los PMA, los PDSL y los PEID.
el medio ambiente, la biodiversidad y los
ecosistemas; y respetar la diversidad cultural en
todas las etapas del ciclo de vida de los sistemas
de IA;

15
16
III.
Valores y
principios

17
9. Los valores y principios que figuran a continuación libertades fundamentales. En todos los casos, toda
deberían ser respetados por todos los actores durante posible limitación de los derechos humanos y las
el ciclo de vida de los sistemas de IA, en primer lugar, y, libertades fundamentales ha de tener una base jurídica
cuando resulte necesario y conveniente, ser promovidos y ser razonable, necesaria y proporcional, así como
mediante modificaciones de las leyes, los reglamentos y conforme a las obligaciones de los Estados con arreglo
las directrices empresariales existentes y la elaboración al derecho internacional. Para elegir de manera juiciosa
de otros nuevos. Todo ello debe ajustarse al derecho entre esas posibilidades, será necesario por lo general
internacional, en particular la Carta de las Naciones colaborar con una amplia gama de partes interesadas
Unidas y las obligaciones de los Estados Miembros en apropiadas, haciendo uso del diálogo social, así como de
materia de derechos humanos, y estar en consonancia la deliberación ética, la diligencia debida y la evaluación
con los objetivos de sostenibilidad social, política, del impacto.
ambiental, educativa, científica y económica acordados
internacionalmente, como los Objetivos de Desarrollo 12. La fiabilidad y la integridad del ciclo de vida de los
Sostenible (ODS) de las Naciones Unidas. sistemas de IA son esenciales para velar por que las
tecnologías de la IA estén al servicio del bien de la
10. Los valores desempeñan una importante función como humanidad, las personas, las sociedades y el medio
ideales que motivan la orientación de las medidas de ambiente y los ecosistemas, y encarnen los valores y
política y las normas jurídicas. Mientras que el conjunto principios enunciados en la presente Recomendación.
de valores que se enuncian a continuación inspira, por Las personas deberían tener buenas razones para
tanto, un comportamiento deseable y representa los confiar en que los sistemas de IA pueden aportar
fundamentos de los principios, los principios, por su beneficios individuales y compartidos, al tiempo que se
parte, revelan los valores subyacentes de manera más adoptan medidas adecuadas para atenuar los riesgos.
concreta, de modo que estos últimos puedan aplicarse Un requisito esencial para la fiabilidad es que, a lo largo
más fácilmente en las declaraciones de política y las de su ciclo de vida, los sistemas de IA estén sujetos a
acciones. un seguimiento exhaustivo por las partes interesadas
pertinentes, según corresponda. Dado que la fiabilidad
11. Si bien todos los valores y principios que se enuncian a resulta de la aplicación de los principios expuestos en
continuación son deseables en sí mismos, en cualquier este documento, todas las medidas políticas propuestas
contexto práctico, puede haber tensiones entre ellos. en la presente Recomendación están dirigidas a
En cualquier situación, será necesaria una evaluación promover la fiabilidad en todas las etapas del ciclo de
del contexto para gestionar estas posibles tensiones, vida de los sistemas de IA.
teniendo en cuenta el principio de proporcionalidad
y de conformidad con los derechos humanos y las

III.1 VALORES

Respeto, protección y promoción de los derechos económico, social, político, cultural o mental, durante
humanos, las libertades fundamentales y la ninguna etapa del ciclo de vida de los sistemas de IA. A
dignidad humana lo largo de su ciclo de vida, los sistemas de IA deberían
mejorar la calidad de vida de los seres humanos, dejando
13. La dignidad inviolable e intrínseca de cada ser humano a las personas o los grupos la tarea de definir el concepto
constituye la base del sistema universal, indivisible, de “calidad de vida”, siempre que como resultado de esa
inalienable, interdependiente e interrelacionado de definición no se produzca ninguna violación o abuso de
derechos humanos y libertades fundamentales. Por los derechos humanos y las libertades fundamentales ni
consiguiente, el respeto, la protección y la promoción de la dignidad de las personas.
de la dignidad humana y de los derechos establecidos
por el derecho internacional, en particular el derecho 15. Las personas pueden interactuar con los sistemas de IA
internacional de los derechos humanos, son esenciales a lo largo de su ciclo de vida y recibir su asistencia, por
a lo largo del ciclo de vida de los sistemas de IA. La ejemplo, para el cuidado de las personas vulnerables
dignidad humana tiene que ver con el reconocimiento o en situación de vulnerabilidad, incluidos, entre
del valor intrínseco e igual de cada ser humano, con otros, los niños, las personas de edad, las personas
independencia de su raza, color, ascendencia, género, con discapacidad o los enfermos. En el marco de
edad, idioma, religión, opiniones políticas, origen esas interacciones, las personas nunca deberían ser
nacional, étnico o social, condición económica o social cosificadas, su dignidad no debería ser menoscabada
de nacimiento, discapacidad o cualquier otro motivo. de ninguna otra manera, y sus derechos humanos y
libertades fundamentales nunca deberían ser objeto de
14. Ningún ser humano ni comunidad humana debería violación o abusos.
sufrir daños o sometimiento, ya sean de carácter físico,

18
16. Los derechos humanos y las libertades fundamentales factores de riesgo ambiental, y prevenir la explotación,
han de ser respetados, protegidos y promovidos a lo largo la utilización y la transformación no sostenibles de los
del ciclo de vida de los sistemas de IA. Los gobiernos, recursos naturales que contribuyen al deterioro del
el sector privado, la sociedad civil, las organizaciones medio ambiente y a la degradación de los ecosistemas.
internacionales, las comunidades técnicas y las
universidades deben respetar los instrumentos y marcos
de derechos humanos en sus intervenciones en los Garantizar la diversidad y la inclusión
procesos que rodean el ciclo de vida de los sistemas de
19. El respeto, la protección y la promoción de la diversidad
IA. Es necesario que las nuevas tecnologías proporcionen
y la inclusión deberían garantizarse a lo largo del ciclo
nuevos medios para promover, defender y ejercer los
de vida de los sistemas de IA, de conformidad con el
derechos humanos, y no para vulnerarlos.
derecho internacional, en particular el derecho de los
derechos humanos. Para ello se podría promover la
Prosperidad del medio ambiente y los ecosistemas participación activa de todas las personas o grupos, con
independencia de su raza, color, ascendencia, género,
17. La prosperidad del medio ambiente y los ecosistemas edad, idioma, religión, opiniones políticas, origen
debería ser reconocida, protegida y promovida a lo nacional, étnico o social, condición económica o social
largo del ciclo de vida de los sistemas de IA. Además, el de nacimiento, discapacidad o cualquier otro motivo.
medio ambiente y los ecosistemas son una necesidad
existencial para que la humanidad y los demás seres 20. La diversidad de las elecciones de estilo de vida,
vivos puedan disfrutar de los beneficios derivados de los creencias, opiniones, expresiones o experiencias
avances de la IA. personales, incluida la utilización opcional de sistemas
de IA y la concepción conjunta de estas arquitecturas,
18. Todos los actores que participan en el ciclo de vida de los no debería restringirse durante ninguna etapa del ciclo
sistemas de IA deben respetar el derecho internacional de vida de dichos sistemas.
y las leyes, normas y prácticas nacionales aplicables,
como la precaución, concebidas para la protección y 21. Además, habría que esforzarse, principalmente
la restauración del medio ambiente y los ecosistemas mediante la cooperación internacional, por paliar la
y para el desarrollo sostenible. Deberían reducir el falta de infraestructura, educación y competencias
impacto ambiental de los sistemas de IA, en particular, tecnológicas necesarias, así como de marcos jurídicos,
aunque no exclusivamente, su huella de carbono, para que afecta a algunas comunidades, en particular en los
asegurar la minimización del cambio climático y los países de ingreso mediano bajo, los PMA, los PDSL y los
PEID, y no aprovecharse nunca de esa situación.

19
Vivir en sociedades pacíficas, justas e requiere un vínculo orgánico, inmediato y no calculado
interconectadas de solidaridad, caracterizado por una búsqueda
permanente de relaciones pacíficas, tendentes al
22. Los actores de la IA deberían propiciar sociedades cuidado de los demás y del medio natural en el sentido
pacíficas y justas, sobre la base de un futuro más amplio del término.
interconectado en beneficio de todos, compatibles con
los derechos humanos y las libertades fundamentales, 24. Este valor exige que se promuevan la paz, la inclusión y
y participar en su construcción. El valor de vivir en la justicia, la equidad y la interconexión durante el ciclo
sociedades pacíficas y justas apunta al potencial de los de vida de los sistemas de IA, en la medida en que los
sistemas de IA para contribuir a lo largo de su ciclo de procesos de dicho ciclo de vida no deberían segregar
vida a la interconexión de todas las criaturas vivas entre ni cosificar a los seres humanos y las comunidades ni
sí y con el medio natural. mermar su libertad, su autonomía de decisión y su
seguridad, así como tampoco dividir y enfrentar entre sí
23. La noción de interconexión de los seres humanos se a las personas y los grupos ni amenazar la coexistencia
basa en el conocimiento de que cada uno de ellos entre los seres humanos, los demás seres vivos y el
pertenece a un todo más amplio, que prospera cuando medio natural.
todas las partes que lo constituyen pueden progresar.
Vivir en sociedades pacíficas, justas e interconectadas

III.2 PRINCIPIOS

Proporcionalidad e inocuidad Seguridad y protección

25. Debería reconocerse que las tecnologías de la IA no 27. Los daños no deseados (riesgos de seguridad) y las
garantizan necesariamente, por sí mismas, la prosperidad vulnerabilidades a los ataques (riesgos de protección)
de los seres humanos ni del medio ambiente y los deberían ser evitados y deberían tenerse en cuenta,
ecosistemas. Además, ninguno de los procesos prevenirse y eliminarse a lo largo del ciclo de vida
relacionados con el ciclo de vida de los sistemas de IA de los sistemas de IA para garantizar la seguridad y la
podrá ir más allá de lo necesario para lograr propósitos protección de los seres humanos, del medio ambiente
u objetivos legítimos, y esos procesos deberían y de los ecosistemas. La seguridad y la protección de
ser adecuados al contexto. En caso de que pueda la IA se propiciarán mediante el desarrollo de marcos
producirse cualquier daño para los seres humanos, los de acceso a los datos que sean sostenibles, respeten
derechos humanos y las libertades fundamentales, las la privacidad y fomenten un mejor entrenamiento y
comunidades y la sociedad en general, o para el medio validación de los modelos de IA que utilicen datos de
ambiente y los ecosistemas, debería garantizarse la calidad.
aplicación de procedimientos de evaluación de riesgos
y la adopción de medidas para impedir que ese daño se
produzca. Equidad y no discriminación

26. La decisión de utilizar sistemas de IA y la elección del 28. Los actores de la IA deberían promover la justicia
método de IA deberían justificarse de las siguientes social, salvaguardar la equidad y luchar contra todo
maneras: a) el método de IA elegido debería ser tipo de discriminación, de conformidad con el derecho
adecuado y proporcional para lograr un objetivo internacional. Ello supone adoptar un enfoque inclusivo
legítimo determinado; b) el método de IA elegido no para garantizar que los beneficios de las tecnologías
debería vulnerar los valores fundamentales enunciados de la IA estén disponibles y sean accesibles para todos,
en el presente documento, en particular, su utilización teniendo en cuenta las necesidades específicas de
no debe constituir una violación o un abuso de los los diferentes grupos de edad, los sistemas culturales,
derechos humanos; y c) el método de IA elegido debería los diferentes grupos lingüísticos, las personas con
ser adecuado al contexto y basarse en fundamentos discapacidad, las niñas y las mujeres y las personas
científicos rigurosos. En los casos en que se entienda desfavorecidas, marginadas y vulnerables o en situación
que las decisiones tienen un impacto irreversible o difícil de vulnerabilidad. Los Estados Miembros deberían
de revertir o que pueden implicar decisiones de vida o esforzarse por promover un acceso inclusivo para todos,
muerte, la decisión final debería ser adoptada por un ser incluidas las comunidades locales, a sistemas de IA con
humano. En particular, los sistemas de IA no deberían contenidos y servicios adaptados al contexto local, y
utilizarse con fines de calificación social o vigilancia respetando el multilingüismo y la diversidad cultural.
masiva. Los Estados Miembros deberían esforzarse por reducir
las brechas digitales y garantizar el acceso inclusivo al
desarrollo de la IA y la participación en él. En el plano
nacional, los Estados Miembros deberían promover la

20
equidad entre las zonas rurales y urbanas y entre todas largo del ciclo de vida de los sistemas de IA, en particular
las personas, con independencia de su raza, color, en lo que respecta al acceso y la calidad del acceso a la
ascendencia, género, edad, idioma, religión, opiniones tecnología y los datos, de conformidad con los marcos
políticas, origen nacional, étnico o social, condición jurídicos nacionales, regionales e internacionales
económica o social de nacimiento, discapacidad o pertinentes, así como en lo referente a la conectividad,
cualquier otro motivo, en lo que respecta al acceso al los conocimientos y las competencias y a la participación
ciclo de vida de los sistemas de IA y la participación en significativa de las comunidades afectadas, de manera
él. En el plano internacional, los países más avanzados que todas las personas sean tratadas equitativamente.
tecnológicamente tienen la responsabilidad de ser
solidarios con los menos avanzados para garantizar que
los beneficios de las tecnologías de la IA se compartan Sostenibilidad
de manera que, para estos últimos, el acceso al ciclo
31. El desarrollo de sociedades sostenibles depende del
de vida de los sistemas de IA y la participación en él
logro de un complejo conjunto de objetivos relacionados
contribuyan a un orden mundial más equitativo en
con distintas dimensiones humanas, sociales, culturales,
lo que respecta a la información, la comunicación, la
económicas y ambientales. La llegada de las tecnologías
cultura, la educación, la investigación y la estabilidad
de la IA puede beneficiar los objetivos de sostenibilidad
socioeconómica y política.
o dificultar su consecución, dependiendo de la forma
29. Los actores de la IA deberían hacer todo lo en que se apliquen en países con diferentes niveles de
razonablemente posible por reducir al mínimo y desarrollo. Por consiguiente, la evaluación continua de
evitar reforzar o perpetuar aplicaciones y resultados los efectos humanos, sociales, culturales, económicos y
discriminatorios o sesgados a lo largo del ciclo de vida ambientales de las tecnologías de la IA debería llevarse
de los sistemas de IA, a fin de garantizar la equidad a cabo con pleno conocimiento de las repercusiones
de dichos sistemas. Debería disponerse de un recurso de dichas tecnologías en la sostenibilidad como un
efectivo contra la discriminación y la determinación conjunto de metas en constante evolución en toda
algorítmica sesgada. una serie de dimensiones, como las que se definen
actualmente en los Objetivos de Desarrollo Sostenible
30. Además, es necesario abordar las brechas digital y de (ODS) de las Naciones Unidas.
conocimientos dentro de los países y entre ellos a lo

21
Derecho a la intimidad y protección de datos Transparencia y explicabilidad

32. La privacidad, que constituye un derecho esencial 37. La transparencia y la explicabilidad de los sistemas de
para la protección de la dignidad, la autonomía y la IA suelen ser condiciones previas fundamentales para
capacidad de actuar de los seres humanos, debe ser garantizar el respeto, la protección y la promoción de los
respetada, protegida y promovida a lo largo del ciclo de derechos humanos, las libertades fundamentales y los
vida de los sistemas de IA. Es importante que los datos principios éticos. La transparencia es necesaria para que
para los sistemas de IA se recopilen, utilicen, compartan, los regímenes nacionales e internacionales pertinentes
archiven y supriman de forma coherente con el derecho en materia de responsabilidad funcionen eficazmente.
internacional y acorde con los valores y principios La falta de transparencia también podría mermar la
enunciados en la presente Recomendación, respetando posibilidad de impugnar eficazmente las decisiones
al mismo tiempo los marcos jurídicos nacionales, basadas en resultados producidos por los sistemas de
regionales e internacionales pertinentes. IA y, por lo tanto, podría vulnerar el derecho a un juicio
imparcial y a un recurso efectivo, y limita los ámbitos en
33. Deberían establecerse en los planos nacional o los que estos sistemas pueden utilizarse legalmente.
internacional, de acuerdo con un enfoque de múltiples
partes interesadas, marcos de protección de datos y 38. Si bien hay que hacer todo lo posible por aumentar la
mecanismos de gobernanza adecuados, protegidos por transparencia y la explicabilidad de los sistemas de IA,
los sistemas judiciales y aplicados a lo largo del ciclo de incluidos los que tienen un efecto extraterritorial, a lo
vida de los sistemas de IA. Los marcos de protección largo de su ciclo de vida para respaldar la gobernanza
de datos y todo mecanismo conexo deberían tomar democrática, el grado de transparencia y explicabilidad
como referencia los principios y normas internacionales debería ser siempre adecuado al contexto y al efecto, ya
de protección de datos relativos a la recopilación, la que puede ser necesario encontrar un equilibrio entre la
utilización y la divulgación de datos personales y al transparencia y la explicabilidad y otros principios como
ejercicio de sus derechos por parte de los interesados, la privacidad, la seguridad y la protección. Las personas
garantizando al mismo tiempo un objetivo legítimo y deberían estar plenamente informadas cuando una
una base jurídica válida para el tratamiento de los datos decisión se basa en algoritmos de IA o se toma a partir
personales, incluido el consentimiento informado. de ellos, en particular cuando afecta a su seguridad
o a sus derechos humanos; en esas circunstancias,
34. Los sistemas algorítmicos requieren evaluaciones deberían tener la oportunidad de solicitar explicaciones
adecuadas del impacto en la privacidad, que incluyan e información al actor de la IA o a las instituciones del
también consideraciones sociales y éticas de su sector público correspondientes. Además, las personas
utilización y un empleo innovador del enfoque de deberían poder conocer los motivos por los que se
privacidad desde la etapa de concepción. Los actores de ha tomado una decisión que afecta a sus derechos y
la IA deben asumir la responsabilidad de la concepción libertades y tener la posibilidad de presentar alegaciones
y la aplicación de los sistemas de IA de manera que a un miembro del personal de la empresa del sector
se garantice la protección de la información personal privado o de la institución del sector público habilitado
durante todo el ciclo de vida del sistema de IA. para revisar y enmendar la decisión. Los actores de la IA
deberían informar a los usuarios cuando un producto o
servicio se proporcione directamente o con la ayuda de
Supervisión y decisión humanas sistemas de IA de manera adecuada y oportuna.
35. Los Estados Miembros deberían velar por que siempre
39. Desde un punto de vista sociotécnico, una mayor
sea posible atribuir la responsabilidad ética y jurídica,
transparencia contribuye a crear sociedades más
en cualquier etapa del ciclo de vida de los sistemas de
pacíficas, justas, democráticas e inclusivas. Posibilita un
IA, así como en los casos de recurso relacionados con
escrutinio público que puede reducir la corrupción y
sistemas de IA, a personas físicas o a entidades jurídicas
la discriminación, y también puede ayudar a detectar
existentes. La supervisión humana se refiere, por tanto,
y prevenir los efectos negativos sobre los derechos
no solo a la supervisión humana individual, sino también
humanos. La transparencia tiene como objetivo
a la supervisión pública inclusiva, según corresponda.
proporcionar información adecuada a los respectivos
36. Puede ocurrir que, en algunas ocasiones, los seres destinatarios para permitir su comprensión y fomentar
humanos decidan depender de los sistemas de IA por la confianza. En el caso específico de los sistemas
razones de eficacia, pero la decisión de ceder el control de IA, la transparencia puede permitir a las personas
en contextos limitados seguirá recayendo en los seres comprender cómo se implementa cada etapa de un
humanos, ya que estos pueden recurrir a los sistemas sistema de IA, en función del contexto y la sensibilidad
de IA en la adopción de decisiones y en la ejecución de del sistema en cuestión. También puede proporcionar
tareas, pero un sistema de IA nunca podrá reemplazar información sobre los factores que influyen en una
la responsabilidad final de los seres humanos y su predicción o decisión específicas, y sobre la existencia
obligación de rendir cuentas. Por regla general, las o no de garantías adecuadas (como medidas de
decisiones de vida o muerte no deberían cederse a los seguridad o de equidad). En los casos de amenazas
sistemas de IA. graves con repercusiones adversas para los derechos

22
humanos, la transparencia puede requerir también que Sensibilización y educación
se compartan códigos o conjuntos de datos.
44. La sensibilización y la comprensión del público respecto
40. La explicabilidad supone hacer inteligibles los resultados de las tecnologías de la IA y el valor de los datos
de los sistemas de IA y facilitar información sobre deberían promoverse mediante una educación abierta
ellos. La explicabilidad de los sistemas de IA también y accesible, la participación cívica, las competencias
se refiere a la inteligibilidad de la entrada, salida y digitales y la capacitación en materia de ética de la
funcionamiento de cada componente algorítmico IA, la alfabetización mediática e informacional y la
y la forma en que contribuye a los resultados de los capacitación dirigida conjuntamente por los gobiernos,
sistemas. Así pues, la explicabilidad está estrechamente las organizaciones intergubernamentales, la sociedad
relacionada con la transparencia, ya que los resultados y civil, las universidades, los medios de comunicación,
los subprocesos que conducen a ellos deberían aspirar los dirigentes comunitarios y el sector privado, y
a ser comprensibles y trazables, apropiados al contexto. teniendo en cuenta la diversidad lingüística, social y
Los actores de la IA deberían comprometerse a velar cultural existente, a fin de garantizar una participación
por que los algoritmos desarrollados sean explicables. pública efectiva, de modo que todos los miembros de la
En el caso de las aplicaciones de IA cuyo impacto en sociedad puedan adoptar decisiones informadas sobre
el usuario final no es temporal, fácilmente reversible o su utilización de los sistemas de IA y estén protegidos de
de bajo riesgo, debería garantizarse que se proporcione influencias indebidas.
una explicación satisfactoria con toda decisión que haya 45. El aprendizaje sobre el impacto de los sistemas de
dado lugar a la acción tomada, a fin de que el resultado IA debería incluir el aprendizaje sobre los derechos
se considere transparente. humanos y las libertades fundamentales, a través de
ellos y para ellos, lo que significa que el enfoque y la
41. La transparencia y la explicabilidad están estrechamente
comprensión de los sistemas de IA deberían basarse en
relacionadas con las medidas adecuadas de responsa­
el impacto de estos sistemas en los derechos humanos
bilidad y rendición de cuentas, así como con la fiabilidad
y el acceso a esos derechos, así como en el medio
de los sistemas de IA.
ambiente y los ecosistemas.

Responsabilidad y rendición de cuentas Gobernanza y colaboración adaptativas y de


múltiples partes interesadas
42. Los actores de la IA y los Estados Miembros deberían 46. En la utilización de datos deben respetarse el derecho
respetar, proteger y promover los derechos humanos y las internacional y la soberanía nacional. Esto significa que
libertades fundamentales, y deberían también fomentar los Estados, en cumplimiento del derecho internacional,
la protección del medio ambiente y los ecosistemas, pueden regular los datos generados dentro de sus
asumiendo su responsabilidad ética y jurídica respectiva, territorios o que pasan por ellos y adoptar medidas
de conformidad con el derecho nacional e internacional, para la regulación efectiva de los datos, en particular su
en particular las obligaciones de los Estados Miembros protección, sobre la base del respeto del derecho a la
en materia de derechos humanos, y con las directrices privacidad, de conformidad con el derecho internacional
éticas establecidas durante todo el ciclo de vida de los y otras normas relativas a los derechos humanos.
sistemas de IA, incluso con respecto a los actores de la
IA dentro de su territorio y bajo su control efectivos. La 47. La participación de las diferentes partes interesadas a lo
responsabilidad ética y la obligación de rendir cuentas de largo del ciclo de vida de los sistemas de IA es necesaria
las decisiones y las acciones basadas de alguna manera para garantizar enfoques inclusivos de la gobernanza de
en un sistema de IA siempre deberían ser atribuibles, la IA, de modo que los beneficios puedan ser compartidos
en última instancia, a los actores de la IA conforme a la por todos, y para contribuir al desarrollo sostenible.
función que tengan en el ciclo de vida del sistema de IA. Entre las partes interesadas figuran, entre otros, los
gobiernos, las organizaciones intergubernamentales, la
43. Deberían elaborarse mecanismos adecuados de comunidad técnica, la sociedad civil, los investigadores
supervisión, evaluación del impacto, auditoría y y los círculos universitarios, los medios de comunicación,
diligencia debida, incluso en lo que se refiere a la los responsables de la educación, los encargados de
protección de los denunciantes de irregularidades, formular políticas, las empresas del sector privado, las
para garantizar la rendición de cuentas respecto de los instituciones de derechos humanos y los organismos
sistemas de IA y de su impacto a lo largo de su ciclo de de fomento de la igualdad, los órganos de vigilancia
vida. Dispositivos tanto técnicos como institucionales de la lucha contra la discriminación y los grupos de
deberían garantizar la auditabilidad y la trazabilidad (del jóvenes y niños. Convendría adoptar normas abiertas
funcionamiento) de los sistemas de IA, en particular para y garantizar la interoperabilidad para facilitar la
intentar solucionar cualquier conflicto con las normas colaboración. Deberían adoptarse medidas para tener
relativas a los derechos humanos y las amenazas al en cuenta los cambios en las tecnologías y la aparición
bienestar del medio ambiente y los ecosistemas. de nuevos grupos de partes interesadas y para permitir
una participación significativa de las personas, las
comunidades y los grupos marginados y, si procede,
en el caso de los pueblos indígenas, el respeto de su
autonomía en la gestión de sus datos.

23
24
IV.
Ámbitos de
acción política

25
48. Las acciones políticas que se describen en los siguientes elaboración, así como en el seguimiento y la evaluación,
ámbitos de actuación ponen en práctica los valores y de los mecanismos de política.
principios enunciados en la presente Recomendación.
La principal acción consiste en que los Estados Miembros 49. La UNESCO reconoce que los Estados Miembros se
establezcan medidas eficaces, por ejemplo marcos o encontrarán en diferentes estadios de preparación
mecanismos normativos, y velen por que otras partes para aplicar la presente Recomendación, desde los
interesadas, como las empresas del sector privado, puntos de vista científico, tecnológico, económico,
las instituciones universitarias y de investigación y la educativo, jurídico, regulador, de infraestructura,
sociedad civil, se adhieran a ellas, sobre todo alentando a social y cultural, entre otros. Cabe señalar que, aquí,
todas las partes interesadas a que elaboren instrumentos el “estadio de preparación” es un estado dinámico.
de evaluación del impacto en los derechos humanos, el Por consiguiente, a fin de posibilitar la aplicación
estado de derecho, la democracia y la ética, así como efectiva de la presente Recomendación, la UNESCO: 1)
instrumentos de diligencia debida, de conformidad elaborará una metodología de evaluación del estadio
con las orientaciones, incluidos los Principios Rectores de preparación para ayudar a los Estados Miembros
sobre las Empresas y los Derechos Humanos de las interesados a determinar su situación en momentos
Naciones Unidas. El proceso de elaboración de esas concretos de su trayectoria de preparación a través de
políticas o mecanismos debería incluir a todas las un conjunto de dimensiones; y 2) garantizará el apoyo a
partes interesadas y tener en cuenta las circunstancias y los Estados Miembros interesados en lo que respecta a
prioridades de cada Estado Miembro. La UNESCO puede la elaboración de una metodología de la UNESCO para
ser un asociado y apoyar a los Estados Miembros en la la evaluación del impacto ético de las tecnologías de la
IA y el intercambio de mejores prácticas, directrices de
evaluación y otros mecanismos y trabajo analítico.

ÁMBITO DE ACTUACIÓN 1: EVALUACIÓN DEL IMPACTO ÉTICO


50. Los Estados Miembros deberían establecer marcos sociológicos y psicológicos de las recomendaciones
de evaluación del impacto, como evaluaciones del basadas en la IA sobre los seres humanos en lo que
impacto ético, para determinar y analizar los beneficios, respecta a su autonomía de decisión. Los sistemas de
los problemas y los riesgos de los sistemas de IA, así IA considerados riesgos potenciales para los derechos
como medidas adecuadas de prevención, atenuación humanos deberían ser ampliamente probados por
y seguimiento de los riesgos, entre otros mecanismos los actores de la IA, incluso en condiciones reales si es
de garantía. Esas evaluaciones del impacto deberían necesario, en el marco de la evaluación del impacto
revelar las repercusiones en los derechos humanos y ético, antes de sacarlos al mercado.
las libertades fundamentales, en particular, aunque no
exclusivamente, los derechos de las personas marginadas 52. Los Estados Miembros y las empresas deberían aplicar
y vulnerables o en situación de vulnerabilidad, los medidas adecuadas para vigilar todas las etapas del ciclo
derechos laborales, el medio ambiente y los ecosistemas, de vida de los sistemas de IA en el marco de la evaluación
así como las consecuencias éticas y sociales, y facilitar la del impacto ético, incluidos el funcionamiento de los
participación ciudadana, de conformidad con los valores algoritmos utilizados para la adopción de decisiones, los
y principios enunciados en la presente Recomendación. datos y los actores de la IA que participan en el proceso,
especialmente en los servicios públicos y en los casos en
51. Los Estados Miembros y las empresas del sector privado que se necesita una interacción directa con el usuario
deberían desarrollar mecanismos de diligencia debida final. Las obligaciones de los Estados Miembros en
y supervisión para determinar, prevenir y atenuar los materia de derechos humanos deberían formar parte de
riesgos y rendir cuentas de la forma en que abordan los aspectos éticos de las evaluaciones de los sistemas
el impacto de los sistemas de IA en el respeto de de IA.
los derechos humanos, el estado de derecho y las
sociedades inclusivas. Los Estados Miembros deberían 53. Los gobiernos deberían adoptar un marco regulador que
también poder evaluar los efectos socioeconómicos establezca un procedimiento para que las autoridades
de los sistemas de IA en la pobreza y velar por que la públicas, en particular, lleven a cabo evaluaciones del
brecha entre los ricos y los pobres, así como la brecha impacto ético de los sistemas de IA a fin de anticipar
digital entre los países y dentro de ellos, no aumenten las repercusiones, atenuar los riesgos, evitar las
con la adopción masiva de tecnologías de la IA en la consecuencias perjudiciales, facilitar la participación de
actualidad y en el futuro. Para ello, en particular, deberían los ciudadanos y hacer frente a los desafíos sociales. La
aplicarse protocolos de transparencia ejecutables, que evaluación también debería establecer mecanismos
correspondan al acceso a la información, incluida la de supervisión adecuados, como la auditabilidad, la
información de interés público en poder de entidades trazabilidad y la explicabilidad, que permitan evaluar
privadas. Los Estados Miembros, las empresas del sector los algoritmos, los datos y los procesos de concepción,
privado y la sociedad civil deberían investigar los efectos así como incluir un examen externo de los sistemas

26
de IA. Las evaluaciones del impacto ético deberían ser interesadas. Se debería exigir a las autoridades públicas
transparentes y abiertas al público, cuando proceda. que supervisen los sistemas de IA que hayan implantado
También deberían ser multidisciplinarias, multiculturales, o desplegado, mediante la introducción de mecanismos
pluralistas e inclusivas y contar con múltiples partes e instrumentos adecuados.

ÁMBITO DE ACTUACIÓN 2: GOBERNANZA Y ADMINISTRACIÓN ÉTICAS


54. Los Estados Miembros deberían velar por que los 57. Los Estados Miembros y las autoridades públicas
mecanismos de gobernanza de la IA sean inclusivos, deberían realizar una autoevaluación transparente
transparentes, multidisciplinarios y multilaterales (lo de los sistemas de IA existentes y propuestos, en la
que incluye la posibilidad de atenuar y reparar daños cual se debería analizar, en particular, si la adopción
más allá de las fronteras) y cuenten con múltiples de la IA es apropiada y, en caso afirmativo, realizar una
partes interesadas. En particular, la gobernanza debería nueva evaluación para establecer cuál es el método
incluir aspectos de previsión y dispositivos eficaces de adecuado, así como una evaluación para determinar si
protección, seguimiento de los efectos, aplicación y dicha adopción daría lugar a violaciones o abusos de
reparación. las obligaciones de los Estados Miembros en materia de
derechos humanos y, si así fuera, prohibir su utilización.
55. Los Estados Miembros deberían velar por que se
investiguen y reparen los daños causados mediante 58. Los Estados Miembros deberían alentar a las entidades
sistemas de IA, estableciendo mecanismos de aplicación públicas, las empresas del sector privado y las
estrictos y medidas correctivas, a fin de asegurarse de que organizaciones de la sociedad civil a que incorporen
los derechos humanos, las libertades fundamentales y el a diferentes partes interesadas a su gobernanza en
estado de derecho son respetados en el mundo digital materia de IA y consideren la posibilidad de añadir
y en el mundo físico. Entre esos mecanismos y medidas una función de responsable independiente de la ética
deberían figurar mecanismos de reparación aportados de la IA o algún otro mecanismo para supervisar las
por empresas de los sectores público y privado. Con ese actividades relacionadas con la evaluación del impacto
fin, debería promoverse la auditabilidad y la trazabilidad ético, las auditorías y el seguimiento continuo, así como
de los sistemas de IA. Además, los Estados Miembros para garantizar la orientación ética de los sistemas de
deberían reforzar sus capacidades institucionales para IA. Se alienta a los Estados Miembros, las empresas del
cumplir con este compromiso y deberían colaborar con sector privado y las organizaciones de la sociedad civil
investigadores y otras partes interesadas para investigar, a que, con el respaldo de la UNESCO, creen una red de
prevenir y minimizar todo uso potencialmente malicioso responsables independientes de la ética de la IA para
de los sistemas de IA. apoyar este proceso en los planos nacional, regional e
internacional.
56. Se alienta a los Estados Miembros a que elaboren
estrategias nacionales y regionales en materia de 59. Los Estados Miembros deberían fomentar el desarrollo
IA y consideren la posibilidad de adoptar formas de y la accesibilidad de un ecosistema digital para el
gobernanza “blanda”, por ejemplo, un mecanismo de desarrollo ético e inclusivo de los sistemas de IA en el
certificación para los sistemas de IA y el reconocimiento plano nacional, en particular con miras a reducir las
mutuo de su certificación, con arreglo a la sensibilidad diferencias de acceso durante el ciclo de vida de los
del ámbito de aplicación y al impacto previsto en sistemas de IA, contribuyendo al mismo tiempo a la
los derechos humanos, el medio ambiente y los colaboración internacional. Ese ecosistema incluiría,
ecosistemas, así como otras consideraciones éticas en particular, tecnologías e infraestructuras digitales
establecidas en la presente Recomendación. Dicho y mecanismos para compartir los conocimientos en
mecanismo podría incluir diferentes niveles de auditoría materia de IA, según proceda.
de los sistemas, los datos y el cumplimiento de las
directrices éticas y de los requisitos de procedimiento 60. Los Estados Miembros deberían establecer mecanismos,
teniendo en cuenta los aspectos éticos. Al mismo en colaboración con las organizaciones internacionales,
tiempo, no debería obstaculizar la innovación ni poner las empresas transnacionales, las instituciones
en situación de desventaja a las pequeñas y medianas universitarias y la sociedad civil, para garantizar la
empresas o las empresas incipientes, la sociedad civil y participación activa de todos los Estados Miembros,
las organizaciones científicas y de investigación como especialmente los países de ingreso mediano bajo, en
resultado de una carga administrativa excesiva. Ese particular los PMA, los PDSL y los PEID, en los debates
mecanismo también debería incluir un componente internacionales sobre la gobernanza de la IA. Esto puede
de seguimiento periódico para garantizar la solidez del hacerse mediante la provisión de fondos, garantizando
sistema de IA y el mantenimiento de su integridad y su la participación regional en condiciones de igualdad, o
cumplimiento de las directrices éticas durante todo su mediante cualquier otro mecanismo. Además, para velar
ciclo de vida, exigiendo una nueva certificación si fuera por que los foros sobre la IA sean inclusivos, los Estados
necesario. Miembros deberían facilitar los desplazamientos de

27
los actores de la IA dentro y fuera de su territorio, niveles de seguridad y transparencia mensurables
especialmente los de los países de ingreso mediano y comprobables, de modo que se puedan evaluar
bajo, en particular los PMA, los PDSL y los PEID, para que objetivamente los sistemas y determinar los niveles
puedan participar en esos foros. de cumplimiento. Además, los Estados Miembros
y las empresas deberían apoyar continuamente la
61. Las modificaciones de la legislación nacional existente investigación estratégica sobre los posibles riesgos de
o la elaboración de una nueva legislación nacional seguridad y protección de las tecnologías de la IA y
en materia de sistemas de IA deben ajustarse a las deberían alentar la investigación sobre la transparencia y
obligaciones de los Estados Miembros en materia de la explicabilidad, la inclusión y los conocimientos de esas
derechos humanos y promover los derechos humanos tecnologías asignando fondos adicionales a esas esferas
y las libertades fundamentales a lo largo del ciclo de para diferentes ámbitos y en diferentes niveles, como el
vida de esos sistemas. La promoción de los derechos lenguaje técnico y natural.
humanos y las libertades fundamentales también
debería adoptar la forma de iniciativas de gobernanza, 65. Los Estados Miembros deberían aplicar políticas
buenos ejemplos de prácticas de colaboración en destinadas a garantizar que las acciones de los actores
relación con los sistemas de IA y directrices técnicas y de la IA se ajusten al derecho, las normas y los principios
metodológicas nacionales e internacionales a medida internacionales de derechos humanos durante todo el
que avancen las tecnologías de la IA. En sus prácticas ciclo de vida de los sistemas de IA, tomando plenamente
relativas a los sistemas de IA, diversos sectores, incluido en consideración al mismo tiempo las diversidades
el privado, deben respetar, proteger y promover los culturales y sociales existentes, en particular las
derechos humanos y las libertades fundamentales costumbres locales y las tradiciones religiosas, con el
utilizando los instrumentos existentes y nuevos en debido respeto a la primacía y la universalidad de los
combinación con la presente Recomendación. derechos humanos.

62. Los Estados Miembros que adquieran sistemas de 66. Los Estados Miembros deberían establecer mecanismos
IA para casos de utilización sensible en materia de para exigir a los actores de la IA que revelen y combatan
derechos humanos, como la aplicación de la ley, la toda clase de estereotipos en los resultados de los
asistencia social, el empleo, los medios de comunicación sistemas y datos de IA, ya sean deliberados o por
y los proveedores de información, la atención de la salud negligencia, y que velen por que los conjuntos de datos
y el sistema judicial independiente, deberían prever de entrenamiento para los sistemas de IA no fomenten
mecanismos para vigilar el impacto social y económico las desigualdades culturales, económicas o sociales,
de dichos sistemas mediante autoridades de supervisión los prejuicios, la propagación de desinformación y
adecuadas, como autoridades independientes de de información falsa y la vulneración de la libertad
protección de datos, una supervisión sectorial y de expresión y del acceso a la información. Debería
organismos públicos encargados de la supervisión. prestarse especial atención a las regiones donde los
datos son escasos.
63. Los Estados Miembros deberían reforzar la capacidad
del poder judicial para adoptar decisiones relacionadas 67. Los Estados Miembros deberían aplicar políticas para
con los sistemas de IA en el marco del estado de promover y aumentar la diversidad y la inclusión en los
derecho y de conformidad con el derecho y las normas equipos de desarrollo de la IA y los conjuntos de datos
internacionales, en particular en lo que respecta a la de entrenamiento, de modo que estos sean un reflejo
utilización de los sistemas de IA en sus deliberaciones, de su población, así como para velar por la igualdad
velando al mismo tiempo por que se respete el de acceso a las tecnologías de la IA y sus beneficios, en
principio de la supervisión humana. En caso de que los particular para los grupos marginados, tanto de zonas
sistemas de IA sean utilizados por el poder judicial, se rurales como urbanas.
necesitan suficientes salvaguardias para garantizar, entre
otras cosas, la protección de los derechos humanos 68. Los Estados Miembros deberían elaborar, examinar
fundamentales, el estado de derecho, la independencia y adaptar, según proceda, marcos reguladores para
judicial y el principio de supervisión humana, así como alcanzar la rendición de cuentas y la responsabilidad
para asegurar un desarrollo y una utilización de los por el contenido y los resultados de los sistemas de IA
sistemas de IA en el poder judicial que sean fiables, en las diferentes etapas de su ciclo de vida. Cuando sea
orientados al interés público y centrados en el ser necesario, los Estados Miembros deberían introducir
humano. marcos de responsabilidad o aclarar la interpretación de
los marcos existentes para garantizar la atribución de la
64. Los Estados Miembros deberían velar por que responsabilidad por los resultados y el funcionamiento
los gobiernos y las organizaciones multilaterales de los sistemas de IA. Además, al elaborar los marcos
desempeñen una función de liderazgo para garantizar reguladores, los Estados Miembros deberían tener
la seguridad y la protección de los sistemas de IA, con en cuenta, en particular, que la responsabilidad y la
la participación de múltiples partes interesadas. En rendición de cuentas deben recaer siempre en última
concreto, los Estados Miembros, las organizaciones instancia en personas físicas o jurídicas y que no se debe
internacionales y otros órganos pertinentes deberían otorgar personalidad jurídica a los propios sistemas
elaborar normas internacionales que describan de IA. Para lograrlo, esos marcos reguladores deberían

28
ajustarse al principio de la supervisión humana y desarrollo de las nuevas tecnologías y garantizar que
establecer un enfoque global centrado en los actores de las leyes y los reglamentos se puedan poner a prueba
la IA y los procesos tecnológicos que intervienen en las en un entorno seguro antes de su aprobación oficial.
diferentes etapas del ciclo de vida de los sistemas de IA. Los Estados Miembros deberían apoyar a los gobiernos
locales en la formulación de políticas, reglamentos y
69. A fin de establecer normas cuando no las haya, o de leyes locales que estén en consonancia con los marcos
adaptar los marcos jurídicos existentes, los Estados jurídicos nacionales e internacionales.
Miembros deberían contar con todos los actores de la
IA (incluidos, entre otros, investigadores, representantes 70. Los Estados Miembros deberían establecer requisitos
de la sociedad civil y de los organismos encargados de claros de transparencia y explicabilidad de los sistemas
hacer cumplir la ley, aseguradores, inversores, fabricantes, de IA para ayudar a garantizar la fiabilidad de dichos
ingenieros, abogados y usuarios). Las normas pueden sistemas durante todo su ciclo de vida. Esos requisitos
evolucionar hasta convertirse en mejores prácticas, leyes deberían abarcar la concepción y la aplicación de
y reglamentos. Se alienta además a los Estados Miembros mecanismos de evaluación del impacto que tengan
a que utilicen mecanismos como los prototipos de en cuenta la naturaleza del ámbito de aplicación, la
políticas y los entornos de pruebas reguladores para utilización prevista, los destinatarios y la viabilidad de
acelerar la formulación de leyes, reglamentos y políticas, cada sistema de IA en particular.
incluidas sus revisiones periódicas, acordes con el rápido

ÁMBITO DE ACTUACIÓN 3: POLÍTICA DE DATOS


71. Los Estados Miembros deberían procurar elaborar compartir las mejores prácticas entre todos los actores
estrategias de gobernanza de datos que garanticen de la IA.
la evaluación continua de la calidad de los datos de
entrenamiento para los sistemas de IA, en particular la 72. Los Estados Miembros deberían establecer salvaguardias
idoneidad de los procesos de recopilación y selección de adecuadas para proteger el derecho a la privacidad, de
datos, y que prevean medidas adecuadas de seguridad conformidad con el derecho internacional, en particular
y protección de los datos, así como mecanismos respondiendo a preocupaciones como la vigilancia.
de retroalimentación para aprender de los errores y Los Estados Miembros deberían, entre otras medidas,

29
adoptar o aplicar marcos legislativos que proporcionen la ascendencia, el género, la edad, el idioma, la religión,
una protección adecuada, conforme al derecho las opiniones políticas, el origen nacional, étnico o
internacional. Los Estados Miembros deberían alentar social, la condición económica o social de nacimiento, la
enérgicamente a todos los actores de la IA, incluidas las discapacidad o cualquier otra característica.
empresas, a que cumplan las normas internacionales
vigentes y, en particular, a que realicen evaluaciones 75. Los Estados Miembros deberían promover los datos
adecuadas del impacto en la privacidad, como parte abiertos. A este respecto, los Estados Miembros deberían
de las evaluaciones del impacto ético, que tengan en considerar la posibilidad de revisar sus políticas y marcos
cuenta las repercusiones socioeconómicas más amplias reguladores, particularmente en lo que respecta al
del tratamiento previsto de los datos, y a que apliquen acceso a la información y el gobierno abierto, para
el principio de protección de la privacidad desde la reflejar los requisitos específicos de la IA y promover
concepción de sus sistemas. La privacidad debería ser mecanismos, como repositorios abiertos de datos y
respetada, protegida y promovida a lo largo del ciclo de códigos fuente públicos o de financiación pública y
vida de los sistemas de IA. fideicomisos de datos, a fin de apoyar el intercambio
seguro, equitativo, legal y ético de datos, entre otros.
73. Los Estados Miembros deberían velar por que las
personas conserven sus derechos sobre sus datos 76. Los Estados Miembros deberían promover y facilitar
personales y estén protegidas por un marco que el uso de conjuntos de datos sólidos y de calidad
prevea, en particular: la transparencia; salvaguardias para el entrenamiento, el desarrollo y la utilización de
adecuadas para el tratamiento de datos sensibles; los sistemas de IA y ejercer vigilancia al supervisar su
un nivel adecuado de protección de los datos; planes recopilación y utilización. Esto podría suponer, si es
y mecanismos de rendición de cuentas eficaces y posible y factible, invertir en la creación de conjuntos
significativos; el pleno disfrute de los derechos de de datos de excelencia, incluidos conjuntos de datos
los interesados y la posibilidad de acceder a los datos abiertos y fiables, que sean diversos, establecidos
personales en los sistemas de IA y de borrarlos, excepto sobre una base jurídica válida, en particular con el
en determinadas circunstancias, de conformidad con el consentimiento de los interesados, cuando así lo exija
derecho internacional; un nivel adecuado de protección la ley. Debería alentarse la elaboración de normas para
que cumpla plenamente la legislación en materia de anotar los conjuntos de datos, incluido el desglose de
protección de datos cuando estos se utilicen con fines datos por género y otros criterios, de manera que pueda
comerciales —por ejemplo, para permitir la publicidad determinarse fácilmente cómo se recopila un conjunto
con fines específicos— o sean transferidos al extranjero; de datos y qué propiedades tiene.
y una supervisión eficaz e independiente en el marco
77. Como también se sugiere en el informe del Panel de
de un mecanismo de gobernanza de los datos que
Alto Nivel sobre la Cooperación Digital del Secretario
permita a las personas mantener el control de sus
General de las Naciones Unidas, los Estados Miembros,
datos personales y promueva los beneficios de la libre
con el apoyo de las Naciones Unidas y la UNESCO,
circulación de información a nivel internacional, incluido
deberían adoptar un enfoque de patrimonio digital
el acceso a los datos.
común respecto a los datos, cuando proceda, aumentar
74. Los Estados Miembros deberían establecer sus políticas la interoperabilidad de los instrumentos y conjuntos
de datos o marcos equivalentes, o reforzar las políticas de datos, así como las interfaces de los sistemas que
y marcos existentes, para garantizar la seguridad total albergan datos, y alentar a las empresas del sector privado
de los datos personales y los datos sensibles que, de ser a que compartan con todas las partes interesadas los
divulgados, puedan causar daños, lesiones o dificultades datos que recopilan, en beneficio de la investigación, la
excepcionales a las personas. Cabe citar como ejemplos innovación o el interés público, según proceda. También
los datos relativos a infracciones, procesos penales deberían promover las iniciativas públicas y privadas
y condenas, así como a las medidas de seguridad para crear plataformas de colaboración destinadas a
conexas; los datos biométricos, genéticos y de salud; y compartir datos de calidad en espacios de datos fiables
los datos personales como los relativos a la raza, el color, y seguros.

ÁMBITO DE ACTUACIÓN 4: DESARROLLO Y COOPERACIÓN


INTERNACIONAL
78. Los Estados Miembros y las empresas transnacionales 79. Los Estados Miembros deberían velar por que la
deberían dar prioridad a la ética de la IA, incluyendo utilización de la IA en esferas relacionadas con el
debates sobre cuestiones éticas relacionadas con la IA desarrollo, como la educación, la ciencia, la cultura, la
en los foros internacionales, intergubernamentales y de comunicación y la información, la atención sanitaria,
múltiples partes interesadas pertinentes. la agricultura y el suministro de alimentos, el medio
ambiente, la gestión de recursos naturales y de
infraestructuras y la planificación y el crecimiento

30
económicos, entre otras, respete los valores y principios 82. Los Estados Miembros deberían promover las
enunciados en la presente Recomendación. investigaciones sobre la ética de la IA recurriendo
a organizaciones internacionales e instituciones de
80. Los Estados Miembros deberían procurar, por investigación, así como a empresas transnacionales,
conducto de organizaciones internacionales, que puedan servir de base para la utilización ética de
establecer plataformas de cooperación internacional los sistemas de IA por entidades públicas y privadas,
en el ámbito de la IA para el desarrollo, en particular incluidas las investigaciones sobre la aplicabilidad
aportando competencias técnicas, financiación, datos, de marcos éticos específicos en culturas y contextos
conocimientos del sector e infraestructura y facilitando concretos y sobre las posibilidades de elaborar
la colaboración entre múltiples partes interesadas para soluciones tecnológicamente viables de conformidad
hacer frente a los problemas complejos en materia de con esos marcos.
desarrollo, especialmente para los países de ingreso
mediano bajo, en particular los PMA, los PDSL y los PEID. 83. Los Estados Miembros deberían alentar la cooperación y
la colaboración internacionales en el ámbito de la IA para
81. Los Estados Miembros deberían procurar promover la salvar las divisiones geotecnológicas. Deberían realizarse
colaboración internacional en materia de investigación intercambios y consultas de carácter tecnológico entre
e innovación en IA, especialmente en centros y redes los Estados Miembros y su población, entre los sectores
de investigación e innovación que promuevan una público y privado y entre los países más y menos
mayor participación y liderazgo de los investigadores avanzados tecnológicamente, respetando plenamente
procedentes de países de ingreso mediano bajo y otros el derecho internacional.
países, en particular de PMA, PDSL y PEID.

ÁMBITO DE ACTUACIÓN 5: MEDIO AMBIENTE Y ECOSISTEMAS


84. Los Estados Miembros y las empresas deberían evaluar d) contribuir a acelerar el acceso a la energía
el impacto ambiental directo e indirecto de los sistemas sostenible y su adopción a gran escala;
de IA a lo largo de su ciclo de vida, en particular, aunque
no exclusivamente, su huella de carbono, su consumo e) facilitar y promover la incorporación de infrae­
de energía y el impacto ambiental de la extracción de structuras sostenibles, modelos empresariales
las materias primas necesarias para la fabricación de sostenibles y financiación sostenible al servicio del
tecnologías de la IA, y reducir el impacto ambiental de desarrollo sostenible;
los sistemas de IA y las infraestructuras de datos. Los
f ) detectar los contaminantes o prever los niveles
Estados Miembros deberían asegurar el cumplimiento
de contaminación y, de ese modo, ayudar a las
de las leyes, políticas y prácticas ambientales por parte
partes interesadas pertinentes a definir, planificar
de todos los actores de la IA.
y poner en marcha intervenciones específicas
85. Los Estados Miembros deberían establecer incentivos, para prevenir y reducir la contaminación y la
cuando sea necesario y apropiado, para garantizar la exposición.
elaboración y adopción de soluciones basadas en los
86. Al elegir un método de IA, dada la gran necesidad
derechos y en la ética de la IA en favor de la resiliencia
potencial de datos o recursos de algunos de ellos y su
ante el riesgo de desastres; la vigilancia, protección y
consiguiente impacto en el medio ambiente, los Estados
regeneración del medio ambiente y los ecosistemas; y la
Miembros deberían velar por que los actores de la IA,
preservación del planeta. Esos sistemas de IA deberían
de conformidad con el principio de proporcionalidad,
contar, durante todo su ciclo de vida, con la participación
favorezcan los métodos de IA eficientes en cuanto
de las comunidades locales e indígenas y apoyar
a datos, energía y recursos. Deberían establecerse
enfoques del tipo de economía circular y modalidades
requisitos destinados a garantizar que se disponga de
de consumo y producción sostenibles. Por ejemplo, los
pruebas adecuadas para demostrar que una aplicación
sistemas de IA podrían utilizarse, cuando sea necesario y
de IA tendrá el efecto deseado, o que dicha aplicación
apropiado, para:
cuenta con garantías que permitan justificar su
a) apoyar la protección, el seguimiento y la gestión utilización. Si esto no es posible, deberá privilegiarse
de los recursos naturales; el principio de precaución y, en los casos en que haya
impactos negativos desproporcionados en el medio
b) apoyar la predicción, la prevención, el control y la ambiente, no debería utilizarse la IA.
atenuación de los problemas relacionados con el
clima;

c) favorecer un ecosistema alimentario más eficiente


y sostenible;

31
ÁMBITO DE ACTUACIÓN 6: GÉNERO
87. Los Estados Miembros deberían velar por que se incluidas las disciplinas relacionadas con las tecnologías
optimice plenamente el potencial de las tecnologías de la información y la comunicación (TIC), y mejorar
digitales y la inteligencia artificial para contribuir a lograr la preparación, la empleabilidad, el desarrollo de las
la igualdad de género, y han de asegurarse de que no perspectivas de carrera en condiciones de igualdad y el
se conculquen los derechos humanos y las libertades crecimiento profesional de las niñas y las mujeres.
fundamentales de las niñas y las mujeres, ni su seguridad
e integridad, en ninguna etapa del ciclo de vida de los 89. Los Estados Miembros deberían velar por que se
sistemas de IA. Además, la evaluación del impacto ético aproveche el potencial de los sistemas de IA para
debería incluir una perspectiva transversal de género. impulsar el logro de la igualdad de género. Deberían
asegurarse de que estas tecnologías no exacerben las ya
88. Los Estados Miembros deberían asignar fondos amplias brechas que existen entre los géneros en varios
específicos de sus presupuestos públicos a la financiación ámbitos del mundo analógico, sino que, al contrario, las
de planes con perspectiva de género, velar por que las eliminen. Entre estas brechas cabe citar la disparidad
políticas digitales nacionales incluyan un plan de acción salarial entre hombres y mujeres; su representación
en materia de género y elaborar políticas pertinentes, por desigual en ciertas profesiones y actividades; la falta de
ejemplo, sobre la educación laboral, destinadas a apoyar representación en los puestos directivos superiores, las
a las niñas y las mujeres para que no queden excluidas juntas directivas o los equipos de investigación en el
de la economía digital impulsada por la IA. Deberían campo de la IA; la brecha educativa; las desigualdades en
considerarse y realizarse inversiones especiales para el acceso, la adopción, la utilización y la asequibilidad de
ofrecer programas específicos y un lenguaje que respete la tecnología digital y de la IA; y la distribución desigual
la igualdad de género, a fin de ampliar las oportunidades del trabajo no remunerado y de las responsabilidades de
de participación de las niñas y las mujeres en la ciencia, cuidado en nuestras sociedades.
la tecnología, la ingeniería y las matemáticas (CTIM),

32
90. Los Estados Miembros deberían velar por que los claro equilibrio de género, y que se alienten igualmente
estereotipos de género y los sesgos discriminatorios no los fondos privados mediante principios de acción
se trasladen a los sistemas de IA, sino que se detecten afirmativa. Deberían elaborarse y aplicarse políticas que
y corrijan de manera proactiva. Es preciso esforzarse favorezcan los entornos libres de acoso, alentando al
por evitar el efecto negativo combinado de las brechas mismo tiempo la transferencia de las mejores prácticas
tecnológicas para lograr la igualdad de género y prevenir sobre la forma de promover la diversidad durante el
la violencia contra las niñas y las mujeres, así como ciclo de vida de los sistemas de IA.
contra los grupos insuficientemente representados, que
92. Los Estados Miembros deberían promover la diversidad
puede manifestarse en forma de hostigamiento, acoso o
de género en la investigación en IA en el mundo
trata, incluso en línea.
universitario y la industria, ofreciendo incentivos a
91. Los Estados Miembros deberían alentar la iniciativa las niñas y las mujeres para que se incorporen a este
empresarial, la participación y el compromiso de las campo, estableciendo mecanismos para luchar contra
mujeres en todas las etapas del ciclo de vida de los los estereotipos de género y el acoso en la comunidad
sistemas de IA, ofreciendo y promoviendo incentivos de investigadores en IA y alentando a las entidades
económicos y reguladores, entre otros estímulos y universitarias y privadas a que compartan las mejores
planes de apoyo, así como políticas encaminadas a prácticas sobre la forma de potenciar la diversidad de
lograr una participación equilibrada de hombres y género.
mujeres en la investigación en IA en las universidades
93. La UNESCO puede ayudar a compilar un repositorio de
y la representación de género en los puestos directivos
mejores prácticas para incentivar la participación de
superiores, las juntas directivas y los equipos de
las niñas, las mujeres y los grupos insuficientemente
investigación de las empresas digitales y de IA. Los
representados en todas las etapas del ciclo de vida de
Estados Miembros deberían garantizar que los fondos
los sistemas de IA.
públicos (para innovación, investigación y tecnologías)
se destinen a programas y empresas inclusivos, con un

ÁMBITO DE ACTUACIÓN 7: CULTURA


94. Se alienta a los Estados Miembros a que incorporen su profesión y contribuir a la concepción y aplicación de
sistemas de IA, cuando proceda, a la preservación, tecnologías de la IA adecuadas, ya que estas tecnologías
el enriquecimiento, la comprensión, la promoción, se emplean actualmente para crear, producir, distribuir,
la gestión y la accesibilidad del patrimonio cultural difundir y consumir una variedad de bienes y servicios
material, documental e inmaterial, incluidas las lenguas culturales, teniendo en cuenta la importancia de
en peligro y las lenguas y conocimientos indígenas, preservar el patrimonio cultural, la diversidad y la
por ejemplo, introduciendo o actualizando programas libertad artística.
educativos relacionados con la aplicación de los
97. Los Estados Miembros deberían promover el
sistemas de IA en esas esferas, cuando sea apropiado,
conocimiento y la evaluación de los instrumentos de
y asegurando un enfoque participativo, dirigidos a las
IA entre las industrias culturales locales y las pequeñas
instituciones y al público.
y medianas empresas que trabajan en el ámbito de la
95. Se alienta a los Estados Miembros a que examinen cultura, a fin de evitar el riesgo de concentración en el
y aborden las repercusiones de los sistemas de IA mercado cultural.
en la cultura, especialmente de las aplicaciones de
98. Los Estados Miembros deberían contar con las empresas
procesamiento del lenguaje natural (PLN), como la
tecnológicas y otras partes interesadas para promover
traducción automática y los asistentes de voz, en los
una oferta diversa de expresiones culturales y un acceso
matices del lenguaje y la expresión humanos. Esas
plural a ellas y, en particular, para garantizar que la
evaluaciones deberían contribuir a la elaboración y
recomendación algorítmica aumente la notoriedad de
aplicación de estrategias que maximicen los beneficios
los contenidos locales y la posibilidad de descubrirlos.
de esos sistemas reduciendo las desigualdades
culturales y mejorando la comprensión humana, así 99. Los Estados Miembros deberían promover nuevas
como haciendo frente a las repercusiones negativas, investigaciones en la intersección entre la IA y la
como una menor utilización, que podría conducir a la propiedad intelectual, por ejemplo, para determinar si
desaparición de lenguas en peligro, dialectos locales hay que proteger con derechos de propiedad intelectual
y variaciones tonales y culturales asociadas con el las obras creadas mediante tecnologías de la IA y la
lenguaje y la expresión humanos. manera de hacerlo. Los Estados Miembros también
deberían evaluar cómo afectan las tecnologías de la IA a
96. Los Estados Miembros deberían promover la educación
los derechos o los intereses de los titulares de derechos
en IA y la capacitación digital de los artistas y los
de propiedad intelectual cuyas obras se utilizan para
profesionales creativos, a fin de que puedan evaluar la
investigar, desarrollar, entrenar o implantar aplicaciones
idoneidad de las tecnologías de la IA para utilizarlas en
de IA.

33
100. Los Estados Miembros deberían alentar a los museos, las y enriquecer sus bibliotecas, bases de datos y bases de
galerías, las bibliotecas y los archivos de ámbito nacional conocimientos, ofreciendo al mismo tiempo acceso a
a que utilicen sistemas de IA para realzar sus colecciones sus usuarios.

ÁMBITO DE ACTUACIÓN 8: EDUCACIÓN E INVESTIGACIÓN


101.
Los Estados Miembros deberían colaborar con humanos, incluidos los derechos de los niños, y sus
organizaciones internacionales, instituciones educativas repercusiones. Estos programas deberían ser accesibles
y entidades privadas y no gubernamentales para tanto a los grupos técnicos como a los no técnicos.
impartir al público de todos los países, a todos los niveles,
conocimientos adecuados en materia de IA, a fin de 104. Los Estados Miembros deberían alentar las iniciativas de
empoderar a la población y reducir las brechas digitales investigación sobre la utilización responsable y ética de
y las desigualdades en el acceso a la tecnología digital las tecnologías de la IA en la enseñanza, la formación
resultantes de la adopción a gran escala de sistemas de de docentes y el aprendizaje electrónico, entre otras
IA. cuestiones, a fin de aumentar las oportunidades y
atenuar los problemas y los riesgos existentes en este
102. Los Estados Miembros deberían promover la adquisición ámbito. Esas iniciativas deberían ir acompañadas de una
de “competencias previas” para la educación en materia evaluación adecuada de la calidad de la educación y de
de IA, como la alfabetización básica, la aritmética las repercusiones que la utilización de las tecnologías
elemental, las competencias digitales y de codificación de la IA tiene para los educandos y los docentes. Los
y la alfabetización mediática e informacional, así como Estados Miembros deberían también velar por que las
el pensamiento crítico y creativo, el trabajo en equipo, tecnologías de la IA empoderen a los educandos y los
la comunicación, las aptitudes socioemocionales y las docentes y mejoren su experiencia, teniendo presente
competencias en materia de ética de la IA, especialmente que los aspectos relacionales y sociales y el valor de las
en los países y en las regiones o zonas dentro de los formas tradicionales de educación son fundamentales
países en que existen lagunas notables en la enseñanza en las relaciones entre docentes y educandos y entre
de esas competencias. los propios educandos y deberían tenerse en cuenta al
examinar la adopción de las tecnologías de la IA en la
103. Los Estados Miembros deberían promover programas educación. Los sistemas de IA utilizados en el aprendizaje
generales de sensibilización sobre los avances de la IA, deberían estar sujetos a requisitos estrictos en materia de
en particular sobre los datos y las oportunidades que supervisión, evaluación de las capacidades o predicción
ofrecen y los retos que plantean las tecnologías de la de los comportamientos de los educandos. La IA
IA, el impacto de los sistemas de IA en los derechos debería apoyar el proceso de aprendizaje sin reducir

34
las capacidades cognitivas y sin recabar información educación nacionales, planes de estudios sobre la ética
sensible, respetando las normas pertinentes en materia de la IA para todos los niveles y promover la colaboración
de protección de los datos personales. Los datos cruzada entre la enseñanza de competencias técnicas
facilitados para adquirir conocimientos, recopilados de IA y los aspectos humanísticos, éticos y sociales de
durante las interacciones del educando con el sistema la educación en IA. Deberían elaborarse cursos en línea
de IA, no deben ser objeto de uso indebido, apropiación y recursos digitales de enseñanza de la ética de la IA en
indebida o explotación delictiva, incluidos los fines las lenguas locales, incluidas las lenguas indígenas, y
comerciales. tenerse en cuenta la diversidad de los entornos, velando
especialmente por la accesibilidad de los formatos para
105.
Los Estados Miembros deberían promover la las personas con discapacidad.
participación y el liderazgo de las niñas y las mujeres,
las personas de diversos orígenes étnicos y culturas, las 107. Los Estados Miembros deberían promover y apoyar
personas con discapacidad, las personas marginadas las investigaciones sobre la IA, en particular las
y vulnerables o en situación de vulnerabilidad y las investigaciones sobre la ética de la IA, por ejemplo
minorías, así como de todas aquellas personas que no mediante inversiones en este tipo de investigaciones
gocen plenamente de los beneficios de la inclusión o creando incentivos para que los sectores público y
digital, en los programas de educación en materia de privado inviertan en este ámbito, reconociendo que las
IA en todos los niveles, así como el seguimiento y el investigaciones contribuyen de manera significativa al
intercambio con otros Estados Miembros de las mejores desarrollo y la mejora ulteriores de las tecnologías de
prácticas en este ámbito. la IA con miras a promover el derecho internacional
y los valores y principios enunciados en la presente
106.
Los Estados Miembros deberían elaborar, de Recomendación. Los Estados Miembros también
conformidad con sus tradiciones y programas de deberían promover públicamente las mejores prácticas

35
de los investigadores y las empresas que desarrollan la IA futura relacionada con las tecnologías de la IA se base en
de forma ética y cooperar con ellos. investigaciones científicas rigurosas e independientes
y promover la investigación interdisciplinaria en IA
108. Los Estados Miembros deberían velar por que los mediante la inclusión de disciplinas distintas de la
investigadores en IA reciban formación en ética de ciencia, la tecnología, la ingeniería y las matemáticas
la investigación y exigirles que tengan en cuenta (CTIM), como los estudios culturales, la educación,
consideraciones éticas en sus concepciones, productos la ética, las relaciones internacionales, el derecho, la
y publicaciones, especialmente en los análisis de los lingüística, la filosofía, las ciencias políticas, la sociología
conjuntos de datos que utilizan, la forma en que estos y la psicología.
se anotan y la calidad y el alcance de los resultados, así
como las posibles aplicaciones. 111. Reconociendo que las tecnologías de la IA ofrecen
grandes oportunidades para contribuir al avance de los
109. Los Estados Miembros deberían alentar a las empresas conocimientos y las prácticas científicos, especialmente
del sector privado a que faciliten el acceso de la en las disciplinas tradicionalmente basadas en modelos,
comunidad científica a sus datos para la investigación, los Estados Miembros deberían alentar a las comunidades
especialmente en los países de ingreso mediano bajo, científicas a ser conscientes de los beneficios, los
en particular en los PMA, los PDSL y los PEID. Este límites y los riesgos de su utilización, por ejemplo,
acceso debería ser conforme a las normas pertinentes intentando garantizar que las conclusiones extraídas de
en materia de respeto de la privacidad y protección de los enfoques, modelos y tratamientos basados en los
datos. datos sean sólidas y consistentes. Además, los Estados
Miembros deberían celebrar y apoyar la función de la
110.
Para asegurar una evaluación crítica de las
comunidad científica en la contribución a las políticas
investigaciones en IA y un seguimiento adecuado de los
y en la concienciación respecto de los puntos fuertes y
posibles usos indebidos o efectos adversos, los Estados
débiles de las tecnologías de la IA.
Miembros deberían velar por que cualquier evolución

ÁMBITO DE ACTUACIÓN 9: COMUNICACIÓN E INFORMACIÓN


112. Los Estados Miembros deberían utilizar los sistemas tratamiento de los contenidos, así como mecanismos de
de IA para mejorar el acceso a la información y el recurso que permitan a los usuarios solicitar reparación.
conocimiento. Para ello, pueden, por ejemplo, apoyar a
los investigadores, las universidades, los periodistas, el 114. Los Estados Miembros deberían invertir en competencias
público en general y los desarrolladores, a fin de mejorar digitales y de alfabetización mediática e informacional
la libertad de expresión, las libertades académicas y promoverlas, a fin de reforzar el pensamiento crítico
y científicas y el acceso a la información, así como y las competencias necesarias para comprender el
aumentar la divulgación proactiva de los datos y la uso y las implicaciones de los sistemas de IA, con
información oficiales. miras a atenuar y contrarrestar la desinformación, la
información errónea y el discurso de odio. Una mejor
113. Los Estados Miembros deberían garantizar que los comprensión y evaluación de los efectos tanto positivos
actores de la IA respeten y promuevan la libertad como potencialmente perjudiciales de los sistemas de
de expresión y el acceso a la información en lo que recomendación debería formar parte de esos esfuerzos.
respecta a la generación, moderación y conservación
automáticas de contenidos. Marcos adecuados, incluso 115. Los Estados Miembros deberían crear entornos
reglamentarios, deberían propiciar la transparencia de propicios para que los medios de comunicación tengan
los operadores de comunicación e información en línea, los derechos y recursos necesarios para informar
velar por que los usuarios tengan acceso a puntos de eficazmente sobre las ventajas y los inconvenientes
vista diversos y prever procesos de notificación rápida de los sistemas de IA, y también alentar a los medios
a los usuarios sobre los motivos de la eliminación u otro de comunicación a que hagan un uso ético de estos
sistemas en su trabajo.

ÁMBITO DE ACTUACIÓN 10: ECONOMÍA Y TRABAJO


116. Los Estados Miembros deberían evaluar y abordar el competencias “básicas” e interdisciplinarias en todos los
impacto de los sistemas de IA en los mercados de trabajo niveles educativos, a fin de dar a los trabajadores actuales
y sus consecuencias en las necesidades educativas en y a las nuevas generaciones una oportunidad equitativa
todos los países y, más concretamente, en los países de encontrar empleo en un mercado en rápida evolución
cuya economía requiere mucha mano de obra. Para ello y para asegurar que sean conscientes de los aspectos
puede ser preciso introducir una gama más amplia de éticos de los sistemas de IA. Junto a las competencias

36
técnicas especializadas, así como a las tareas poco profesional, el fortalecimiento de la protección social,
especializadas, deberían enseñarse competencias como la aplicación de políticas e intervenciones sectoriales
“aprender a aprender”, comunicación, pensamiento proactivas y la introducción de ventajas fiscales y nuevas
crítico, trabajo en equipo, empatía y la capacidad de formas de tributación. Los Estados Miembros deberían
transferir los conocimientos propios a diversos ámbitos. garantizar que haya suficiente financiación pública
Es fundamental actuar con transparencia con respecto a para apoyar estos programas. Las reglamentaciones
las competencias de las que existe demanda y actualizar pertinentes, como los regímenes fiscales, deberían
los planes de estudios en torno a ellas. examinarse cuidadosamente y modificarse, si es
necesario, para contrarrestar las consecuencias del
117. Los Estados Miembros deberían apoyar los acuerdos desempleo causado por la automatización basada en la
de colaboración entre los gobiernos, las instituciones IA.
universitarias, las instituciones de enseñanza y
formación profesional, la industria, las organizaciones 119. Los Estados Miembros deberían alentar y apoyar a los
de trabajadores y la sociedad civil a fin de reducir la investigadores para que analicen el impacto de los
brecha en cuanto a las competencias exigidas para sistemas de IA en el entorno laboral local con miras a
adecuar los programas y estrategias de capacitación a anticipar las tendencias y los desafíos futuros. Estos
las futuras implicaciones del trabajo y a las necesidades estudios deberían tener un enfoque interdisciplinario
de la industria, incluidas las pequeñas y medianas y examinar el impacto de los sistemas de IA en los
empresas. Deberían promoverse enfoques de sectores económico, social y geográfico, así como en
enseñanza y aprendizaje de la IA basados en proyectos, las interacciones entre seres humanos y robots y entre
facilitando las asociaciones de colaboración entre las los propios seres humanos, a fin de asesorar sobre
instituciones públicas, las empresas del sector privado, las mejores prácticas de reconversión y reasignación
las universidades y los centros de investigación. profesionales.

118. Los Estados Miembros deberían colaborar con empresas 120. Los Estados Miembros deberían adoptar las medidas
del sector privado, organizaciones de la sociedad civil adecuadas para garantizar la competitividad de
y otras partes interesadas, incluidos trabajadores y los mercados y la protección de los consumidores,
sindicatos, para garantizar una transición equitativa a los considerando posibles medidas y mecanismos en
empleados en situación de riesgo. Esto supone poner en los planos nacional, regional e internacional, a fin
marcha programas de perfeccionamiento y reconversión de impedir los abusos de posición dominante en el
profesional, encontrar mecanismos eficaces para retener mercado, incluidos los monopolios, en relación con
a los empleados durante esos periodos de transición y los sistemas de IA durante su ciclo de vida, ya se trate
explorar programas de protección social para aquellos de datos, investigación, tecnología o mercados. Los
que no puedan reconvertirse. Los Estados Miembros Estados Miembros deberían prevenir las desigualdades
deberían elaborar y aplicar programas para analizar los resultantes, evaluar los mercados correspondientes y
problemas detectados y darles respuesta, entre los que promover mercados competitivos. Se debería prestar la
podrían figurar el perfeccionamiento y la reconversión debida atención a los países de ingreso mediano bajo,

37
en particular a los PMA, los PDSL y los PEID, que están adoptado normas éticas en materia de IA deberían
más expuestos y son más vulnerables a la posibilidad respetar estas normas cuando exporten estos productos,
de que se produzcan abusos de posición dominante desarrollen sus sistemas de IA o los apliquen en países
en el mercado, como consecuencia de la falta de donde no existan dichas normas, respetando al mismo
infraestructuras, capacidad humana y reglamentación, tiempo el derecho internacional y las leyes, normas y
entre otros factores. Los actores de la IA que desarrollen prácticas nacionales aplicables de estos países.
sistemas de IA en países que hayan establecido o

ÁMBITO DE ACTUACIÓN 11: SALUD Y BIENESTAR SOCIAL


121. Los Estados Miembros deberían esforzarse por emplear consentimiento informado al respecto, sin impedir
sistemas eficaces de IA para mejorar la salud humana y el acceso a la atención de la salud;
proteger el derecho a la vida, en particular atenuando
los brotes de enfermedades, al tiempo que desarrollan y e) la garantía de que el cuidado humano y la
mantienen la solidaridad internacional para hacer frente decisión final sobre el diagnóstico y el tratamiento
a los riesgos e incertidumbres relacionados con la salud correspondan siempre a seres humanos,
en el plano mundial, y garantizar que su despliegue de reconociendo al mismo tiempo que los sistemas
sistemas de IA en el ámbito de la atención de la salud sea de IA también pueden ayudarlos en su trabajo;
conforme al derecho internacional y a sus obligaciones
f ) el examen, cuando sea necesario, de los sistemas
en materia de derechos humanos. Los Estados Miembros
de IA por un comité de investigación ética antes de
deberían velar por que los actores que participan en los
su uso clínico.
sistemas de IA relacionados con la atención de la salud
tengan en cuenta la importancia de las relaciones del 124. Los Estados Miembros deberían realizar investigaciones
paciente con su familia y con el personal sanitario. sobre los efectos y la regulación de los posibles daños
de los sistemas de IA para la salud mental, tales como
122. Los Estados Miembros deberían garantizar que
un aumento de la depresión, la ansiedad, el aislamiento
el desarrollo y el despliegue de los sistemas de IA
social, el desarrollo de adicciones, el tráfico, la
relacionados con la salud en general y con la salud mental
radicalización y la información errónea, entre otros.
en particular —prestando la debida atención a los niños
y los jóvenes— estén regulados, de modo que esos 125. Los Estados Miembros deberían elaborar directrices
sistemas sean seguros, eficaces, eficientes y probados sobre las interacciones entre seres humanos y robots y
desde el punto de vista científico y médico y faciliten sus repercusiones en las relaciones entre seres humanos,
la innovación y el progreso médico con base empírica. basadas en la investigación y orientadas al desarrollo
Además, en el ámbito conexo de las intervenciones de futuro de robots, y prestando especial atención a la
salud digital, se alienta encarecidamente a los Estados salud mental y física de los seres humanos. Debería
Miembros a que hagan participar activamente a los prestarse particular atención al uso de robots en la
pacientes y sus representantes en todas las etapas atención de la salud, en la atención a las personas de
pertinentes del desarrollo del sistema. edad y las personas con discapacidad y en el ámbito
de la educación, así como a los robots para uso infantil
123. Los Estados Miembros deberían prestar particular
y para usos lúdicos, conversacionales y de compañía
atención a la regulación de las soluciones de predicción,
para niños y adultos. Además, deberían utilizarse las
detección y tratamiento médicos en las aplicaciones de
tecnologías de la IA para mejorar la seguridad y el uso
la IA, mediante:
ergonómico de los robots, en particular en entornos de
a) la supervisión para minimizar y atenuar los sesgos; trabajo en los que intervienen robots y seres humanos.
Debería prestarse especial atención a la posibilidad
b) la inclusión del profesional, el paciente, el cuidador de utilizar la IA para manipular los sesgos cognitivos
o el usuario del servicio en el equipo en calidad humanos y hacer un mal uso de ellos.
de “experto en la materia” en todas las etapas
pertinentes al elaborar los algoritmos; 126. Los Estados Miembros deberían velar por que las
interacciones entre seres humanos y robots se ajusten a
c) una debida atención a la privacidad, dado que los mismos valores y principios que se aplican a cualquier
quizá sea necesaria una vigilancia médica, y el otro sistema de IA, lo que incluye los derechos humanos
cumplimiento de todos los requisitos nacionales y las libertades fundamentales, la promoción de la
e internacionales pertinentes en materia de diversidad y la protección de las personas vulnerables
protección de datos; o en situación de vulnerabilidad. Las cuestiones éticas
relativas a los sistemas basados en la IA utilizados en las
d) mecanismos eficaces para que las personas cuyos neurotecnologías y las interfaces cerebro-ordenador
datos personales se están analizando sepan de deberían tenerse en cuenta a fin de preservar la dignidad
la utilización y el análisis de sus datos y den su y la autonomía humanas.

38
127. Los Estados Miembros deberían velar por que los la interacción a largo plazo de las personas con los
usuarios puedan determinar fácilmente si interactúan sistemas de IA, prestando especial atención a las
con un ser vivo o con un sistema de IA que imita las consecuencias psicológicas y cognitivas que estos
características humanas o animales y puedan rechazar sistemas pueden tener en los niños y los jóvenes. Para
eficazmente dicha interacción y solicitar la intervención ello deberían utilizarse múltiples normas, principios,
humana. protocolos, enfoques disciplinarios y un análisis de la
modificación de las conductas y los hábitos, así como
128. Los Estados Miembros deberían aplicar políticas de una cuidadosa evaluación de los impactos culturales
sensibilización sobre la antropomorfización de las y sociales posteriores. Además, los Estados Miembros
tecnologías de la IA y las tecnologías que reconocen deberían alentar la investigación sobre el efecto de
e imitan las emociones humanas, especialmente en las tecnologías de la IA en el desempeño del sistema
el lenguaje utilizado para referirse a ellas, y evaluar las sanitario y los resultados en materia de salud.
manifestaciones, las implicaciones éticas y las posibles
limitaciones de esa antropomorfización, en particular 130. Los Estados Miembros, así como todas las partes
en el contexto de la interacción entre robots y seres interesadas, deberían establecer mecanismos para
humanos y, especialmente, cuando se trate de niños. hacer participar de manera significativa a los niños y los
jóvenes en las conversaciones, los debates y la adopción
129. Los Estados Miembros deberían alentar y promover de decisiones sobre las repercusiones de los sistemas de
la investigación colaborativa sobre los efectos de IA en sus vidas y su futuro.

39
V.
Seguimiento y
evaluación
131. Los Estados Miembros, de acuerdo con sus circunstancias, c) la elaboración de una metodología de la
estructuras de gobierno y disposiciones constitucionales UNESCO para evaluar ex ante y ex post la eficacia
específicas, deberían velar por el seguimiento y y la eficiencia de las políticas y los incentivos
la evaluación de las políticas, los programas y los relacionados con la ética de la IA con respecto a
mecanismos relativos a la ética de la IA de forma creíble objetivos definidos;
y transparente mediante una combinación de enfoques
cuantitativos y cualitativos. La UNESCO puede contribuir d) el fortalecimiento del análisis, basado en
a apoyar a los Estados Miembros mediante: investigaciones y pruebas, de las políticas relativas
a la ética de la IA y la presentación de informes a
a) la elaboración de una metodología de la este respecto;
UNESCO de evaluación del impacto ético de las
tecnologías de la IA basada en una investigación e) la recopilación y difusión de información sobre
científica rigurosa y fundamentada en el los avances y las innovaciones, informes de
derecho internacional de los derechos humanos, investigación, publicaciones científicas, datos y
orientaciones para su aplicación en todas las estadísticas relativos a las políticas sobre la ética
etapas del ciclo de vida de los sistemas de IA y de la IA, en particular mediante las iniciativas
materiales de desarrollo de las capacidades para existentes, a fin de apoyar el intercambio de
apoyar la labor de los Estados Miembros dirigida a mejores prácticas y el aprendizaje mutuo
capacitar a funcionarios públicos, responsables de y de impulsar la aplicación de la presente
formular políticas y otros actores pertinentes de la Recomendación.
IA en la metodología de la evaluación del impacto
132. Los procesos de seguimiento y evaluación deberían
ético;
asegurar una amplia participación de todas las partes
b) la elaboración de una metodología de la UNESCO interesadas, entre ellas, aunque no exclusivamente, las
de evaluación del estadio de preparación para personas vulnerables o en situación de vulnerabilidad.
ayudar a los Estados Miembros a determinar Se debería garantizar la diversidad social, cultural y de
su situación en momentos concretos de su género, con miras a mejorar los procesos de aprendizaje
trayectoria de preparación a través de un conjunto y fortalecer los nexos entre las conclusiones, la adopción
de dimensiones; de decisiones, la transparencia y la rendición de cuentas
sobre los resultados.

40
133. A fin de promover las mejores políticas y prácticas de datos deberían realizarse de conformidad con el
relacionadas con la ética de la IA, deberían elaborarse derecho internacional, la legislación nacional en materia
instrumentos e indicadores adecuados para evaluar su de protección y confidencialidad de datos y los valores y
eficacia y eficiencia en función de normas, prioridades y principios enunciados en la presente Recomendación.
objetivos acordados, incluidos objetivos específicos para
las personas pertenecientes a poblaciones desfavorecidas 134. En particular, los Estados Miembros podrían considerar
y marginadas y personas vulnerables o en situación de posibles mecanismos de seguimiento y evaluación,
vulnerabilidad, así como el impacto de los sistemas de como una comisión de ética, un observatorio de ética
IA en los planos individual y social. El seguimiento y la de la IA, un repositorio que abarque el desarrollo ético y
evaluación del impacto de los sistemas de IA y de las conforme a los derechos humanos de los sistemas de IA,
políticas y prácticas conexas relativas a la ética de la IA o contribuciones a las iniciativas existentes para reforzar
deberían realizarse de manera continua y sistemática la conformidad a los principios éticos en todas las
proporcionalmente a los riesgos correspondientes. esferas de competencia de la UNESCO, un mecanismo
Este proceso debería basarse en marcos acordados de intercambio de experiencias, entornos de pruebas
internacionalmente e ir acompañado de evaluaciones reguladores de la IA y una guía de evaluación para
de instituciones, proveedores y programas públicos que todos los actores de la IA determinen en qué
y privados, incluidas autoevaluaciones, así como de medida cumplen las recomendaciones de actuación
estudios de seguimiento y la elaboración de conjuntos mencionadas en el presente documento.
de indicadores. La recopilación y el procesamiento

41
VI.
Utilización y
aplicación de
la presente
Recomendación

135. Los Estados Miembros y todas las demás partes interesadas con todas las organizaciones gubernamentales y
que se indican en la presente Recomendación deberían no gubernamentales nacionales e internacionales
respetar, promover y proteger los valores, principios y pertinentes, así como con las empresas transnacionales
normas éticos relativos a la IA que se establecen en esta y las organizaciones científicas, cuyas actividades
Recomendación y adoptar todas las medidas posibles correspondan al ámbito de aplicación y a los objetivos
para dar efecto a sus recomendaciones de actuación. de la presente Recomendación. La elaboración de una
metodología de la UNESCO de evaluación del impacto
136. Los Estados Miembros deberían esforzarse por ético y el establecimiento de comisiones nacionales de
ampliar y complementar su propia acción en lo que ética de la IA pueden ser instrumentos importantes a
respecta a la presente Recomendación, cooperando este respecto.

42
VII.
Promoción
de la presente
Recomendación

137. La UNESCO tiene la vocación de ser el principal Bioética (CIB) y el Comité Intergubernamental de Bioética
organismo de las Naciones Unidas encargado de (CIGB), trabajará también en colaboración con otras
promover y difundir la presente Recomendación organizaciones gubernamentales y no gubernamentales
y, en consecuencia, trabajará en colaboración con internacionales, regionales y subregionales.
otras entidades pertinentes de las Naciones Unidas,
respetando al mismo tiempo su mandato y evitando la 139. Aunque en la UNESCO el mandato de promover
duplicación de esfuerzos. y proteger es competencia de los gobiernos y los
organismos intergubernamentales, la sociedad civil
138. La UNESCO, incluidos algunos de sus órganos, como la desempeñará una función importante en la defensa de
Comisión Mundial de Ética del Conocimiento Científico los intereses del sector público y, por lo tanto, la UNESCO
y la Tecnología (COMEST), el Comité Internacional de debe garantizar y promover su legitimidad.

43
VIII.
Disposiciones
finales
140. La presente Recomendación debe entenderse como internacional o como si autorizara a un Estado, otro
un todo, y los valores y principios fundamentales deben agente político, económico o social, grupo o individuo
considerarse complementarios y relacionados entre sí. a emprender actividades o realizar actos que sean
contrarios a los derechos humanos, las libertades
141. Ninguna disposición de la presente Recomendación fundamentales, la dignidad humana y el respeto del
podrá interpretarse como si reemplazara, modificara o medio ambiente y los ecosistemas, tanto vivos como no
menoscabara de cualquier otra manera las obligaciones vivos.
o los derechos de los Estados con arreglo al derecho

44
Sector de ciencias sociales y humanas
7, place de Fontenoy
75352 París 07 SP Francia
[email protected]
on.unesco.org/EthicsAI

Síguenos
@UNESCO #AI #HumanAI

También podría gustarte