SIN LÍMITES
Episodio 1x02: La guerra de Ucrania iluminada con rayos gamma de Proyecto para una inteligencia. Conversaciones desde el PanópticoSIN LÍMITES
Episodio 2x14: La IA tiene que ir a clase de filosofía
DeProyecto para una inteligencia. Conversaciones desde el Panóptico
SIN LÍMITES
Episodio 2x14: La IA tiene que ir a clase de filosofía
DeProyecto para una inteligencia. Conversaciones desde el Panóptico
valoraciones:
Longitud:
18 minutos
Publicado:
15 abr 2024
Formato:
Episodio de podcast
Descripción
“El avance de la Inteligencia Artificial en nuestra vida ha dado una relevancia a la Filosofía inédita hasta el momento. No cabe duda que los últimos desarrollos tecnológicos vinculados con la IA han generado una preocupación sobre cuál debe ser su encaje en nuestras vidas”.
Una de las ventajas de aplicar determinados algoritmos de inteligencia artificial para la generación de conceptos es que el sistema tiende a detectar patrones y luego aplicarlos sobre un mar de datos, con el objetivo de predecir y conseguir nuevos contenidos. Detectar patrones es un aspecto clave de este proceso de IA.
Hay que entrenar a la máquina para que vaya aprendiendo, primero en una fase supervisada por humanos y, posteriormente, con un modelo de aprendizaje autosupervisado, dada la ingente cantidad de información a digerir. A partir de aquí, este sistema de inteligencia artificial tendría que ser capaz de generar
abundantes propuestas de conceptos. Un ejemplo, el programa Lavender se utiliza para identificar a terroristas, pero no sabemos lo que entiende por terrorista. En el caso del ataque al convoy del chef José Andrés, han declarado
que fue un error de identificación. El peligro no es la IA sino la inteligencia humana que es la que en este caso ha utilizado el programa Lavender.
En 2018 el Parlamento Europeo promulgó un reglamento sobre la IA que se ha denominado “derecho a la explicación”.
El derecho a la explicación se refiere al derecho del usuario a conocer cómo funciona un sistema de IA y cómo llega a sus conclusiones. Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios. O sea, hay que introducir en la IA un nivel autocrítico.
Conclusión: La única forma de aliviar nuestra vulnerabilidad es desarrollando nuestro pensamiento crítico.
Una de las ventajas de aplicar determinados algoritmos de inteligencia artificial para la generación de conceptos es que el sistema tiende a detectar patrones y luego aplicarlos sobre un mar de datos, con el objetivo de predecir y conseguir nuevos contenidos. Detectar patrones es un aspecto clave de este proceso de IA.
Hay que entrenar a la máquina para que vaya aprendiendo, primero en una fase supervisada por humanos y, posteriormente, con un modelo de aprendizaje autosupervisado, dada la ingente cantidad de información a digerir. A partir de aquí, este sistema de inteligencia artificial tendría que ser capaz de generar
abundantes propuestas de conceptos. Un ejemplo, el programa Lavender se utiliza para identificar a terroristas, pero no sabemos lo que entiende por terrorista. En el caso del ataque al convoy del chef José Andrés, han declarado
que fue un error de identificación. El peligro no es la IA sino la inteligencia humana que es la que en este caso ha utilizado el programa Lavender.
En 2018 el Parlamento Europeo promulgó un reglamento sobre la IA que se ha denominado “derecho a la explicación”.
El derecho a la explicación se refiere al derecho del usuario a conocer cómo funciona un sistema de IA y cómo llega a sus conclusiones. Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios. O sea, hay que introducir en la IA un nivel autocrítico.
Conclusión: La única forma de aliviar nuestra vulnerabilidad es desarrollando nuestro pensamiento crítico.
Publicado:
15 abr 2024
Formato:
Episodio de podcast
Títulos en esta serie (27)
- 17 min de escucha