0% encontró este documento útil (0 votos)
30 vistas30 páginas

TALLERN4 Grupal

Este documento presenta una introducción al tema de la inteligencia artificial, incluyendo imágenes representativas de eventos clave en la historia de la IA y un resumen de 15 técnicas de IA. El autor concluye con conclusiones, recomendaciones y referencias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
30 vistas30 páginas

TALLERN4 Grupal

Este documento presenta una introducción al tema de la inteligencia artificial, incluyendo imágenes representativas de eventos clave en la historia de la IA y un resumen de 15 técnicas de IA. El autor concluye con conclusiones, recomendaciones y referencias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 30

Universidad de Panamá

Facultad de Ingeniería
Ingeniera en Operaciones Aeroportuarias

Modelo de Gestión
Taller N.º 4 (en casa grupal)

“INTELIGENCIA ARTIFICIAL EN MODELOS GERENCIALES”

Integrantes:
Mabelis Campos
Michelle Contreras
Nayvelin González
Laura Hornos
Clarisbeth Ledezma

Profesor:
Jorge Martínez

Cuatrimestre y año:
Tercer ciclo 2020

Fecha de Entrega:
13/10/20
Contenido

 INTRODUCCIÓN
 IMÁGENES REPRESENTATIVAS SOBRE CADA EVENTO DE LA VIDA
ARTIFICIAL
 QUÉ ES IA
 HISTORIA DE LA IA EN DETALLE
 TIPOS DE INTELIGENCIA ARTIFICIAL (IA)
 VENTAJAS Y DESVENTAJAS.
1. MAQUINAS REACTIVAS
2. MEMORIA LIMITADA
3. TEORÍA DE LA MENTE
4. AUTOCONCIENCIA

 TÉCNICAS DE LA INTELIGENCIA ARTIFICIAL


1- APRENDIZAJE AUTOMATIZADO (MACHINE LEARNING)
2- INGENIERÍA DELCONOCIMIENTO (KNOWLEDGE ENGINEERING)
3- LÓGICA DIFUSA (FUZZY LOGIC)
4. REDES NEURONALES ARTIFICIALES (ARTIFICIAL NEURAL NETWORKS)
5. SISTEMAS REACTIVOS (REACTIVE SYSTEMS)
6. SISTEMAS MULTIAGENTE (MULTI-AGENT SYSTEMS)
7. SISTEMAS BASADOS EN REGLAS (RULE-BASED SYSTEMS)
 8. RAZONAMIENTO BASADO EN CASOS (CASE-BASED REASONING)
9. SISTEMAS EXPERTOS (EXPERT SYSTEMS)
10. REDES BAYESIANAS (BAYESIAN NETWORKS)
11. VIDA ARTIFICIAL (ARTIFICIAL LIFE)
12. TÉCNICAS DE REPRESENTACIÓN DE CONOCIMIENTO
13. REDES SEMÁNTICAS (SEMANTIC NETWORKS) Y FRAMES
14. VISIÓN ARTIFICIAL
15. AUDICIÓN ARTIFICIAL
16. LINGÜÍSTICA COMPUTACIONAL
17. PROCESAMIENTO DEL LENGUAJE NATURAL (NATURAL LANGUAGE
PROCESSING)
18. MINERÍA DE DATOS (DATA MINING

 CONCLUSIONES
 RECOMENDACIONES
 REFERENCIAS
Introducción

El presente trabajo abarca el tema, qué es IA, historia de la IA en detalle tipos de


inteligencia artificial (IA), ventajas y desventajas.

Por segundo punto tendremos de manera desarrollada las 5 técnicas, las cuales tendrá
sus conceptos y aplicaciones. Como El aprendizaje automatizado (machine learning)
que tiene que ver mucho con es un método de análisis de datos que automatiza la
construcción de modelos analíticos. Por consiguiente, la ingeniería del conocimiento
(knowledge engineering) esto es una rama más de la Inteligencia Artificial, siendo una
de las disciplinas emergentes que nació en la era del conocimiento, luego terminado con
este seguiremos con lógica difusa (fuzzy lógica) es una gran herramienta de gran
potencial para el desarrollo de nuevos métodos o técnicas de la Inteligencia Artificial.
También Mencionaremos redes neuronales artificiales (artificial neural networks) que
conlleva a las redes neuronales artificiales y para finalizar tendremos técnicas de
representación de conocimiento. Al desarrollarlas daremos por finalizado este trabajo
con las diferentes conclusiones, recomendaciones y las respetivas referencias.
• IMÁGENES REPRESENTATIVAS SOBRE CADA EVENTO DE LA VIDA
ARTIFICIAL

1. Fin de la segunda guerra mundial


La Segunda Guerra Mundial juntó a científicos de distintas disciplinas incluyendo
campos emergentes como la neurociencia y la computación.

FUENTE DE LA IMAGEN,OTH
El matemático británico Alan Turing es considerado el padre de la inteligencia artificial.
En Reino Unido, el matemático Alan Turing y el neurólogo Grey Walter fueron dos de
los pioneros que tomaron el reto de la inteligencia artificial.

Ambos se juntaban a intercambiar ideas durante cenas de intelectuales llamadas el


"Ratio Club" (algo así como el "Club de la proporción"). Walter fue uno de los primeros
científicos en construir un robot, al que llamó tortugas.

Vea las "tortugas" de Grey Walter (En inglés)

Turing fue el inventor del llamado "Test de Turing", que establecía un parámetro para
una máquina inteligente: un computador que podría engañar a una persona y hacerle
creer que estaba teniendo una conversación con un ser humano.

2. Isaac Asimov
En 1950, el escritor estadounidense Isaac Asimov publicó "Yo, robot", una serie de
relatos cortos de ciencia ficción.

Asimov, que también fue un reconocido bioquímico, fue uno de los escritores de ciencia
ficción que escogió el tema de la máquina inteligente e imaginó su futuro.
Con su libro de relatos "Yo, robot", Asimov inauguró una nueva serie de literatura
relacionada con la inteligencia artificial.
Su trabajo fue popular, algunas veces provocativo y visionario, y ayudó a inspirar a una
generación de científicos dedicados a la robótica.

Vea a Isaac Asimov explicando sus tres leyes de la robótica


Uno de sus escritos más famosos es el que incluye las tres leyes de la robótica,
diseñadas para evitar que estas creaciones se vuelvan contra la humanidad.

Pero él también imaginó el desarrollo de las máquinas y sus conclusiones se antojan


bastante premonitorias: imaginó un computador capaz de almacenar todo el
conocimiento humano y responder a casi cualquier pregunta.

3. Estreno de "2001: una odisea del espacio"


El término inteligencia artificial (AI) fue acuñado para dar título a una conferencia de
verano de la Universidad de Dartmouth, organizada por un joven experto en
computadoras, John McCarthy.

FUENTE DE LA IMAGEN,PA
"2001: una odisea del espacio" es considerada una de las mejores películas de ciencia
ficción de la historia.

Pero tal vez uno de los mejores retratos del ideal de la Inteligencia Artificial (y sus
riesgos) fueron mostrados en la película de 1968 dirigida por Stanley Kubrick,
especialmente en la figura de la misteriosa computadora HAL 9000.

Durante una escena, HAL es entrevistada por la BBC para hablar de la misión y afirma
que es una máquina a "prueba de tontos incapaz de error".

4. El invierno de la inteligencia artificial

El matemático James Lighthill dio en 1973 un reporte sobre el poco avance de la


inteligencia artificial en Reino Unido.
A principios de los años 70, la inteligencia artificial estaba en problemas: millones
habían sido invertidos en ambiciosos proyectos y había poco para mostrar.

Después de un fuerte debate en el congreso de Estados Unidos en 1973 sobre el tema, el


matemático británico James Lighthill entregó un condenatorio informe sobre el estado
de la IA en Reino Unido.

Su visión fue que las máquinas de ese entonces solo podrían ganar una partida de
ajedrez a "nivel de aficionado".

Los fondos para la investigación fueron suprimidos y de esa manera comenzó lo que se
conoció como el invierno de la inteligencia artificial.

5. La gran oportunidad de negocios


Pero no hay mal que dure 100 años: a los pocos años la inteligencia artificial dejó de ser
un sueño de la ciencia ficción para convertirse en una alternativa de negocios. Volvieron
los recursos. Se acabó el invierno.

Digital Equipment Corporation fue de las primeras empresas en utilizar la inteligencia


artificial con un fin determinado.

Los nuevos sistemas comerciales fueron menos ambiciosos que sus precursores. En vez
de tratar de crear un gran robot inteligente, esos "expertos en sistemas" se enfocaron en
hacerlos cumplir tareas mucho más específicas.

El primer sistema exitoso de este tipo se conoció como el RI y fue configurado para
ayudar a crear sistemas internos de computación para la IA.

6. Azul profundo
En 1997, se conoció con nombre propio a la primera superestrella de la inteligencia
artificial: Azul Profundo (Deep Blue).

La supercomputadora creada por IBM se enfrentó al campeón mundial de ajedrez Gary


Kasparov y por primera vez una máquina venció a un ser humano en una competencia
de esta disciplina.
FUENTE DE LA IMAGEN,GETTY
El campeón mundial de ajedrez Garry Kasparov fue vencido por Deep Blue en 1996.

IBM construyó una máquina que en el papel fue muy superior a Kasparov. Fue capaz de
analizar 200 posiciones en un segundo, pero ¿lo hizo de forma estratégica?

La respuesta es un indudable sí. La supercomputadora ganó una partida en 1996 y seis


en 1997, a pesar de las dudas del multicampeón mundial sobre la legalidad de su
victoria: creyó que había un humano detrás, manejándola.

7. El primer robot en casa

La aspiradora Roomba se convirtió en el primer objeto en ser comercializado


exitosamente en utilizar inteligencia artificial.

La empresa estadounidense iRobot creó el primer producto comercial exitoso para el


uso en el hogar que utiliza el principio de inteligencia artificial: la aspiradora autónoma
Roomba.

Roomba fue el despegue de los aparatos autónomos diseñados para una tarea específica.

8. Máquinas de guerra

Al ver que sus sueños de inteligencia artificial funcionar durante la Guerra Fría se
desvanecieron, el ejército de Estados Unidos ahora está de regreso con nuevos
experimentos.
Su principal inversión son los robots autónomos. BigDog, producido por la empresa
Boston Dynamics, fue uno de los primeros resultados.

Lea: Los robots todoterreno del Pentágono


Construido para servir como una especie de tanque "animal" en operaciones de tierra,
nunca ha sido utilizado de forma oficial.

FUENTE DE LA IMAGEN,BOSTON DYNAMICS


9. Reconocimiento de voz
En noviembre de 2008, una pequeña ayuda apareció en el nuevo iPhone: una aplicación
de Google que reconocía la voz.

FUENTE DE LA IMAGEN,THINKSTOCK
Suena simple, pero es uno de los mayores descubrimientos en este campo. Más allá de
que el reconocimiento de voz es una de las metas de la inteligencia artificial, tras
décadas de investigación nunca se había llegado más allá del 80% de precisión.

10 ¿Son ahora las máquinas más inteligentes?


Han pasado 64 años desde que Alan Turing publicó su idea de un test para probar la
inteligencia de una máquina, examen que un robot que habla -conocido como Eugene
Goostman- logró pasar.

FUENTE DE LA IMAGEN,GETTY
Pero unos pocos expertos en inteligencia artificial creen que este es el fin del camino.
Eugene Goostman fue diseñada para pasar ese test y además utilizó trucos para engañar
a los jueces.
Fueron otros hallazgos los que mostraron en 2014 lo lejos que había llegado en 70 años
de existencia.

 ¿QUÉ ES IA?
La inteligencia artificial es el nombre genérico que se da a una serie de tecnologías que
sirven para emular al intelecto humano. Normalmente la inteligencia artificial
también se refiere a máquinas que aprenden de manera autónoma o semiautónoma a
partir de grandes bases de datos. La inteligencia artificial se desarrolla a partir
de algoritmos, que son capacidades matemáticas de aprendizaje, y de los datos que
hacen falta para entrenar los algoritmos. Los datos normalmente son datos observables,
datos disponibles públicamente o datos generados en algunas empresas. Y los
algoritmos iteran sobre esos datos para aprender a partir de ellos.
Se suelen usar dos características para definir la I.A:

 HISTORIA DE LA IA
La Inteligencia Artificial surge definitivamente a partir de algunos trabajos publicados
en la década de 1940 que no tuvieron gran repercusión, pero a partir del influyente
trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de
las ciencias de la información.
Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a
las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener
razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen
lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen
máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
Las aportaciones de Turing no solo se relacionan con el inicio de la computación. Poco
después de publicar sus resultados sobre los fundamentos de Computación, publica en
1950 un trabajo (titulado «Máquinas Computacionales e Inteligencia») donde propone
un mecanismo, conocido desde entonces como Test de Turing, para determinar cuándo
una máquina puede ser considerada inteligente, lo que supone la primera aproximación
a uno de los problemas generales que aborda actualmente la IA y, en consecuencia, el
disparo de salida de lo que será el área. A pesar de las posibles objeciones que puedan
atribuirse a su propuesta, y más importante que el test en sí mismo, lo que destaca es la
relación directa que el mismo explicita entre inteligencia y mecanización de forma
general.
La siguiente fase llegó en los ochenta, donde las técnicas de IA se trasladó al mundo
empresarial. Durante este tiempo, se descubrió que la IA podría utilizarse para predecir
los precios de las acciones, lo que le permitiría resolver problemas comerciales más
complejos.
Durante los años 80 y 90 la robótica entró en las fábricas, lo que demostró el potencial
de las máquinas para cambiar completamente una industria y sus trabajos. Esto creó un
temor y respuesta negativa contra la IA, lo que ralentizó su crecimiento de nuevo.

 Tipos de Inteligencia Artificial (IA)


1. Máquinas reactivas
Son el tipo de inteligencia artificial más básico, y se refiere a máquinas que actúan y
reaccionan, pero sin utilizar recuerdos o experiencias en beneficio de su
funcionamiento. Es decir, básicamente, lo que hace es elegir la opción correcta entre
millones de probabilidades. Estas máquinas trabajan en el presente y no utilizan datos
pasados para usarlos en su toma de decisiones. En otras palabras, no tiene memoria.
Estas máquinas no tienen un concepto del mundo y, por lo tanto, no pueden funcionar
más allá de las tareas simples para las que están programadas. Una característica de las
máquinas reactivas es que no importa la hora o el lugar, estas siempre se comportarán
de la forma en que fueron programadas. No hay crecimiento con máquinas reactivas,
solo estancamiento en acciones y comportamientos recurrentes. 

Un ejemplo típico de este tipo de máquina es la “Deep Blue”, la supercomputadora de


ajedrez creada por IBM a mediados de los años ochenta. “Deep Blue” fue creado para
jugar ajedrez contra un competidor humano con la intención de derrotarlo. Fue
programado con la capacidad de identificar un tablero de ajedrez y la ubicación y
movimiento. Además, podría hacer predicciones sobre los movimientos que debería
hacer y los movimientos que su oponente podría hacer, por lo que tiene una capacidad
mejorada para predecir, seleccionar y ganar. En una serie de partidos jugados entre 1996
y 1997, “Deep Blue” derrotó al gran maestro de ajedrez ruso Gary Kasparov,
convirtiéndose en el primer programa computarizado para derrotar a un oponente
humano.
En la imagen se puede observar a la derecha al ajedrecista Kasparov y a la izquierda la
súper computadora "Deep Blue".

2. MEMORIA LIMITADA
Se refiere a máquinas que mantienen recuerdos y datos que permiten generar acciones
transitorias en base a la información recopilada, pero sin que se genere un aprendizaje
en base a la experiencia. Los sistemas de IA con memoria limitada son aquellos que
pueden usar experiencias pasadas para tomar decisiones futuras. Es decir, a diferencia
de las máquinas reactivas, la memoria limitada aprende del pasado al observar las
acciones o los datos que se les suministran para generar conocimiento basado en la
experiencia.

Una forma existente de IA de tipo memoria limitada son los vehículos autónomos. Estos
tienen en cuenta observaciones del pasado cercano en sus funciones de toma de
decisiones.

Por ejemplo, un coche autónomo tiene en cuenta los movimientos de otros vehículos y
demás elementos de la carretera para tomar sus decisiones de conducción. Sin embargo,
estas observaciones no se almacenan de forma permanente. Para un mejor
entendimiento nos podemos referir a los accidentes fatales con Tesla en piloto
automático que ilustran las preocupaciones que tienen algunos fabricantes sobre los
sistemas semiautónomos de asistencia al conductor y si suficientes conductores los usan
correctamente. Tesla ha dicho repetidamente que el piloto automático debe usarse por
un conductor atento con las manos constantemente en el volante. 
En la imagen se puede ver el Autopiloto de Tesla, el cuál es un asistente de conducción

que, entre otras cosas, puede mantener el coche en su carril y ajustar su velocidad en
función del tráfico que lo rodea.

3. TEORÍA DE LA MENTE
La teoría de la mente presenta sistemas o máquinas cuya IA les permite entender cómo
funciona su entorno, es decir, las personas, objetos y otros sistemas que les rodean. Son
sistemas capaces de aprender en base a nuestros comportamientos y deducir y saber
cuáles son nuestros gustos, necesidades, deseos o hasta cómo esperamos ser tratados.
Implica la comprensión de que las personas, las criaturas y los objetos en el mundo
pueden tener pensamientos y emociones que afectan a su propio comportamiento. Esto
es crucial para la forma en que los humanos formamos sociedades, porque nos permite
la interacción social.
Este tipo de Inteligencia Artificial tendría la capacidad de entender el mundo que le
rodea y cuando esté desarrollada plenamente, será capaz de realizar una interacción
social más cercana a la de un ser humano.

4. AUTOCONCIENCIA
El paso final del desarrollo de la IA es construir sistemas que puedan formar
representaciones sobre sí mismos. En última instancia, los investigadores de la IA
tendrán que comprender no solo la conciencia, sino también construir máquinas que la
tengan.
Se trataría de una Inteligencia Artificial que ha desarrollado conciencia de sí misma y es
capaz de reconocerse como una entidad independiente, que puede tomar sus propias
decisiones, diferenciando entre ella y los objetos, personas y sistemas que la rodean.
Sería el primer paso en lo que ha denominado la singularidad de la tecnológica.
Ventajas y desventajas de las técnicas de “INTELIGENCIA ARTIFICIAL EN
MODELOS GERENCIALES”
Distintas voces del sector tecnológico defienden los beneficios de la Inteligencia
Artificial (IA).
El Producto Manager de Infinita ML, Andy Chan, en una TED Talks con más de 40.000
visitas en Youtube desglosa las distintas ventajas que aporta la IA al trabajo.
Kai-Fu Lee, fundador del fondo de capital riesgo Sinovation Ventures y figura
destacada en el ámbito tecnológico desgrana también en un vídeo de TED Talks con
más de 600.000 reproducciones, los principales beneficios de la IA.
Teniendo en cuenta estos dos expertos, estas serían las principales ventajas de la IA
aplicadas a un sector empresarial:

Automatiza los procesos


La Inteligencia artificial permite que robots desarrollen tareas repetitivas, rutinarias y de
optimización de procesos de una manera automática y sin intervención humana.

Potencia las tareas creativas


La IA libera a las personas de tareas rutinarias y repetitivas y permite que estas puedan
destinar más tiempo a desarrollar funciones creativas.

Aporta precisión
La aplicación de la IA es capaz de aportar una precisión mayor que el ser humano, por
ejemplo, en entornos industriales, las máquinas pueden llegar a tomar decisiones que
antes sin la IA se tomaban de manera manual o monitorizada.

Reduce el error humano


La IA reduce los fallos provocados por las limitaciones del ser humano. En algunas
cadenas de producción la IA se utiliza para detectar mediante sensores de infrarrojos,
pequeñas fisuras o defectos en piezas que son indetectables por el ojo humano.

Reduce los tiempos empleados en análisis de datos


Permite que el análisis y la explotación de los datos derivados de producción se puedan
llegar a efectuar en tiempo real.

Mantenimiento predictivo
Permite realizar un mantenimiento del equipamiento industrial basado en los tiempos y
condiciones de funcionamiento de los mismos, permitiendo incrementar su rendimiento
y ciclo de vida.

Mejora en la toma de decisiones tanto a nivel de producción como de negocio


Al disponer de mayor información de una manera estructurada, permite a cada uno de
los responsables tomar decisiones de una manera más rápida y eficiente.
A través de la IA se consiguen procesos más eficientes, libres de errores, obteniendo
mayor control sobre las líneas de producción en la empresa.

Aumento de la productividad y calidad en la producción


La IA no sólo incrementa la productividad a nivel de maquinaria, sino que también hace
que incremente la productividad de los trabajadores y la calidad del trabajo que realizan.
El poder gozar de mayor información, les permite tener una visión más focalizada de su
trabajo y tomar mejores decisiones.

Desventajas de la inteligencia artificial (AI), riesgos y barreras


Algunas voces creen que la Inteligencia Artificial (IA) tiene riesgos. Sobre todo, si se
explora el potencial de la IA y no se limita solamente a reproducir tareas humanas.
Autores como Stephen Hawking o Bill Gates y distintos investigadores han expresado
su preocupación por la IA.
Con lo que respecta a las barreras de acceso, estas serían algunas de las más habituales
que pueden ocurrir en el entorno empresarial:
• Disponibilidad de datos
A menudo, los datos se presentan de manera aislada en las empresas o son
inconsistentes y de baja calidad, con lo que presenta un desafío importante para las
empresas que buscan crear valor a partir de la IA a escala. Para poder superar esta
barrera, será de vital importancia trazar una estrategia clara desde el principio para
poder extraer los datos de IA de una manera organizada y consistente.

•Falta de profesionales cualificados


Otro obstáculo que se suele dar a nivel empresarial para la adopción de IA es la escasez
de perfiles con habilidades y experiencia en este tipo de implementaciones. Es crucial
en estos casos contar con profesionales que ya hayan trabajado en proyectos de la
misma envergadura.

•El coste y el tiempo de implementación de los proyectos de IA


El coste de implementación, tanto a nivel de plazos como económico, es un factor muy
importante a la hora de decantarse por ejecutar este tipo de proyectos. Las empresas que
carecen de habilidades internas o que no se encuentran familiarizadas con sistemas de
IA, deben valorar la externalización tanto de la implantación como del mantenimiento
para poder obtener resultados exitosos en su proyecto.

 TÉCNICAS DE LA INTELIGENCIA ARTIFICIAL

1. APRENDIZAJE AUTOMATIZADO (MACHINE LEARNING)


El machine learning es un método de análisis de datos que automatiza la construcción
de modelos analíticos. Es una rama de la inteligencia artificial basada en la idea de que
los sistemas pueden aprender de datos, identificar patrones y tomar decisiones con
mínima intervención humana. Debido a nuevas tecnologías de cómputo, hoy día el
machine learning no es como el del pasado. Nació del reconocimiento de patrones y de
la teoría que dice que las computadoras pueden aprender sin ser programadas para
realizar tareas específicas; investigadores interesados en la inteligencia artificial
deseaban saber si las computadoras podían aprender de datos. El aspecto iterativo del
machine learning es importante porque a medida que los modelos son expuestos a
nuevos datos, éstos pueden adaptarse de forma independiente. Aprenden de cálculos
previos para producir decisiones y resultados confiables y repetibles. Éstos son algunos
ejemplos ampliamente publicados de aplicaciones de machine learning con los que
quizá esté familiarizado: un automóvil de conducción autónoma, ofertas de
recomendación en línea como las de Amazon y Netflix, recomendaciones de páginas en
las distintas redes sociales, etc.
Los algoritmos del Machine Learning se dividen en tres categorías, siendo las dos
primeras las más comunes:
Aprendizaje supervisado: estos algoritmos cuentan con un aprendizaje previo basado en
un sistema de etiquetas asociadas a unos datos que les permiten tomar decisiones o
hacer predicciones. Un ejemplo es un detector de spam que etiqueta un e-
mail como spam o no dependiendo de los patrones que ha aprendido del histórico de
correos (remitente, relación texto/imágenes, palabras clave en el asunto, etc.).
Aprendizaje no supervisado: estos algoritmos no cuentan con un conocimiento
previo. Se enfrentan al caos de datos con el objetivo de encontrar patrones que permitan
organizarlos de alguna manera. Por ejemplo, en el campo del marketing se utilizan para
extraer patrones de datos masivos provenientes de las redes sociales y crear campañas
de publicidad altamente segmentadas.
Aprendizaje por refuerzo: su objetivo es que un algoritmo aprenda a partir de la propia
experiencia. Esto es, que sea capaz de tomar la mejor decisión ante diferentes
situaciones de acuerdo a un proceso de prueba y error en el que se recompensan las
decisiones correctas. En la actualidad se está utilizando para posibilitar
el reconocimiento facial, hacer diagnósticos médicos o clasificar secuencias de ADN.

Auto marca Tesla Recomendaciones de series y


capaz de conducir por sí solo películas en Netflix

2. INGENIERÍA DEL CONOCIMIENTO (KNOWLEDGE ENGINEERING)

La ingeniería del conocimiento es una rama más de la Inteligencia Artificial, siendo una
de las disciplinas emergentes que nació en la era del conocimiento. Este tipo de sistemas
empezaron a desarrollarse en la década de los setenta con los sistemas basados en
conocimiento y sistemas expertos. La Ingeniería del Conocimiento tradicionalmente se
ha relacionado con sistemas de software en donde el conocimiento y razonamiento
juegan un papel muy importante. Sin embargo, recientemente la Ingeniería del
Conocimiento se ha ampliado para ser usado en la Gestión del Conocimiento, la
modelación de empresas y los procesos de reingeniería del negocio. Se entiende por
Ingeniería del Conocimiento a la disciplina que permite construir sistemas inteligentes
mediante la deducción de conocimientos, teniendo como procesos centrales la
adquisición, representación, manipulación y validación de éste.
Tomando en cuenta esta definición, a continuación, se definen cada uno de sus procesos
Adquisición del Conocimiento: este se divide en 2.
La adquisición del conocimiento estático o explícito tiene el propósito es que
tanto el ingeniero del conocimiento, encargado del sistema a desarrollar, y el
experto del dominio puedan utilizar el mismo vocabulario, es importante que
ambos se interioricen y conozcan más acerca del conocimiento del otro.
La adquisición del conocimiento dinámico o táctico se lleva a cabo a través del
diálogo entre el ingeniero del conocimiento y el experto, ambos deben ser
capaces de expresar el conocimiento, tanto profundo como superficial que se
puede llegar a tener acerca del dominio.
Representación del conocimiento: Este proceso consiste en tomar el conocimiento
explícito y tácito adquirido para llevarlo a una forma entendible por las personas que
vayan a utilizarlo.
Manipulación y validación del conocimiento: Lo más importante de este proceso es el
conocimiento que se adquirió del experto, de las diversas fuentes y de la representación
de este, sean iguales a la realidad. Con esto se quiere decir que todo el trabajo que vaya
hacer el sistema sea igual al que haría un experto.

Proceso de la ingeniería
del conocimiento

3. LÓGICA DIFUSA (FUZZY LOGIC)

La lógica difusa es una herramienta de gran potencial para el desarrollo de nuevos


métodos o técnicas de la Inteligencia Artificial. Es una metodología que proporciona
una manera simple y elegante de obtener una conclusión a partir de información de
entrada vaga, ambigua, imprecisa, con ruido o incompleta. En general la lógica difusa
imita como una persona toma decisiones basada en información con las características
mencionadas. Una de las ventajas de la lógica difusa es la posibilidad de implementar
sistemas basados en ella tanto en hardware como en software o en combinación de
ambos. La lógica difusa es una técnica de la inteligencia computacional que permite
trabajar con información con alto grado de imprecisión, en esto se diferencia de la
lógica convencional que trabaja con información bien definida y precisa. Es una lógica
multivaluada que permite valores intermedios para poder definir evaluaciones entre
sí/no, verdadero/falso, negro/blanco, caliente/frío, etc. El concepto de Lógica Difusa fue
concebido por Lofti A. Zaded, profesor de la Universidad de California en Berkeley,
quién inconforme con los conjuntos clásicos (crisp sets) que sólo permiten dos
opciones, la pertenencia o no de un elemento a dicho conjunto, la presentó como una
forma de procesar información permitiendo pertenencias parciales a unos conjuntos, que
en contraposición a los clásicos los denominó Conjuntos Difusos (fuzzy sets).
4. REDES NEURONALES ARTIFICIALES (ARTIFICIAL NEURAL
NETWORKS)
Las redes neuronales artificiales (RNA) son modelos de la inteligencia artificial que se
inspiran en el comportamiento de las neuronas y las conexiones cerebrales para resolver
problemas. Se inspiran en el sistema nervioso y el comportamiento biológico, creando
un sistema de interconexión en capas de neuronas artificiales que colaboran para
procesar datos de entrada y generar salidas.
Como modelo computacional, las RNA utilizan grafos y funciones, conformadas por
elementos de proceso (EP o nodos) y conexiones (enlaces). Procesan entradas y generan
salidas que ayudan a resolver problemas. En algunos modelos se utiliza memoria local
en los nodos o elementos de proceso. Los nodos y conexiones de la red neuronal se
organizan en capas.
aplicaciones generales de las redes neuronales artificiales son:
1.Sistemas inteligentes para la toma de decisiones en la gestión empresarial.
2.Predicción.
3.Reconocimiento de tendencias.
4.Reconocimiento de patrones y gestión
de riesgo, aplicados por ejemplo en la

detección de fraude.

5. SISTEMAS REACTIVOS (REACTIVE SYSTEMS)


los sistemas reactivos son una serie de principios de diseño, cuyo propósito es
construir sistemas modernos, preparados para satisfacer las exigencias, cada vez
mayores, de las aplicaciones actuales. Su flexibilidad y escalabilidad los hace
más fáciles de desarrollar y modificar.

Un sistema reactivo es en esencia:


 Responsivo: el sistema responde oportunamente al usuario. Detecta los
problemas a tiempo y los resuelve efectivamente.
 Resiliente: el sistema permanece responsivo ante las fallas, conteniéndolas
dentro de cada componente. Al aislar los componentes entre sí, previene que
varios resulten afectados, evitando
comprometer todo el sistema.
 Elástico: ante diferentes cargas de
trabajo, el sistema permanece
responsivo, lo que significa que su
rendimiento aumenta o disminuye
automáticamente para satisfacer la
demanda variable, a medida que los
recursos se agregan o eliminan
proporcionalmente.
 Impulsado por mensajes: los
sistemas reactivos se basan en la
transmisión asíncrona de mensajes
entre los distintos componentes, asegurando un bajo acoplamiento entre
estos y una ubicación independiente.

6. SISTEMAS MULTIAGENTE (MULTI-AGENT SYSTEMS)


Es un sistema compuesto por múltiples agentes inteligentes que interactúan entre
ellos. Los sistemas multiagente pueden ser utilizados para resolver problemas
que son difíciles o imposibles de resolver para un agente individual o un sistema
monolítico.
El aspecto clave del sistema multiagente es la interacción: saben cómo conducir
y coordinar el comportamiento de toda una organización heterogénea de agentes
para compartir recursos (información, conocimiento) y permitir cooperación
efectiva. Sin pérdida de generalidad, la interacción en estos sistemas se da
fundamentalmente mediante procesos de comunicación. Unido a ello, es
importante la construcción efectiva de planes y el desarrollo de aprendizaje. Es
de especial consideración que en los MAS el conocimiento y la información se
encuentran distribuidos, no existe un control global pues cada agente tiene una
percepción limitada del entorno y el cómputo es asíncrono.
7. SISTEMAS BASADOS EN REGLAS (RULE-BASED SYSTEMS)
Consisten en modelos de representación del conocimiento que se usan de
manera amplia. Son apropiados para escenarios en los que el conocimiento que
se necesita representar surge de manera natural en una estructura de reglas.
Los sistemas basados en reglas se han convertido en una de las herramientas más
eficientes para tratar de manera eficiente una buena colección de problemas, ya
que las reglas deterministas constituyen la más sencilla de las metodologías
utilizadas en sistemas expertos. En estos sistemas, la base de conocimiento de la
que se parte contiene las variables y el conjunto de reglas que definen el
problema, y el motor de inferencia es capaz de extraer conclusiones aplicando
métodos de la lógica clásica sobre esta base.
Entre las ventajas de los Sistemas Basados en Reglas, podemos destacar:
 Representan de forma natural el conocimiento explícito de los expertos.
 Estructura uniforme.
 Separación entre la base de conocimiento y su procesamiento.
 Capacidad para trabajar con conocimiento incompleto e incertidumbre.
Entre las desventajas principales que han llevado a complementarlo o
sustituirlo con otros procedimientos de razonamiento podemos destacar:
 Relaciones opacas entre reglas.
 Estrategias de búsqueda muy ineficientes.
 Incapaz de aprender.

Ejemplo

En la imagen se puede observar las reglas que se podrían extraer de


un sistema de cajero automático.
8. RAZONAMIENTO BASADO EN CASOS (CASE-BASED REASONING)
Es un proceso para solucionar cuestiones basándose en soluciones de
problemáticas anteriores. El razonamiento que se basa en casos se sirve de
analogías para los nuevos razonamientos.
Se considera que no solo es una poderosa herramienta de cálculo para
ordenadores. Sino que los seres humanos usan el mismo principio para la
solución de problemas cotidianos.

9. SISTEMAS EXPERTOS (EXPERT SYSTEMS)


Es un sistema de información basado en el conocimiento que usa su
conocimiento de un área de aplicación compleja y específica a fin de actuar
como un consultor experto para los usuarios finales. Los sistemas expertos
proporcionan respuestas sobre un área problemática muy específica al hacer
inferencias semejantes a las humanas sobre los conocimientos obtenidos en una
base de conocimientos especializados.
Para que un sistema actúe como un verdadero experto, es deseable que
reúna, en lo posible, lo más importante de las características de un experto
humano, esto es:

 Habilidad para adquirir conocimiento.


 Fiabilidad, para poder confiar en sus resultados o apreciaciones.
 Solidez en el dominio de su conocimiento.
 Capacidad para resolver problemas.
Tipos de sistemas expertos
 Existen tres tipos de sistemas expertos:
 Basados en reglas: Aplicando reglas heurísticas apoyadas generalmente en
lógica difusa para su evaluación y aplicación.
 Basados en casos CBR (Case Based Reasoning): Aplicando el razonamiento
basado en casos, donde la solución a un problema similar planteado con
anterioridad se adapta al nuevo problema.
 Basados en redes: Aplicando redes bayesianas, basadas en estadística y el
teorema de Bayes.

10. REDES BAYESIANAS (BAYESIAN NETWORKS)


Son una representación gráfica de dependencias para razonamiento
probabilístico, en la cual los nodos representan variables aleatorias y los arcos
representan relaciones de dependencia directa entre las variables.

Una red bayesiana es un grafo acíclico dirigido en el que cada nodo representa
una variable aleatoria que tiene asociada una función de probabilidad
condicional. La estructura de la red bayesiana provee información sobre las
relaciones de dependencia e independencia condicional existentes entre las
variables.

Los clasificadores bayesianos son ampliamente utilizados debido a que


presentan ciertas ventajas:
 Generalmente, son fáciles de construir y de entender.
 Las inducciones de estos clasificadores son extremadamente rápidas, requiriendo
sólo un paso para hacerlo.
 Es muy robusto considerando atributos irrelevantes.
 Toma evidencia de muchos atributos para realizar la predicción final.

Por ejemplo, un sistema experto en un hospital para determinar que para un


conjunto de síntomas presentados por un individuo, no es probable que exista
cáncer. O bien, el sistema experto para ayuda a la decisión en una entidad
financiera aconsejar no otorgar un préstamo a un cliente porque la probabilidad
de impago sea muy elevada, a partir de una serie de atributos, fundamentalmente
financieros, del mismo.

Un clasificador bayesiano que suele ser bastante preciso a pesar de su


simplicidad es el "clasificador bayesiano simple"
Aplicaciones:
 Sistemas tutoriales Inteligentes (STI) : Son sistemas informanticos para la
enseñanza.

11. VIDA ARTIFICIAL (ARTIFICIAL LIFE)

Trata de comprender mejor a los seres vivos construyendo y simulando sistemas


que exhiben propiedades similares a las de los organismos biológicos. A su vez,
esta comprensión nos permite construir sistemas artificiales que pueden
adaptarse, evolucionar, aprender y auto-organizarse, tal y como los sistemas
vivos.
Podemos clasificar a la vida artificial en tres categorías:
 La vida artificial suave considera simulaciones en software con propiedades de
sistemas vivos.
 La vida artificial dura incluye a robots e implementaciones en hardware de
modelos biológicos.
 La vida artificial húmeda abarca los intentos de crear vida artificial a partir de la
química en el laboratorio. En otras palabras, se intentan crear "protocélulas" que
tengan propiedades similares a las de las células vivas pero construidas con
componentes distintos.
Ejemplo: Modelos de parvadas de aves para generar animaciones musicales
El estudio científico de la vida artificial nos ha permitido comprender mejor
propiedades y contrastar teorías sobre el origen de la vida y su evolución, la
autonomía, la auto-organización, la adaptación, la ecología, las sociedades, el
comportamiento, la información y las bases químicas de la vida.
Aplicaciones:
 Reconocimiento de voz
 Machine Learning
 Visión Artificial
 Procesamientos del Lenguaje Natural
 Robots Autónomos

12. TÉCNICAS DE REPRESENTACIÓN DE CONOCIMIENTO


Analiza cómo pensar formalmente - cómo usar un sistema de símbolos para
representar un dominio del discurso (aquello de lo que se puede hablar), junto
con funciones que permitan inferir (realizar un razonamiento formal) sobre los
objetos. Es una materia en la que se lleva trabajando desde hace varias décadas,
desde mucho antes de que surgiera la web semántica.
Surgió en el ámbito de la Inteligencia Artificial al tratar de crear
representaciones de conocimiento que pudieran ser utilizadas por mecanismos
que simulasen el razonamiento humano.
Existen diferentes técnicas de representación del conocimiento que se han
utilizado, y sobre las que se han sustentado los lenguajes de representación del
conocimiento. Una técnica no es mejor que las demás, sino que cada una de ellas
ha sido aplicada con más éxito que otras en determinados ámbitos, por lo que
disponen de características que las hacen más apropiadas para determinados
problemas.

•Tripletas Objeto-Atributo-Valor: se utilizan para representar hechos acerca de


objetos y sus atributos, especificando el valor de un atributo para un
determinado objeto. Por ejemplo, para representar que el coche es rojo, se
tendría una tripleta Coche-Color-Rojo.

•Uncertain Facts o Hechos Inciertos: las tripletas O-A-V indican que un objeto
tiene un valor asociado a un atributo de forma completa y con toda la certeza, es
decir, un coche es rojo o no lo es. No permiten asignar graduaciones de certeza
en estas asignaciones. Ejemplo, existen situaciones en las que se puede necesitar
representar que un determinado objeto que posee un atributo con una
determinada certeza, lo que se suele denominar "certainty factor".

•Fuzzy Facts o Hechos Difusos: representa conocimiento impreciso o ambiguo.


Ejemplo, la expresión “Juan es viejo”, en comparación con “Juan es joven” o
“Juan es de mediana edad”, puede no ser sencilla de representar con otras
técnicas, ya que la edad es algo gradual, no se pasa de ser joven un día a ser de
mediana edad al siguiente.

•Rules: esta técnica representa el conocimiento presentando unas premisas o


condiciones y las conclusiones o acciones que de ellas se derivan. Se suelen
representar de la forma IF – THEN -.

•Redes Semánticas o Mapas Conceptuales: se basa en la utilización de grafos


que representan conceptos, objetos y relaciones entre ellos.
•Frames o Marcos: es una técnica de representación muy similar a la utilizada en
la programación orientada a objetos. Consta de class frames, similares a las
clases, que representan conjuntos de objetos con características similares.
13. REDES SEMÁNTICAS (SEMANTIC NETWORKS) Y FRAMES
Se denomina red semántica al esquema que permite representar, a través de un
gráfico, cómo se interrelacionan las palabras. De esta forma, se grafican los
saberes lingüísticos a través de un mapa conceptual. Otro nombre por el que se
conoce este concepto es esquema de representación en red.

Un marco (frame, en inglés) es una estructura de datos que posibilita “hablarle”


al computador e incluye conocimiento sobre un objeto en particular. Tal
conocimiento se organiza y con unos métodos para almacenamiento y
recuperación de conocimiento permite un diagnóstico independiente del
conocimiento, e incluso permite la combinación con la lógica de predicados para
generar un razonamiento; llega así a crear un motor de inferencia sobre el
conocimiento y además permite realizar construcciones jerárquicas basadas en la
herencia.

14. VISIÓN ARTIFICIAL


la visión artificial incluye todas las aplicaciones industriales y no industriales
donde una combinación de hardware y software brindan una guía operativa a
dispositivos en la ejecución de sus funciones en base a la captura y el
procesamiento de imágenes. A pesar de que la visión industrial por computadora
utiliza muchos de los mismos algoritmos y enfoques que las aplicaciones
académicas-educativas y gubernamentales-militares, sus limitaciones son
diferentes.
Los sistemas de visión industrial necesitan mayor solidez, confiabilidad y
estabilidad en comparación con un sistema de visión académico/educativo y el
costo suele ser mucho menor que el de aplicaciones gubernamentales/militares.
Por lo tanto, la visión artificial industrial implica bajos costos, precisión
aceptable, alta solidez, gran confiabilidad, al igual que elevada estabilidad
mecánica y térmica.
Los sistemas de visión artificial se basan en sensores digitales protegidos dentro
de cámaras industriales con ópticas especializadas en adquirir imágenes, para
que el hardware y el software puedan procesar, analizar y medir diferentes
características para tomar decisiones.

Diagrama Básico de la Visión Artificial


15. AUDICIÓN ARTIFICIAL
En el campo de la salud auditiva, la IA ha dado pasos agigantados para que las personas
puedan oír mejor en ambientes ruidosos, dando siempre prioridad al habla y la
comunicación. Es decir, los auxiliares auditivos con IA analizan los ambientes
acústicos, los ruidos molestos, el estilo de vida del usuario y los ajustes que éste hace,
para que, alimentados con esa valiosa información, nos den como resultado la
eliminación de artefactos molestos y mayor claridad en las conversaciones.

16. LINGÜÍSTICA COMPUTACIONAL


La lingüística computacional es la disciplina científica y de ingeniería
relacionada con la comprensión del lenguaje hablado y escrito desde una
perspectiva computacional. También se agrupa dentro de esta definición al
diseño y creación de dispositivos tecnológicos capaces de procesar y reproducir
el lenguaje humano de manera útil, ya sea en forma masiva o a través de una
configuración de diálogo. En la medida en que el lenguaje es un espejo de la
mente, una comprensión computacional del lenguaje también proporciona una
visión del pensamiento y la inteligencia. Y dado que el lenguaje es nuestro
medio de comunicación más natural y versátil, las computadoras
lingüísticamente competentes son un gran adelanto, puesto que facilitan
enormemente nuestra interacción con máquinas y software de todo tipo. Gracias
la lingüística computacional incluso la tecnología más compleja puede ponerse a
nuestro alcance, de manera que realmente satisfaga nuestras necesidades,
apoyándose en los vastos recursos textuales y de conocimiento que existen en
internet.
Entre las aplicaciones a esta técnica de inteligencia artificial se encuentran las
siguientes:
 Traducción automática.
 Aplicaciones de recuperación de documentos y su posterior agrupación
en clústeres.
 Extracción y resumen de conocimientos.
 Análisis de sentimientos.
 Chatbots y otros tipos de robots de diálogo amigables.
 Aplicaciones de lingüística computacional dentro de universos virtuales,
juegos y ficción interactiva.
 Interfaces de usuario en lenguaje natural.

Ejemplo de traducción Análisis de sentimientos


Automática en la red social Facebook
17. PROCESAMIENTO DEL LENGUAJE NATURAL (NATURAL
LANGUAGE PROCESSING)
Es el campo de estudio que se enfoca en la comprensión mediante ordenador del
lenguaje humano. Abarca parte de la Ciencia de Datos, Inteligencia Artificial
(Aprendizaje Automático) y la lingüística.
 usos más frecuentes:

 Resumen de textos: El algoritmo deberá encontrar la idea central de un


artículo e ignorar lo que no sea relevante.
 ChatBots: deberán ser capaces de mantener una charla fluida con el
usuario y responder a sus preguntas de manera automática.
Generación automática de keywords y generación de textos siguiendo un estilo
particular
 Reconocimiento de Entidades: encontrar Personas, Entidades
comerciales o gubernamentales o Países, Ciudades, marcas…
 Análisis de Sentimientos: deberá comprender si un tweet, una review o
comentario es positivo o negativo y en qué magnitud (o neutro). Muy
utilizado en Redes Sociales, en política, opiniones de productos y en
motores de recomendación.
 Traducción automática de Idiomas
 Clasificación automática de textos en categorías pre-existentes o a
partir de textos completos, detectar los temas recurrentes y crear las
categorías.

18. MINERÍA DE DATOS (DATA MINING)


El Data Mining es un conjunto de técnicas y tecnologías que permiten explorar
grandes bases de datos, de manera automática o semiautomática, con el objetivo
de encontrar patrones repetitivos que expliquen el comportamiento de estos
datos.
Los mineros o exploradores de datos a la hora de llevar a cabo un análisis
de Data Mining, deberán realizar cuatro pasos distintos:
 Determinación de los objetivos: El cliente determina qué objetivos
quiere conseguir gracias al uso del Data Mining.
 Procesamiento de los datos: Selección, limpieza, enriquecimiento,
reducción y transformación de la base de datos.
 Determinación del modelo: Primero se debe hacer un análisis
estadístico de los datos y después visualización gráfica de los mismos.
 Análisis de los resultados: En este paso se deberán verificar si los
resultados obtenidos son coherentes.
Cómo se realiza la minería de datos
1. Marcar los objetivos del proyecto y cómo la minería de datos
puede contribuir a estos objetivos: En esta fase se debería trazar
un plan que incluya plazos, acciones y funciones asignadas.

2. Comprensión de los datos: los datos se recopilan de todos los


orígenes de datos aplicables. Las herramientas de visualización
suelen usarse en esta fase para explorar las propiedades de los
datos a fin de garantizar que servirán para lograr los objetivos del
negocio.

3. Preparación de datos: los datos se depuran, y se incluyen los


que podrían faltar para que todo esté listo para su análisis. El
procesamiento de los datos puede prolongarse durante bastante
tiempo en función de la cantidad de datos que se vayan a analizar
y del número de orígenes de datos. Por tanto, en los sistemas de
gestión de base de datos modernos (DBMS), se usan sistemas
distribuidos que agilizan el proceso de minería de datos en lugar
de sobrecargar con todo el proceso a un único sistema. También
son más seguros que tener todos los datos de una organización en
un único almacén de datos. Es importante incluir medidas de
seguridad en la fase de manipulación de datos para evitar que se
pierdan de forma permanente.

4. Creación de modelos de datos: se usan modelos matemáticos


para buscar patrones en los datos aplicando herramientas de datos
sofisticadas.

5. Evaluación: las conclusiones se evalúan y compara con los


objetivos del negocio para determinar si se implementarán en toda
la organización.

6. Implementación: en la fase final, las conclusiones de la minería


de datos se comparten entre las distintas operaciones que
participan a diario en la actividad del negocio. Una plataforma de
inteligencia empresarial corporativa puede ser útil como fuente
fiable de consulta “autoservicio” de datos.
 CONCLUSIÓN
Luego de realizar la investigación podemos concluir que:
La inteligencia artificial es la característica de imitar por completo a un ser humano,
pero estas críticas pasan por alto que ningún ser humano tiene la capacidad de resolver
todos los problemas existentes. Por lo tanto, es muy importante detonar que tipos de
problemas que podrán resolver, la estrategia y algoritmos que realizara para llegar a
dicha respuesta. Las inteligencias artificiales dentro de las empresas harán que muchos
puestos de trabajo se vean afectados por la introducción de máquinas que trabajen a
partir de la Inteligencia Artificial y mucha mano de obra sea sustituida por robots. Pero
esto, solo supondrá que tendremos que crear nuevos puestos de trabajo, para poder
supervisar dichos robots.
Las innovaciones en inteligencia artificial avanzan muy rápido, cada día se apuestan por
nuevas tecnologías que sean capaces de resolver los problemas con mayor agilidad, por
lo que se mantienen siempre a la vanguardia. Por otra parte, es importe destacar la
singular característica de la inteligencia artificial de imitar por completo al ser humano,
mejorando sus habilidades para el desarrollo de problemas.
Las tecnologías de hoy en día están cambiando el mundo, de manera en la que, en un
futuro, estas harán cualquier trabajo que un ser humano podría hacer. Está todo en
manos de la evolución y avances tecnológicos que se puedan desarrollar en los
siguientes años.
La memoria reactiva se basa en las acciones activas, a pesar de no tener memoria si
están programados con la información adecuada pueden darle frente a la mente humana
de manera que las veo más eficientes para cualquier administración, en cambio la
memoria limitada tiene más puntos de declive que demuestran ser dependientes del ser
humano por lo que las encuentro menos eficientes. Al hablar de las técnicas se puede
decir que son herramientas que usan los desarrolladores de la inteligencia artificial para
dar nacimiento a máquinas eficaces que faciliten las funciones humanas.
Comprender como funciona los sistemas y mecanismos que dan lugar a la vida es un
gran paso para la ciencia y la tecnología, y tiene muchos benéficos que mejorarían la
calidad de vida humana. Esto trae ventajas a poder descontaminar el suelo y el agua,
sintetizar nuevos combustibles, acabar con enfermedades. Se puede dará conocer como
una oportunidad para la mejora de la humanidad únicamente con fines de progreso y
para ayudarnos unos a otros y también al mundo.
 RECOMENDACIONES
En base a las conclusiones presentadas podemos recomendaciones lo siguiente:
 Se involucren más a los jóvenes de escuelas y universidades con la
Inteligencia artificial, por medio de conferencias, charlas y demás, ya
que existen muchas incógnitas acerca de este tema y lo que realmente
es.

 En base a mi conclusión puedo recomendar que la inteligencia artificial


sea utilizada de manera segura, y educar a cada persona para que se
obtenga un buen ambiente ya sea dentro de una organización. Las
empresas tienen que aprovechar la inteligencia artificial para mejorar
sus procesos y así obtener buenos resultados.

 Como recomendación, puedo añadir que las tecnologías que hoy en día
utilizamos deben ser utilizadas de manera responsable y consciente, ya
que estas se han convertido en parte fundamental de la vida de los seres
humanos, ya sea para buscar información, trabajo, educación,
entretenimiento, etc.

 Por lo investigado se puede recomendar que la administración y


mejoramiento a una memoria limitarte menos dependiente del hombre
es necesario para su desempeño además de poder llegar a unirse a la
memoria reactiva, lo cual desde mi punto de vista es más posible para
un desempeño formidable.

 Se llevaría a cabo una recomendación para el planeta que en lo cual


continúa calentándose, los impactos del cambio climático están
empeorando. Mediante la recopilación y el análisis de datos, los
modelos impulsados por la IA podrían, por ejemplo, ayudar a mejorar
la gestión de los ecosistemas y la restauración del hábitat, esencial para
menguar la disminución de las poblaciones de peces y fauna silvestre.
Dicho esto, la extracción de datos consume casi el diez por ciento de la
energía a nivel mundial. Por lo tanto, también es esencial abordar el
alto consumo de energía de la IA y el consiguiente impacto en la
emisión de carbono.
 Referencias
 Rebato, C. (12 de 02 de 2020). Empresas Thing Bix. Obtenido de
https://empresas.blogthinkbig.com/redes-neuronales-artificiales/

 Sebastian M./ 17 de noviembre 2019/ Think Big/ Empresas /


https://empresas.blogthinkbig.com/tipos-inteligencia-artificial-
empresariales/

 Fernando Sancho Caparrini/ 21 de septiembre de 2019/


http://www.cs.us.es/~fsancho/?e=103

 Víctor Garnica (2015), Vida artificial, la próxima era. España,


https://es.slideshare.net/VictorGarnica2/vida-artificial-la-prxima-era-de-
la-presentacion-vhgg

 Comité de la UNESCO (2019), Elaboración de una Recomendación


sobre la Ética de la Inteligencia Artificial. EEUU,
https://es.unesco.org/artificial-intelligence/ethics

 Aprendizaje automático: Qué es y por qué es importante. (s. f.).

SAS.https://www.sas.com/es_pe/insights/analytics/machine-

learning.html

También podría gustarte