M5 Introducción A La Inteligencia Artificial

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

M5 INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL

M5 Test
A continuación te proponemos la siguiente prueba sobre los contenidos trabajados durante el módulo.
Estudia y repasa todo lo aprendido.
Te recordamos que se requiere superar esta actividad para aprobar el curso. Dispones de 3 intentos
para conseguir aprobar el test. No está previsto poder mejorar nota una vez apruebes aunque te
queden intentos.
Prueba realizada
Tu resultado en el test ha sido: 61

No has superado el test. Debes obtener al menos un 75 en el test.

Tus respuestas
El big data es una tecnología que permite:

Hacer crecer los datos de un entorno sin control.

Gestionar una colección de datos de un enorme volumen, que crece exponencialmente con el tiempo.

Almacenar vídeos e imágenes de tamaño grande.

Capturar datos esenciales de un ítem (Basic information gathering).


Elige las tres afirmaciones correctas sobre las redes neuronales artificiales:

Son modelos estadísticos directamente inspirados y parcialmente modelados imitando el funcionamiento de


redes neuronales biológicas.

Modelan y procesan relaciones no lineales.

Comparten conocimiento con métodos no supervisados.

Tienen unos datos de entrada y una función que permite pasar datos a otra neurona.
La inteligencia artificial es:

La capacidad de almacenar datos en máquinas para posteriormente generar estadísticas asociadas.

La habilidad de una máquina de presentar las mismas capacidades que los seres humanos (razonamiento,
aprendizaje y planeamiento).

El uso de ordenadores para hacer operaciones matemáticas.

La medida de la inteligencia de las personas con diferentes tipos de test.


Elige las dos afirmaciones correctas. Un perceptrón puede ser:

Un nodo individual y formar una red muy simple.


Un nodo multicapa y tener varios niveles.

No es un nodo de la red neuronal.

Es el valor que se percibe luego de un cálculo.


Un fenómeno aleatorio es:.

Aquel que se produce con máquinas que son aleaciones ligeras.

Aquel en el que se conoce su resultado si lo hacemos sobre el mismo contexto.

Aquel que, sobre unas condiciones definidas, no se puede predecir su resultado y este es un conjunto de
alternativas.

Aquel relacionado con los juegos de azar.


Una red neuronal no tiene:

Nodos de entrada.

Nodos de salida.

Nodos ocultos.

Nodos derivados.
El test de Turing sirve para:

Determinar la inteligencia de las máquinas de forma que no se diferencie en una respuesta si esta la ofrece
un humano o una máquina.

Conocer si la máquina que responde está tuneada para ofrecer una mejor respuesta.

Determinar la inteligencia de la máquina con pruebas de estrés y ver su reacción.

Saber si se ha hecho una copia de una máquina.


¿Cuáles son las unidades básicas de una red?

Las neuronas.

Los datos de entrada.

Los pesos de cada función.

Las funciones no lineales.


¿Cuáles son los métodos en el aprendizaje automatizado en función del caso considerado?
Activación, suspensión y reactivación.

Supervisado, no supervisado y con refuerzo.

Diferencial, estático y dinámico.

Abierto, cerrado y mixto.


La correlación es:

Una medida estadística que expresa hasta qué punto dos variables están relacionadas linealmente.

Una medida del número de veces que se repite un dato.

La medida de la casualidad de un suceso.

La suma de las probabilidades de varias variables de un suceso.


¿Cuál de estas no es una funcion de activación?

Escalonada.

Sigmoide.

Tangente hiperbólica.

Cuadrada.
Los datos de big data presentan las siguientes características:

Volumen, variedad, velocidad y variabilidad.

Espacio, tiempo, aleatoriedad y uniformidad.

Datos compactos, normalizados, estructurados y tipo texto.

Datos comprimidos y cifrados.


¿Qué método permitió optimizar las redes neuronales?

Back propagation.

Black propagation.

White propagation.

Disgretation.
¿Qué es la inferencia?
Es el proceso lógico que lleva una premisa a una conclusión.

Es la diferencia de una característica entre dos observaciones.

Es el descubrimiento del modelo estadístico.

Es la capacidad de filtrar los datos que le llegan en una característica.


Con un mayor número de capas:

Mayor es la profundidad de la red.

Menos tiempo se emplea en el cálculo.

Más datos se pueden incorporar.

Menos información se obtiene.


El aprendizaje automático y el profundo:

Son sistemas que son capaces de aprender a resolver problemas reduciendo la intervención de un humano.

El primero es el de las máquinas y el segundo es el de las personas.

Solo se puede usar en datos de tipo texto.

Solo se pueden usar en datos de tipo estructurado.


Elige las tres afirmaciones correctas. En el aprendizaje profundo:

Los pasos de extracción de características y modelización son automáticos.

Se seleccionan manualmente las características y un clasificador para catalogarlas.

Se necesita mayor cantidad de datos debido a la extracción de características.

La máquina aprende por sí sola con cada nueva entrada de información que recibe.
El aprendizaje supervisado necesita:

Conjuntos de datos etiquetados.

Conjunto de datos con baja correlación.

Conjunto de datos numéricos.

Una persona que valide los resultados obtenidos.


El aprendizaje no supervisado se usa para:
Extraer nuevo conocimiento o agrupar entidades por su parecido.

Aprender nuevas características no etiquetadas.

Proponer nuevas etiquetas para los datos.

Comprimir el conjunto de datos usado.


El aprendizaje por transferencia consiste en:

Entrenar un modelo en un conjunto de datos a gran escala y luego usar ese modelo previamente entrenado
como base para realizar el aprendizaje para otra tarea posterior.

Disponer el equipamiento de cómputo en paralelo y cercano para que los modelos se puedan transferir.

Usar datos que permiten hacer cálculos del modelo, que luego se transfiere a la próxima capa.

Usar modelos de aprendizaje en la nube con un precio constante.


El aprendizaje por refuerzo usa:

Mecanismos de premio y penalización para obtener el modelo.

Un proceso de repetición automática en el cálculo del modelo.

Una mezcla del aprendizaje supervisado y el no supervisado.

Solo datos de procedencia big data para su procesado.


El aprendizaje profundo:

Es el realizado en los data center que suelen estar en espacios subterráneos.

Usa redes neuronales para su proceso y el elemento de profundidad lo propone el número de capas de la red.

Es el que se realiza con mucho tiempo, días o incluso semanas de cálculo.

Es un sinónimo del aprendizaje automático.


El aprendizaje por transferencia se usa sobre todo en:

Procesos relacionados con la visión a partir de los modelos de ImageNet.

En casos de uso de banca.

En el caso de uso de datos de dominios internacionales.

En el caso de actividades deportivas relacionadas con la predicción de valor de fichajes.


Si se quiere tener una estimación de qué temperatura hará mañana:
Se usará un método de regresión.

Se usará un método de clasificación.

Se usará un método de inducción.

Se usará un método de deducción.


¿Cuál de las siguientes no es una etapa para generar un modelo?

Entender el problema y los datos.

Hacer encuestas de calidad.

Preparar los datos.

Analizar los errores.


¿Qué significa que un modelo tiene overfitting?

Modelo excesivamente enlazado con los datos de entrenamiento.

Modelo ejecutado en la parte superior.

Modelo aleatorio calculado con redes neuronales.

Modelo creado por aprendizaje por transferencia.


¿Qué usa como base la técnica de bosques aleatorios (random forest)?

Clasificación de Naive Bayes.

Redes neuronales.

Mezcla de diferentes árboles de decisión.

Máquinas de vectores de soporte.


¿Cuál no es uno de los principales métodos de aprendizaje supervisado?

Métodos jerárquicos.

Reasignación.

Distribución lineal.

Búsqueda de densidad.
¿Qué dos aspectos priman en el aprendizaje por refuerzo?
Explotar y explorar.

Escindir y espolear.

Extender y exponer.

Escoger y externalizar.
¿Qué es el procesamiento del lenguaje natural?

Es la comprensión, el manejo y la generación del lenguaje natural por parte de las máquinas.

Es el uso de diferentes procesadores de texto sobre el mismo contenido.

Es el uso de datos estructurados en un vocabulario específico.

Es una competencia entre personas y máquinas para ver quién entiende mejor un contenido de audio.
¿Cuáles tres de los siguientes son ejemplos de procesado de lenguaje natural (NLP en inglés)?

Reconocimiento del habla.

Análisis de sentimientos.

Predicción del tiempo.

Chatbots.
El procesado en cascada para la visión artificial permite:

Empezar detectando características generales y luego específicas.

Conseguir inicialmente características específicas y luego agruparlas en generales.

Reconocer varios objetos a la vez cuando se usan imágenes en blanco y negro.

Procesar imágenes, pero no vídeos.


¿Cuáles tres de los siguientes son ejemplos de procesado de imagen/vídeo usando inteligencia
artificial?

Reconocimiento facial.

Seguimiento de objetos.

Compresión de imágenes.

Descripción de vídeo.
¿Qué tipo de red neuronal se usa con mayor frecuencia en el ámbito de procesado de vídeo?
Red neuronal convolucional.

Red neuronal perceptrón multicapa.

Red neuronal con retroalimentación.

Red neuronal recurrente.


¿Qué son las unidades de cómputo GPU?

Unidades especializadas en procesar en paralelo operaciones para el tratamiento de imágenes.

Unidades generalistas que se puede programar para diferentes actividades.

Unidades de grafeno para mayor potencia de cálculo.

No son unidades de cómputo. Las unidades de cómputo solo son las CPU.
¿Qué no aporta la inteligencia artificial a la sostenibilidad del planeta?

Diseñar y ejecutar acciones que ofrezcan beneficio futuro.

Realizar ciertas simulaciones y planificar las acciones que garanticen un futuro sostenible.

Considerar el uso de recursos frente al beneficio propuesto de los modelos generados.

Usar el mayor número de recursos posible para obtener modelos excelentes, aunque el consumo energético
sea elevado.
¿Qué tres aspectos se deben considerar para una adecuada fiabilidad de la inteligencia artificial?

La IA debe garantizar el respeto de todas las leyes y reglamentos aplicables.

La IA debe asegurar el cumplimiento de los principios y valores éticos.

La IA debe de generar beneficio económico.

La IA debe ser robusta, tanto desde el punto de vista técnico como social.
En el ámbito de la ciberseguridad para la inteligencia artificial, es importante (elige tres):

Comprender lo que debe protegerse y los modelos de gobierno de datos relacionados.

Aislar completamente los datos de los centros de datos para minimizar el impacto de datos no coherentes.

Gestionar las amenazas en un ecosistema de múltiples partes de manera integral.

Desarrollar controles específicos para garantizar que la propia IA sea segura.


¿Qué aporta la IA para evitar el cambio climático?
Uso de la tecnología para generar entornos con bajo daño al medioambiente y reducir ella misma sus
emisiones con un control activo del uso de recursos.

Facilidad de uso para tener muchos entornos para medir lo que sucede con el medioambiente.

Uso de robots guiados para desplazar equipamientos a lugares más frescos que los equipos de procesado.

Uso de chasis de color verde para la reducción del impacto visual en las salas de servidores.

También podría gustarte