Unidad 3 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 67

1

UNIDAD 3

Tecnología digital para la mejora del nivel de eficiencia


en la distribución
ÍNDICE

1 El modelo de gemelo digital. Digital Supply Chain Twins


(DSCT)
2 Inteligencia artificial
3 Big Data
4 Blockchain
5 Robótica
OBJETIVOS

§ Descubrir el impacto real de las tecnologías digitales en el sector de la


distribución.
§ Saber cómo afectan y benefician las tecnologías a las empresas.
§ Conocer su influencia en nuestra vida cotidiana y cómo vivimos
diariamente con estas tecnologías.
§ Diferenciar cada una de estas tecnologías conociendo para qué se
utilizan y cómo.

4
INTRODUCCIÓN

Estamos inmersos en una 4ª


revolución industrial en todo el
mundo. Esta revolución está basada
en el uso de tecnologías
emergentes para mejorar los
procesos de producción y
fabricación. En definitiva, para
facilitarnos la vida y hacer una
El factor humano en la evolución de la tecnología.
mejor utilización de los recursos.

5
1. El modelo gemelo digital. Digital Supply Chain Twins (DSCT) (I)

En el desarrollo de un gemelo
digital intervienen diferentes
tecnologías, los sensores y
dispositivos IoT que captan los
datos sobre su situación en el
mundo real, la inteligencia artificial
aplicada a analizar toda la informa-
ción captada, la realidad virtual a la
hora de recrear el entorno que
estamos estudiando, y la realidad
aumentada para disponer de
información en tiempo real de
distintos elementos o dispositivos. Réplicas virtuales.

6
CONCEPTO

Un gemelo digital o digital twin es una réplica digital de activos físicos,


procesos, espacios, sistemas y dispositivos que se pueden usar para varios
propósitos. Por una parte, tenemos el sistema u objeto real y, por otro, una
réplica virtual que contiene toda la información del sistema físico basada en
sus características técnicas y sus datos de funcionamiento.

7
1. El modelo gemelo digital. Digital Supply Chain Twins (DSCT) (II)

Los gemelos digitales se emplearan para la predicción de fallos o


errores antes de que ocurran. Las empresas pueden reaccionar a
problemas en máquinas, en procesos de producción o en las propios
bienes que fabrican desde ubicaciones remotas en tiempo real, gracias
a la recopilación de datos e información.
Pueden intervenir la realidad virtual, a la hora de recrear el entorno que
estamos simulando, y la realidad aumentada, para disponer de
información en tiempo real de distintos elementos o dispositivos.

8
1. El modelo gemelo digital. Digital Supply Chain Twins (DSCT) (III)

Un aspecto determinante es que los gemelos digitales deben sincronizar de


manera confiable las reflexiones de la realidad física y su contra, la realidad
virtual. La simple captura y representación de condiciones físicas, incluidas
la información procedente de sensores y dispositivos IoT, no es suficiente
para comprender, analizar o modelar las mejoras. La inteligencia artificial y
el factor humano son muy importantes en este sentido.
Entre las 10 tendencias tecnológicas estratégicas más importantes que ha
apuntado la consultora Gartner para las próximos años, resaltan la in-
teligencia artificial, la analítica de datos y los gemelos digitales.

9
Infografía
Pulsa aquí para acceder a la siguiente infografía.

10
1.1 Usos de los gemelos digitales (I)

Mantenimiento proactivo y predictivo

Los gemelos digitales se emplearán para la predicción de fallos o errores antes


de que ocurran. Las empresas pueden reaccionar a problemas en máquinas,
en procesos de producción o en las propios bienes que fabrican desde
ubicaciones remotas en tiempo real. Gracias a la recopilación de datos e
información, los gemelos digitales proporcionan a las fabricantes
representaciones digitales de sus productos en tiempo real. Si una máquina se
calienta, se para o falla; ese error se trasladará al entorno virtual con capacidad
para predecir que va a ocurrir a partir de ese momento si no se toman las
medidas oportunas.

11
1.1 Usos de los gemelos digitales (II)
Colaboración inteligente

Al implementar redes de inteligencia de


activos, las empresas garantizan que las
conocimientos recopilados a partir de datos
de gemelos digitales se almacenan en un
repositorio central. Los fabricantes pueden,
a su vez, conectarse y compartir
información sobre su funcionamiento con
otras empresas asociadas para prevenir
problemas. Siempre será mucho mejor
tener la mayor cantidad de datos posible
para predecir qué puede ocurrir. Pueden ser
empresas de otro sector, ingenierías de
robótica que pueden prever cuando alguna Uso de tecnologías inteligentes para evitar fallos.
de sus implantaciones va a fallar, flotas de
camiones digitalizadas, etc.

12
1.1 Usos de los gemelos digitales (III)
Mejorar el rendimiento

Las redes de información no solo brindan a los fabricantes la capacidad de corregir


preventivamente los problemas actuales de los productos, sino que también les ayudan a
desarrollar productos de mejor desempeño para el futuro. A través de gemelos digitales,
las empresas tienen una comprensión visual, basada en datos, de cómo y por qué los
productos fallaron. Con este análisis, tienen el poder de mejorar el rendimiento y el diseño
del producto en el futuro.

Simulación y prueba de productos

La división aeroespacial de un fabricante de motores ha iniciado un proceso de


transformación digital tanto para el diseño de los motores de aviones como para sus
pruebas. Simular el funcionamiento de la pala del ventilador les ha proporcionado una
importante información sobre su rendimiento. Como resultado, han reducido el tiempo y
los costes de su desarrollo y la cantidad de motores físicos que se deben probar. Es
mucho más barato y eficaz desarrollar y testar productos desde el gemelo digital que
hacerlo con el producto real, ya que se pueden crear infinitas copias del modelo virtual y
probar diferentes escenarios con parámetros extremos.

13
EJEMPLOS

§ La Fuerza Aérea de Estados Unidos utiliza los gemelos digitales para rastrear
la fatiga en componentes de aeronaves individuales, mejorando la
administración del ciclo de vida. Integra los datos técnicos existentes, las
propiedades del material, los datos de vuelo, los informes de mantenimiento
e inspección, así como el análisis probabilístico para crear un gemelo digital
del fuselaje que proporciona datos sobre el mantenimiento de la aeronave.

§ La ciudad de Singapur tiene un gemelo digital en 3D llamado Virtual Singapur,


una réplica virtual de la ciudad y que las funcionarios utilizan para planificar y
comunicarse con las residentes. De esta manera, disponen de información en
tiempo real sobre el tránsito de vehículos y peatones, y patrones de
proyección de cómo puede evolucionar el flujo durante las próximas horas.
Incluso pueden estimar qué medidas adoptar en caso de una catástrofe
natural.

14
CONCEPTO (I)

Un concepto fundamental cuando nos referimos a las gemelos digitales o


digital twins es la metodología BIM.
BIM (Building Information Modeling) es una metodología de trabajo con
diferentes tipos de software para la elaboración y gestión de proyectos de
simulación que permite desafiar, proyectar, organizar, dirigir y explotar un
entorno virtual. Se trata de construir y trabajar una maqueta virtual en la que
interactúan los diferentes agentes intervinientes en todo el ciclo de vida de un
edificio, máquina o entorno, y que generan un único modelo de desarrollo.

15
CONCEPTO (II)

La simulación o virtualización
consiste en la representación de
elementos virtuales de la realidad
física o inmaterial para reproducir y
predecir mediante un modelo el
comportamiento en diferentes
situaciones y escenarios. La
simulación por ordenador se utiliza en
disciplinas coma la educación, la
ciencia, la medicina, la arquitectura, la
ingeniería o la industria.

Simulación virtual para detección de fallos.

16
CONCEPTO (III)
Para que esta metodología funcione, se integra toda la información en un
modelo parametrizado, completo, único y centralizado que comparten todos
las agentes que intervendrán durante todo el ciclo de vida del objeto, desde el
desafío conceptual hasta el mantenimiento durante toda su vida útil. Esta
construcción virtual permite la integración de múltiples dimensiones, coma
son las físicas, el coste, el tiempo, el análisis energético y de sostenibilidad,
etc. Los objetos que se incorporan a dicha construcción virtual tienen datos y
características singulares, pudiendo dialogar con otros sistemás a través de
bases de datos. Ello permite hacer simulaciones, pudiendo tomar decisiones
que minimicen y prácticamente eliminen errores basándose en un
conocimiento global del proyecto a través del modelo virtual. Además, puede
operarse a distancia, mediante sistemas tradicionales o en la nube, y facilita el
estudio de alternativas, las simulaciones de desafío, calculo y económicas, el
seguimiento de las obras y el acortamiento de plazos, la detección de
interferencias o la prefabricación de elementos en taller.

17
PARA SABER MÁS

En el siguiente vídeo puedes ver el digital twins aplicado a la industria 4.0.

https://www.youtube.com/watch?v=Q6QucM_CZ0g&t=106s

18
2. Inteligencia artificial (I)

La inteligencia artificial, IA (por sus


siglas en castellano) o Al (por sus siglas
en inglés), se define como un software
que es capaz de copiar las funciones
cognitivas de los humanos para
aprender y resolver problemas. Un
aspecto clave es que la IA no aprende
sola, hay que alimentar de datos e
información a esa inteligencia artificial
para que adquiera conocimientos y
aprenda a discernir.

Mejora las capacidades y la velocidad de


respuesta.

19
2. Inteligencia artificial (II)

La función del ser humano es fundamental a la hora de proporcionar esos


datos a la inteligencia artificial y establecer en que áreas o aspectos se va a
centrar su aprendizaje.
La inteligencia artificial no es un concepto novedoso, ya que lleva entre nosotros
desde hace muchos años. El término inteligencia artificial fue creado
formalmente en 1956 por John McCarthy a partir de los conceptos del test de
Alan Turing. En años posteriores, se crearon diferentes ejemplos de sistemas
básicos basados en inteligencia artificial.
Los principios básicos de la inteligencia artificial ya se estudiaban hace 50 años
en las facultades de ingeniería, pero no ha sido hasta hace unos años cuando ha
sido posible aplicar esos principios en ordenadores que estuviesen al alcance
económico de cualquier persona o empresa.

20
2. Inteligencia artificial (III)
El auge actual de la inteligencia artificial esta motivado por varias causas:

1 Mejora de las capacidades y velocidad de


computación de los procesadores.

2 Proliferación de datos.

3 Almacenamiento de datos.

21
4 Conectividad inalámbrica.

5 Gestión de datos.

6 Rapidez y eficacia en resultados.

22
2.1 Tipos de inteligencia artificial

La denominación de inteligencia artificial incluye diferentes tecnologías y


procesos que varían en función de la complejidad de los algoritmos
utilizados, el tipo de datos a interpretar y la forma en la que la IA adquiere
sus conocimientos.
Todos estos usos de algoritmos de aprendizaje y redes neuronales
se agrupan bajo el paraguas del término inteligencia artificial, pero hay
diferentes ramas específicas que detallamos a continuación.

23
1. Machine learning. Se centra en los sistemas de aprendizaje
autónomos por parte de las máquinas. Se trata de crear programas
y softwares capaces de generalizar comportamientos a partir de
una información suministrada (dato). Se introducen los datos y el
sistema se encarga de validarlos, limpiarlos, enriquecerlos si fuese
necesario, y se queda con la información más relevante. El
algoritmo aprende de su experiencia y va mejorando sus decisiones.
Cuantos más datos se le introduzcan, más inteligente se vuelve y
aumenta su capacidad para tomar las decisiones oportunas que
correspondan a cada caso. Con todo, somos los humanos los que
tenemos que corregir de forma manual las desviaciones en esos
datos por que solo los humanos podemos detectar errores en serie.
La mente humana tiene unas habilidades, mientras que la
inteligencia artificial, todavía, no es capaz de discriminar ciertos
patrones.

24
2. Deep learning o aprendizaje profundo. Se puede definir coma una
evolución de los sistemas de inteligencia artificial para lograr he-
rramientas que, de forma autónoma y sin apenas intervención humana,
sean capaces de imitar comportamientos y razonamientos propios del
ser humano. El deep learning se basa en un conjunto de algoritmos o
redes neuronales que son capaces de generar respuestas y actuar en
función de las conclusiones a las que se llega por su combinación,
yuxtaposición o contradicción a partir de un sistema de capas que se
ordenan en función de una jerarquía. Es lo más parecido al
pensamiento humano, e incluso se han desarrollado redes neuronales
que son capaces de generar procesos que incluyen el pensamiento
abstracto.

25
3. Los sistemas de visión artificial. Se basan en entrenar a un
algoritmo para el reconocimiento de imágenes de objetos, de
rostros y de estructuras más complejas. Uno de sus usos más
habituales es el reconocimiento facial a través de imágenes de
video o de fotos. En la industria, también se emplea para la
detección de objetos, comprobar su correcta fabricación o para la
supervisión de cierres en zonas de packaging. Otro uso avanzado de
la visión artificial se refiere al coche autónomo, que está dotado de
cámaras de video que son capaces de reconocer señales de tráfico,
identificar vehículos, peatones u obstáculos. De esta manera, la
visión artificial va entrenándose con el objetivo de detectar patrones
de conducción, adquiriendo la habilidad necesaria para prevenir los
cambios y así anticiparse a ellos, evitando posibles accidentes.

26
Los elementos más habituales de un sistema de visión artificial son
equipos de iluminación, lentes, framegrabbers (placas de captura de
imagen), cámaras y software de análisis. Gracias a la aplicación del
láser y la luz estructural, ahora tenemos ya visión artificial 3D. Una
imagen 3D proporciona mucha más información, pero el reto es
conseguir esos datos tridimensionales de manera más rápida, ya
que una imagen 3D tiene un mayor volumen de información (ocupa
más megas) y se tarda más en procesar.

Percibimos el mundo en tres dimensiones.

27
4. Asistentes virtuales. Los algoritmos de procesamiento del lenguaje natural
(NLP por sus siglas en inglés) están entrenados para reconocer expresiones
habladas complejas y dar respuesta a las cuestiones que se plantean
mediante su propia voz. Algunos están orientados de forma exclusiva al
sector industrial. Se utilizan para la comunicación con máquinas mediante
órdenes de voz.
Un reto importante al que se enfrenta el procesamiento del lenguaje natural
es la amplia variedad de lenguajes con diferentes reglas gramaticales y
variaciones regionales.

Los algoritmos de procesamiento del lenguaje natural tienen que estar


adaptados específicamente a cada idioma.

28
.

5. Las herramientas de análisis semántico. También están dotadas de


inteligencia artificial y su objetivo es comprender el significado de un texto
escrito o una frase hablada, pudiendo valorar no solo su significado, sino
también las emociones u otros factores. Este tipo de herramientas se
utilizan para detectar mensajes relevantes en cuentas de correo electrónico
o en redes sociales. Cuando una empresa recibe cientos de mensajes y
correos al día, utiliza este tipo de sistemas para cribar los mensajes
relevantes y evitar así que un trabajador humano tenga que revisar cada
uno de estos textos.

Favorecen el desarrollo del vocabulario.

29
6. Un chatbot. Te permite a través de algoritmos
de inteligencia artificial dar respuesta a las
preguntas que te hace una persona mediante
chats de texto (como ocurre en muchas páginas
web) o mediante conversaciones por voz. Se
trata de un grado básico de inteligencia artificial
en el que solo se puede dar respuesta a
preguntas previamente definidas. Se suele
utilizar para ofrecer contestaciones básicas y
habituales, limitando la intervención del personal
humano a cuestiones más complejas.

7. Los bots. Son programas informáticos que


efectúan automáticamente tareas repetitivas,
generalmente a través de Internet. Un ejemplo
de bot son los rastreadores de las motores de
búsqueda de Internet que recorren las páginas
web de forma automática y recopilan
información de manera rápida y efectiva.

30
2.2 Sistema de aprendizaje de la inteligencia artificial

Aprendizaje supervisado (supervised machine learning)


Se genera un modelo predictivo basado en datos de entrada (inputs) y de salida (outputs).
Los datos han sido previamente etiquetados y clasificados con este grupo de datos
denominados datos de entrenamiento, se realiza el ajuste al modelo inicial planteado. El
algoritmo aprende a clasificar las muestras de entrada comparando el resultado del modelo
y la etiqueta real de la muestra, realizando las compensaciones respectivas al modelo de
acuerdo con cada error en la estimación del resultado.
Aprendizaje no supervisado (unsupervised machine learning)
Los algoritmos ajustan su modelo predictivo tomando en cuenta solamente los datos de
entrada, sin importar los de salida. Es decir, a diferencia del supervisado, las datos de
entrada no están clasificados ni etiquetados. Dentro de este tipo de algoritmos, el
agrupamiento o clustering es el más utilizado, ya que particiona las datos en grupos que
posean características similares entre sí.

Aprendizaje para refuerzo (reinforcement learning)

Los algoritmos definen modelos y funciones enfocadas a recibir recompensas basadas en


acciones acertadas. Es el más cercano a la inteligencia humana y puede usarse para hacer
que los robots u otros dispositivos aprendan a realizar diferentes tareas.

31
2.3 Retos de la inteligencia artificial (I)

La automatización de Un miedo generalizado Preocupa qué ocurrirá


procesos, que hasta centrado en los límites con esa enorme cantidad
ahora han sido llevados a del conocimiento de la de datos que gestionan
cabo para trabajadores inteligencia artificial y de los sistemas de
humanos, supondrá la que esta pueda inteligencia artificial y qué
destrucción y la sobrepasar a la humana, herramientas habría que
transformación de con las consecuencias poner en marcha para
muchos empleos. que ello conllevaría. preservar su privacidad.

32
2.3 Retos de la inteligencia artificial (II)
La inteligencia artificial también se emplea en el ámbito de la
ciberseguridad por parte de grandes corporaciones. Ya no se trata
solamente de establecer contraseñas para el acceso a
determinados servicios, sino de medir con inteligencia artificial el
comportamiento del usuario, a qué hora intenta acceder, cuánto
tiempo tarda en hacerlo, desde dónde lo hace, a dónde se va
después. Con base a experiencias anteriores, la inteligencia
artificial puede detectar comportamientos anómalos, más allá de
que el nombre de usuario y la clave sean las correctas.

33
RECUERDA

Lo cierto es que las herramientas de inteligencia artificial están


muy presentes en nuestro entorno. Un «simple» buscador de
Internet utiliza herramientas de inteligencia artificial para analizar
cuestiones como nuestra ubicación geográfica, nuestros
intereses (basados en otras páginas web que hemos visitado) y
otra serie de cuestiones, para mostrarnos la información o las
webs más adaptadas a nuestras necesidades.

34
IMPORTANTE

La inteligencia artificial es una de las fuerzas más transformadoras de nuestro


tiempo y está destinada a alterar el tejido de la sociedad.
Presenta una gran oportunidad para aumentar la prosperidad y el crecimiento
que las empresas deben esforzarse por lograr. Durante la última década, se
consiguieron grandes avances debido a la disponibilidad de vastas cantidades
de datos digitales, arquitecturas de computación poderosas y avances en
técnicas de IA como el aprendizaje automático.

35
3. Big Data (I)

El Big Data consiste en la


recolección, gestión y análisis a
alta velocidad de grandes,
dinámicos y heterogéneos
volúmenes de datos generados
por usuarios y máquinas, que
debido a su tamaño y
complejidad superan las
capacidades de procesamiento
de las herramientas de software
tradicionales, por lo que
requieren técnicas innovadoras Procesos de analítica de datos.
para su procesamiento y
tratamiento.

36
3. Big Data (II)
A la hora de hablar de procesos de analítica de datos se utiliza el término Big
Data, pero las empresas especializadas prefieren emplear el concepto de smart
data, ya que la cantidad de datos que se pueden captar hoy en
día es inmensa, aunque de todos ellos, solo unos pocos son los valiosos y los
que pueden ofrecer ventajas competitivas. También, se suele utilizar el termino
small data cuando el conjunto de datos a analizar es relativamente pequeño.
Aunque no son lo mismo, sí se suele correlacionar los términos big data y data
mining. Data mining es el proceso de identificación de toda la información que
es relevante y es extraída de grandes cantidades de datos. El objetivo de esta
extracción es descubrir patrones y tendencias estructurando la información que
se ha obtenido de una manera que sea comprensible para su utilización. El data
mining reúne las ventajas de varias áreas, como la inteligencia artificial, la
estadística, las bases de datos, la computación grafica y el procesamiento
masivo.

37
CONCEPTO
La ciencia de datos o data science es un campo especializado que combina
áreas múltiples como estadísticas, matemáticas, técnicas de captura de datos,
limpieza de datos, minería y programación para preparar y alinear grandes
cantidades de datos para un análisis de cara a obtener información.

Otro término vinculado con Big data es el denominado Business inteligencie o


inteligencia de negocio. Se puede definir coma la aplicación de procesos y
herramientas tecnológicas orientadas a transformar los datos almacenados de
la empresa en información útil para generar, planes o estrategias comerciales.
Las aplicaciones business inteligencie están pensadas para almacenar, operar y
cruzar datos, pero no están preparadas para la gestión de estos. Están
enfocadas en el análisis de datos históricos de la empresa, pero no son capaces
de registrar datos en tiempo real de fuentes de datos variadas, con una
arquitectura diferente y distribuidos en múltiples servidores.

38
3.1 Generación y gestión de datos (I)

La generación de datos y su análisis es fruto de


bastante controversia por el conocimiento que tienen las
empresas de nuestros gustos y preferencias. Existen
herramientas publicitarias que recopilan nuestros datos
de navegación por Internet para ofrecernos propuestas
de compra en función de las paginas web que hemos
visitado o las búsquedas que hemos realizado.
Las redes sociales también recopilan datos de todo tipo.
Nuestros teléfonos móviles proporcionan información de
geo posicionamiento. En realidad, cualquier dispositivo
con conectividad coma un smartwatch o una pulsera
inteligente están generando y recopilando datos. Y, por
supuesto, las aplicaciones que tenemos instaladas en
nuestros smartphones, tablets u ordenadores. Se
pueden considerar como datos mensajes de correo
electrónico, archivos pdf, videos, audios, etc.

39
3.1 Generación y gestión de datos (II)
Data management o gestión de datos es el proceso que incluye la adquisición,
validación, almacenamiento, protección y procesamiento de las datos
necesarios para garantizar la accesibilidad, fiabilidad y puntualidad de las
mismos por parte de los usuarios.

Según los expertos, el análisis de datos requiere de estrategias claras y


realistas por parte de las empresas. Consideran que antes de poner en marcha
un sistema o estrategia de big data para un proceso industrial, hay que
estudiar la propia empresa, determinar qué elementos queremos someter a
análisis y monitorización, ver si es posible implementar sistemas de
monitorización de datos y crear interfaces sencillas para poder interpretarlos
de forma correcta. Se puede lograr el cambio en función de cómo recojamos
los datos, los validemos, los protejamos, los analicemos y cómo los
proyectemos y transformemos en información.

40
3.1 Generación y gestión de datos (III)
Si un data no es fiable, objetivo o
contextualizable, la analítica va a ser poco va-
liosa. Cualquier proceso de gestión de datos se
basa en diferentes premisas: capturar,
almacenar, proteger y asegurar la integridad de
los datos.
Antes de poner en marcha cualquier sistema
de data management será necesario entender
las necesidades de información de la empresa.
Habitualmente, el data management utiliza una
gestión de datos maestros, denominado
Master Data Management (MDM). Un archivo
de datos maestros proporciona una definición
común de un activo y todas sus propiedades
de datos en un esfuerzo por eliminar las
políticas de datos ambiguos o en competencia
con otros.

41
3.2 Dimensiones del Big Data (las 5 V)
Volumen

Se refiere al tamaño de las cantidades de datos que se


generan actualmente y que suponen retos de análisis y
tecnológicos para su captación y tratamiento.

Velocidad

El flujo de datos es masivo y constante. En muchas


ocasiones la captación de datos, su envió a servidores de
almacenamiento y la extracción de la información se
realiza en tiempo real.

Variedad

El origen de los datos es heterogéneo. En el entorno in-


dustrial proceden de diferentes tipos de dispositivos,
pero también pueden tener su origen en dispositivos
inteligentes, redes sociales, mensajes de correo
electrónico, bases de datos, etc.

42
Veracidad

El gran volumen de datos que se genera puede hacer que


dudemos del grado de veracidad de todos ellos, ya que la
variedad de las datos provoca que muchos de ellos
lleguen incompletos o incorrectos. Estos datos deben ser
limpiados y analizados.

Valor

El valor que generan las datos una vez convertidos en


información es fundamental. Con ese valor, las empresas
tienen la oportunidad de sacar el máximo partido a los
datos para introducir mejoras en su gestión, monitorizar
procesos y máquinas, desarrollar modelos de
servitización o aumentar la relación con el público.

43
3.3 Etapas del Big Data

Captura y Transporte. Los datos pueden proceder de diferentes


fuentes: redes sociales, dispositivos.... Estos dispositivos que
1 generan y captan datos suelen enviar la información a través de
redes inalámbricas de distinto alcance, Internet, bluetooth...

Almacenamiento. Dada la gran cantidad de datos que captan, los


2 sistemas de almacenamiento clásicos no son suficientes y por ello
es necesario dotarse de un CPD propio (Centro de Procesamiento de
Datos).

Transformación. Los procesos de extracción, transformación y carga


3 de los datos (ETL) consumen entre el 60 % y el 80 % del tiempo de
los proyectos. Comprende las fases de depuración de los datos,
enriquecimiento de estos, corrección, filtrado y selección de los datos
relevantes para el objetivo del proyecto.

44
Análisis. Para analizar una gran cantidad de datos es necesario
utilizar algoritmos de inteligencia artificial. En este sentido, es muy
importante tener claro el problema al que nos enfrentamos, elegir un
4 algoritmo acorde al mismo y realizar un buen entrenamiento y testeo
de este.
Actuación. En algunos casos, es posible implementar automatismos
para, en función de la analítica, establecer controles automáticos
5 sobre máquinas o procesos. Por ejemplo, si se detecta en tiempo
real un fallo en una máquina o en un objeto fabricado, se puede
paralizar la planta para corregir el error.

Visualización. Tras el proceso de análisis es necesario crear


6 herramientas de software o interfaces que permitan una
visualización clara de la información para que los responsables de
planta puedan tomar las decisiones más adecuadas en función de
las conclusiones del análisis.

45
3.4 Usos del Big Data (I)

La analítica de datos es un elemento fundamental de la servitización


o la posibilidad de que el fabricante pueda ofrecer servicios añadidos
a sus clientes basados en la recopilación de datos de un producto
vendido. Gracias a esa información recopilada en tiempo real se
puede prever, por ejemplo, que una impresora se está quedando sin
tinta, que un neumático esta bajo de presión o que una máquina
puede funcionar de manera más eficiente.
Si hasta ahora hablábamos de mantenimiento preventivo, en el que se
realizaba una supervisión de las máquinas para comprobar si estaban
en buen estado, el siguiente paso es el mantenimiento predictivo,
gracias al cual es posible predecir un mal funcionamiento basándose
en un histórico de datos recopilados. Por otro lado, el mantenimiento
proactivo no solo advierte de posibles fallos, sino que investiga las
causas de esos errores en función de las datos que ha recogido.

46
3.4 Usos del Big Data (II)

El fabricante recopila esa información y ofrece a sus clientes


servicios añadidos como alertas de mal funcionamiento, reposición
de piezas o recambios, e incluso una garantía de horas de uso de
una máquina o de un motor, encargándose del mantenimiento y
asegurando un correcto funcionamiento en cada momento. El
principal obstáculo de los modelos de servitización vinculados con
los datos es que son muchas las empresas reacias a compartir la
información que generan los productos o máquinas que han
adquirido, ya que consideran que esto puede suponer una
desventaja competitiva. Es norma general firmar contratos de
confidencialidad en las que el fabricante y el cliente garantizan la
privacidad de los datos captados.

47
IMPORTANTE

Volumen Tamaño de los datos.

Velocidad Flujo de datos masivo y constante.

Variedad Origen de los datos heterogéneo.

Veracidad Datos que deben ser limpiados y analizados.

El valor que generan los datos una vez convertidos en


Valor
información es fundamental.

48
PARA SABER MÁS

En el siguiente vídeo, puedes aprender más sobre Big Data, análisis y


procesamiento para dar soluciones a la ciudadanía.

https://www.youtube.com/watch?v=M26iIqmqWkI&t=71s

49
4. Blockchain (I)

El origen del blockchain se remonta a


2008 cuando un autor desconocido
con el seudónimo de Satoshi
Nakamoto definió los mecanismos
para implementar la primera moneda
virtual, el bitcoin, basados en las
cadenas de bloques.
Con posterioridad, las bases del
blockchain se han utilizado para el
lanzamiento de nuevas
criptomonedas, propiciar la
participación de consultas Servidores encriptados.
ciudadanas, realizar transacciones
comerciales seguras, proteger datos e
información, etc.

50
4. Blockchain (II)
El blockchain o cadena de bloques es una tecnología que facilita el
intercambio de información digital entre los miembros de una
plataforma denominada red blockchain. Esa información está
protegida criptográficamente y todos los participantes de esa red
tienen acceso a los mismos datos, por lo que no pueden ser
modificados sin el permiso de todos. No existe un administrador
único que los pueda variar.
Las ventajas principales de una cadena de bloques se centran en
que la información no está centralizada en un único servidor y los
datos no pueden ser alterados.

51
4. Blockchain (III)
Todavía no hay muchas aplicaciones de la cadena de bloques en la industria
4.0, aunque si se empieza a trabajar en algunos proyectos relacionados con
la trazabilidad de los bienes para ofrecer una información exhaustiva sobre
su proceso de fabricación, ensamblado, almacenaje y transporte. En un
entorno industrial, el saber como han sido fabricadas las piezas o
componentes es muy importante.
El blockchain garantiza la verosimilitud de esos datos de trazabilidad, ya que
no se pueden modificar ni eliminar. Hasta ahora, algunos fabricantes o
gestores de datos podían elegir qué tipo de información se proporcionaba en
este sentido. Con una red blockchain eliminamos las dudas sobre qué ocurre
con esa información.

52
4.1 Aplicación de blockchain (I)

La cadena de bloques tiene Se centra en las fábricas Se pueden establecer smart


su aplicación en el Internet inteligentes o smart contracts (contratos
factories. Esta tecnología inteligentes) basados en
de las Cosas Industrial, cadenas de bloques que nos
propiciando la interrelación puede impulsar la creación
de fábricas inteligentes permitirán coordinar la
entre las máquinas. que puedan cooperar entre logística, que se ejecuten los
ellas y delegar su pagos cuando llega el pedido
producción entre fábricas o desarrollar marketplaces
industriales.
o máquinas.

53
4.1 Aplicación de blockchain (II)

Gracias a plataformas de este tipo como el blockchain, las empresas


podrán disminuir sus costes de producción y realizar series cortas, e incluso
productos unitarios y customizados a un precio más económico. Es lo que
se denomina la machine economy, es decir, la posibilidad de que las
máquinas puedan tomar decisiones autónomas e interactuar con el
contexto. Blockchain, la inteligencia artificial y los smart contracts lo
permitirán.

54
PARA SABER MÁS

En el siguiente vídeo, puedes hacer ejercicios prácticos de tecnología blockchain:

https://www.youtube.com/watch?v=DuLGB6ZZQjk&t=284s

55
5. Robótica (I)

Los robots en el sector industrial son


muy diferentes a la imagen que muchos
nos hemos creado en los ultimas años y
que hacen hincapié en un aspecto
humanoide, funcionalidades matrices e
incluso poseedores de inteligencia
artificial.
Aunque existen robots con estas
características orientados a la atención
de personas, en el ámbito de la salud o
para usos militares, lo cierto es que el
aspecto de un robot industrial tradicional
es el de un brazo robótico que realiza La mayoría de industrias están robotizadas.
labores previamente programadas sin
ningún otro tipo de libre albedrío (SO).

56
CONCEPTO

La definición de robot industrial según la ISO 8373:2012 es la de


«manipulador multifuncional, controlado automáticamente,
reprogramable en tres o más ejes, que puede estar fijo o móvil
para su uso en aplicaciones de automatización industrial».

Los usos más habituales de los robots industriales están relacionados


con el empaquetado y paletizado, procesos de moldeo por inyección,
análisis de laboratorio, pulido, pegado o soldadura, supervisión de
maquinaria, montaje y desmontaje, pick & place y control de calidad.

57
SABÍAS QUE…
El primer robot industrial con funcionalidades básicas se
desarrolló en Reino Unido en 1937. Las primeras patentes
vinculadas con la robótica se remontan a comienzos de los años
sesenta. El boom de la creación de empresas fabricantes de
robots para su aplicación en el sector industrial data de finales de
los años setenta y, en los últimos años, se está viviendo un nuevo
auge en la creación de fabricantes de robots, en este caso robots
colaborativos o cobots.

58
5. Robótica (II)
Entre las ventajas del uso de robots respecto a los trabajadores
humanos se suele destacar:

1 Son capaces de realizar tareas que requieren de mucha precisión.

También se emplean en labores que son muy repetitivas, en las que


2 las máquinas tienen un mayor rendimiento.

Otro condicionante suele ser la ergonomía: hay puestos de trabajo


3 duros que demandan de esfuerzo físico.

59
5.1 Robótica colaborativa o cobots (I)

La robótica industrial tiene una trayectoria muy larga, pero en Industria 4.0 hay
que hablar de robótica colaborativa o cobots.

Un cobot es un robot creado para interactuar físicamente con humanos en un


entorno colaborativo de trabajo. Este entorno puede ser una fábrica, pero
también un quirófano, prestando ayuda al cirujano, o nuestro hogar, cuidando
de personas de edad avanzada o con algún tipo de discapacidad.

Un robot colaborativo tiene que saber interpretar los deseos e intenciones de


la persona, complementarse y coordinarse con ella. El operario humano y el
robot tienen que poder trabajar en un mismo espacio, sobre un mismo
elemento.

60
5.1 Robótica colaborativa o cobots (II)
El robot colaborativo está dotado de sensores y tecnologías que le facultan
detectar la presencia de un trabajador humano o de otros robots u objetos, lo
que le permite reducir su velocidad e incluso pararse para no provocar
ningún accidente. Pero la finalidad de un cobot no es que tenga esta
capacidad de detección. Los robots industriales y los colaborativos pueden
compartir la gran mayoría de tecnologías que forman parte de la robótica
colaborativa, coma la capacidad de percibir lo que ocurre a su alrededor y
actuar en consecuencia. Lo que hace diferente a la robótica colaborativa es
la presencia de un ser humano y ser capaz de responder a esa presencia.

61
5.2 Ventajas de los cobots

Portabilidad, al ser de Autonomía al Pueden trabajar junto


menor tamaño que los funcionar con baterías. a operarios humanos
modelos tradicionales, en condiciones
lo que permite una seguras.
fabricación más
flexible.

62
5.3 Desventajas de los cobots

Se limitan las acciones Un cobot no puede Otra limitación es la


de los cobots para que exceder ciertas capacidad de carga.
puedan compartir velocidades. Un cobot suele estar
espacio con los limitado a poder
trabajadores mover entre 3 y 10 kg
humanos. de carga.

63
RECUERDA

El futuro de la robótica industrial vinculada a la Industria 4.0 pasa por


incorporar nuevas tecnologías en estos dispositivos como la inteligencia o
la visión artificial. Los robots del futuro serán capaces de hacer series cada
vez más cortas, con mayor calidad, eficiencia y una mayor personalización.
Tendrán que ser capaces de saber como va la producción en tiernpo real y
modificarla en pocos minutos.

64
RECUERDA

La tecnología mejora la eficacia y productividad, y a su vez favorece la


evolución y aparición de nuevo modelos de negocio que permiten el
crecimiento y desarrollo.

65
PUNTOS CLAVE/RESUMEN

§ En esta unidad has aprendido cómo funciona un digital twin y que se


emplea para la detección de fallos junto con una inteligencia artificial,
conociendo este concepto y cómo se utiliza.
§ También has visto la importancia del Big Data, ya que gestiona un gran
volumen de datos.
§ La relevancia que tienen los robots colaborativos en el trabajo, sin olvidar
que toda esta tecnología necesita del ser humano.

66
67

También podría gustarte