Materia Derecho Informatico Bloque 1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 54

Bloque 1

¿Qué es la Sociedad de la Información y cómo se

estructura?

En una era marcada por la llegada de la Revolución Digital, la cual ha


transformado la cotidianidad de las personas, aparecen nuevos conceptos y
teorías que buscan explicar los cambios por los que atraviesa nuestra
sociedad.

Uno de esos nuevos conceptos es la Sociedad de la Información. Aunque


puede confundirse con otros términos como transformación digital o el Internet
de las Cosas (IoT en inglés), la Sociedad de la Información va más allá.

A continuación, descubre qué es la Sociedad de la Información, cuáles son sus


características y porqué es importante que comprendas el concepto para trazar
estrategias adecuadas a las nuevas formas de interacción que trae la
tecnología.

En una era marcada por la llegada de la Revolución Digital, la cual ha


transformado la cotidianidad de las personas, aparecen nuevos conceptos y
teorías que buscan explicar los cambios por los que atraviesa nuestra
sociedad.

Uno de esos nuevos conceptos es la Sociedad de la Información. Aunque


puede confundirse con otros términos como transformación digital o el Internet
de las Cosas (IoT en inglés), la Sociedad de la Información va más allá.

A continuación descubre qué es la Sociedad de la Información, cuáles son sus


características y porqué es importante que comprendas el concepto para trazar
estrategias adecuadas a las nuevas formas de interacción que trae la
tecnología.

¿Qué es la Sociedad de la Información?


Este término no es más que una expresión del entorno actual en que vivimos.
Una sociedad interconectada por las innovaciones tecnológicas que permiten
que la información fluya de manera instantánea desde y en cualquier parte del
mundo.

Este ambiente surgió gracias a las Tecnologías de la Información y


Comunicación (TIC) que facilitan la producción y distribución de la información,
así como la conexión entre personas que están a miles de kilómetros de
distancia, impulsando la globalización.

Por eso, como ya mencionamos antes, la Sociedad de la Información ha


desencadenado una revolución en la forma como accedemos a la información y
como interactuamos entre nosotros.

Atrás quedaron las épocas en las que, por ejemplo, para resolver una inquietud
debíamos leer libros enteros hasta dar con la respuesta, pues Google ha
facilitado el acceso al conocimiento con información de calidad indexada con
técnicas como el SEO.

De igual manera, las redes sociales como Facebook o Twitter nos mantienen
actualizados, ya que brindan inmediatez en la circulación de noticias o eventos
que están ocurriendo en este preciso momento a diferencia de otros medios
tradicionales como la prensa.

¿Cómo surgió este concepto?


Los orígenes del concepto se rastrean desde los años 60.

Distintos autores, entre los que destacan Fritz Machlup y Yoneji Masuda, se
dieron cuenta del impacto que la información estaba teniendo en su sociedad y
cómo se iría intensificando en el futuro. A partir de ahí se hablaba de la
Sociedad de la Información.

Más adelante en la década del 80, en medio del nacimiento del Internet, el uso
de la información y la tecnología estaba optimizando los procesos industriales,
por lo que el estudio de la Sociedad de la Información se fue tomando con más
seriedad.

Ya en los años 90 con la expansión del Internet y la creación de la World Wide


Web, aterrizamos en una sociedad post-industrial basada en los desarrollos
tecnológicos que facilitan la difusión de la información y el conocimiento.

En la actualidad, tal es la facilidad de encontrar información en la web que se


está comenzando a hablar de la Sociedad del Conocimiento, un concepto que
refiere a una sociedad altamente educada que impulsará la innovación y el
desarrollo económico.
¿Por qué la información es tan importante en la
sociedad actual?
Ahora que sabes qué es y de donde surgió la Sociedad de la Información, tal
vez te estés preguntando por qué necesitas comprender el concepto, ¿verdad?

Bien, a continuación, conocerás tres razones que nos llevan a entender la


importancia de la información en la actualidad.

Evolución tecnológica
Las TIC han sido las facilitadoras de la Sociedad de la Información. Sin las
redes satelitales, la banda ancha o las redes de televisión y telefonía, la
sociedad no se habría conectado de la manera en que lo hace hoy.

Por ejemplo, ya sabrás que cuando surgieron los computadores eran grandes
máquinas que almacenaban pocos datos, complejos de usar y difíciles de
adquirir. Ahora, todos tenemos la oportunidad de llevar la mejor tecnología en
nuestros bolsillos con los dispositivos móviles.

En fin, lo cierto es que el desarrollo de la tecnología no se detiene y es cada


vez más exponencial. Por ello, el futuro seguirá trayendo cambios a los que la
sociedad se adaptará.

Cambios en el ámbito social y cultural


Gracias a Internet, la información ha impregnado todas las esferas de nuestra
vida, desde el ocio hasta el estudio y el trabajo, modificando la manera en
cómo hacíamos las actividades cotidianas.

Hoy podemos comunicarnos a distancia instantáneamente, estudiar en


cualquier momento y lugar, aprender una nueva habilidad mientras esperamos
en el tráfico gracias a YouTube o incluso trabajar en casa o desde cualquier
parte del mundo.

Impacto en el desarrollo empresarial y


económico
En las décadas recientes, los gobiernos han fortalecido la Sociedad de la
Información por las consecuencias positivas que trae a la economía.

Debido a esta, los trabajos de esfuerzo físico están quedando relegados ante
los trabajos que requieren habilidades de manejo de la información.

Por tal razón, las empresas ahora automatizan sus procesos industriales
siendo más eficientes en el uso de sus recursos. Por ejemplo, gracias
al Marketing Digital logran conquistar nuevos clientes sin necesidad de grandes
inversiones.

Un ejemplo de ello es la utilización de las Landing Pages que, como parte de


una estrategia de Marketing de Contenidos, sirve para acceder a los datos de
contactos del cliente potencial para empezar una comunicación directa.

¿Cuáles son las características de la Sociedad de


la Información?
La Sociedad de la Información se caracteriza por:

 impulsar la globalización mediante el uso y desarrollo de las TIC;


 fomentar la Sociedad del Conocimiento;
 mantener libre el flujo de información y conocimiento;
 marcar a una generación, su desarrollo e identidad;
 comunicar de forma inmediata eventos o noticias de interés público;
 permitir una mayor influencia de la sociedad en decisiones políticas;
 acelerar el desarrollo económico de los países mediante la tecnología;
 eliminar la presencialidad para comunicarse, estudiar o trabajar;
 crear nuevos puestos de trabajo;
 optimizar procesos industriales obsoletos que finalmente conducen a la
transformación digital.

Conclusión
La Sociedad de la Información ha transformado nuestra vida como personas,
empresas y países. Con el uso y desarrollo de las TIC, son nuevas las
dinámicas que hemos adoptado y que, sin lugar a dudas, han facilitado muchas
de nuestras actividades cotidianas.

Sin embargo, con nuevas tecnologías desarrollándose constantemente, más


vale estar adaptados a los cambios que traerán, especialmente si hablamos del
ecosistema de negocios.
¡No te quedes atrás! Conoce todas las tendencias de esta revolución
descargando gratis nuestro e Book sobre la transformación digital.

La globalización de Internet

La globalización de Internet ha permitido que la comunicación entre personas


que se encuentran en diferentes partes del mundo sea rápida y económica.
Hace unos años era impensable poder tener una conversación a precios tan
bajos entre una persona que se encontraba en España y otra que estaba en
Estados Unidos o en cualquier otra parte del mundo.
Pero Internet, no solo ha permitido esto. Gracias a su globalización, ha
conseguido que las transacciones económicas y comerciales entre empresas
de diferentes países sean fáciles. Y, además, que cualquier consumidor pueda
comprar un producto de una empresa de cualquier país sin problema.
Internet ha hecho la vida de las personas más fácil. El proceso de compra cada
vez es más simple. Ya no es necesario que salgas de tu casa para comprar,
puedes realizar la compra desde tu ordenador o desde cualquier dispositivo
con conexión a Internet. También ha hecho, que la búsqueda de información o
de opiniones sobre los productos o servicios sea inmediata. Con solo realizar
una búsqueda en Google o hacer un análisis de las redes sociales de la marca,
el consumidor podrá tener una imagen global de lo que quiere adquirir.

Los beneficios de la globalización de Internet para las


empresas
Sí es verdad que la globalización de Internet ha facilitado el proceso de
información y de compra para los clientes. También ha incrementado el número
de competidores para las empresas.
Son muchas las empresas que ya venden por Internet. Además, en el mercado
online la diferencia de países no es una limitación para la compra. No obstante,
aunque esto es una desventaja para las empresas, ya que aumenta el número
de competidores, es igualmente una oportunidad de negocio. Permite llegar a
consumidores de todas las partes del mundo.
Por motivos de la situación económica actual, muchas las empresas han
decidido utilizar Internet para llegar a otros mercados y así poder tener
mayores beneficios. Pero la competencia es elevada en muchos de los
mercados y para diferenciarse hay que ofrecerles a los clientes algo más que el
simple producto o servicio. Ofrecer una buena atención al cliente permitirá
diferenciar a tu empresa de la competencia.

La Inteligencia Artificial
STQUÉ ES LA INTELIGENCIA ARTIFICIAL?
No existe una definición aceptada por todos los expertos de lo
que significa la inteligencia artificial. Primero, porque es una
ciencia nueva, cambiante y experimental. Y segundo, porque ni
siquiera podemos definir con exactitud qué es la inteligencia
humana...

En su forma más simple, la IA es el intento de imitar la


inteligencia humana usando un robot, o un software. Pero es un
concepto muy vago, porque existen muchas
ramificaciones. Stuart Russell y Peter Norvig diferenciaron
cuatro tipos en 2009.

Estos fueron sistemas que piensan como humanos, como por


ejemplo las redes neuronales artificiales. Sistemas que actúan
como humanos, como los robots. Sistemas que usan la lógica
racional, como los sistemas expertos, y sistemas que actúan
racionalmente, como los agentes inteligentes.

Aunque es un concepto que se ha puesto de moda en los últimos


años, la inteligencia artificial no es algo nuevo. Hace 2.300 años
Aristóteles ya intentaba convertir en reglas la mecánica del
pensamiento humano, y desde los tiempos de Leonardo Da Vinci los
sabios han intentado construir máquinas que se comporten como
humanos.

En 1769 un autómata llamado El Turco, construido por el ingeniero


austríaco Wolfgang von Kempelen, visitó todas las cortes europeas
retando al ajedrez a todo el que se atrevía a jugar contra él. Jugó
contra Napoleón, contra Benjamin Franklin, contra maestros del
ajedrez, y los venció.

Años más tarde se descubrió que El Turco estaba manejado por un humano que se escondía en
el interior de la mesa de juego. Unos espejos situados en los ojos del autómata le permitía ver
el tablero, y gracias a unos ingeniosos mecanismos de relojería podía controlar la mano del
autómata para mover las piezas por el tablero.
Hasta 15 maestros de ajedrez manejaron a El Turco, siendo el más famoso un
enano llamado Tibor Scardanelli, que cabía sin problemas en el interior de la
mesa y además era un extraordinario jugador de ajedrez.

El Turco no era inteligencia artificial, pero nos muestra cómo el anhelo de


construir máquinas inteligentes no es un concepto de nuestro tiempo.
Tuvimos que esperar hasta 1936 para que se iniciara el proceso de la
inteligencia artificial moderna. Básicamente la inventó Alan Turing, el experto
matemático que descifró los códigos secretos nazis de la mítica
máquina Enigma. Adelantó dos años el fin de la Segunda Guerra Mundial, ya
que los aliados pudieron leer los mensajes secretos de los alemanes.
En 1936 Alan Turing publicó su concepto de máquina universal, que
básicamente describía lo que era un algoritmo informático, y un ordenador. En
1950 formalizó el inicio de la Inteligencia Artificial con su Test de Turing, una
prueba que define si una máquina es o no inteligente.
Si un humano y una IA se enfrentan a las preguntas de un interrogador y ese
interrogador no puede distinguir si las respuestas provienen del humano o de la
IA, entonces la IA es inteligente.

En 2014, por primera vez una IA superó el Test de Turing.


En 1956 expertos como John McCarthy, Newell, Simon o el
mencionado Marvin Minsky, usaron por vez primera el término "inteligencia
artificial" en una conferencia en Dartmouth (Estados Unidos).
Minsky creó el primer simulador de redes neuronales, un genio que también
inventó el microscopio confocal y patentó el primer casco de realidad virtual...
¡en 1963! Además fue el principal asesor de la película 2001: Una Odisea en el
Espacio, dando vida al ordenador inteligente HAL 9000.
También le dio la idea a Michael Crichton para su novela Parque Jurásico.
Pero el verdadero auge de la inteligencia artificial, a un nivel práctico, llegó
cuando comenzaron a aparecer ordenadores potentes y baratos, capaces de
experimentar con la IA a un nivel global y cotidiano.

Primero aparecieron los agentes inteligentes, entidades capaces de dar una


respuesta analizando los datos según una reglas, o los
populares chatbots que eran capaces de mantener una conversación como un
humano.
El más famoso de todos fue A.L.I.C.E. el más real en los primeros años del
milenio. Su descendiente más actual es Mitsuku, que ha sido galardonado con
el premio Loebner al mejor chatbot del mundo en 2013, 2016, 2017 y 2018.

Pero el momento en el que la IA entró en el imaginario colectivo y la mayoría


de la gente descubrió que era algo real y tangible, y no ciencia ficción, tuvo
lugar en 1997.

Ese momento fue cuando el ordenador Deep Blue de IBM venció en una
partida de ajedrez al que por aquel entonces era el mejor jugador de ajedrez
de la historia, el ruso Gary Kaspárov.
Se inició así una tradición en la que sucesivos ordenadores dotados de
inteligencia artificial han vencido a los mejores jugadores en todo tipo de
juegos.

El más popular de la actualidad es Deep Mind de Google, capaz de vencer en


juegos mucho más complejos que el ajedrez (para una máquina), desde
Starcraft II al milenario GO.
¿En qué se diferencia un programa informático de una IA?

Hemos visto lo que es la IA, y cómo existen diferentes interpretaciones, y


variados objetivos. Pero aún no sabemos cómo funciona. ¿En qué se
diferencia un software de inteligencia artificial de un programa de
ordenador?

Existen muchos tipos de IA, algunos de ellos aún experimentales. Para no


divagar demasiado vamos a centrarnos en los que se utilizan en informática,
los móviles, los servicios de Internet, y otros ámbitos cercanos a los usuarios
de a pie.

Conceptos como el machine learning o aprendizaje automático, las redes


neuronales, y otras tecnologías que oímos a menudo, pero que no sabemos
muy bien cómo funcionan.
Durante más de medio siglo, los ordenadores, robots y otras máquinas han
funcionado por medio de los programas o aplicaciones informáticas, cuya
estructura básica apenas ha variado en todo este tiempo.

Un programa informático es solo una lista de órdenes que le dice al


ordenador lo que tiene que hacer. "Haz esta operación matemática, escribe
el resultado en pantalla, reproduce este sonido", etc.
Los programas tienen bifurcaciones del tipo "si pasa esto, haz esto y si pasa
esto otro, haz esto otro". Y también pueden realizar acciones al azar, usando
números aleatorios. Y otras muchas cosas, claro...

Pero la característica principal de un programa es que se trata de un


conjunto de órdenes que cubren todas las posibles opciones a las que se
enfrenta el ordenador. Incluso si se produce un error, hay una parte del
programa que le dice: "si hay un fallo, escribe el mensaje: Ha sucedido un
error".
Con un programa informático, una máquina no piensa. Simplemente, hace
exactamente lo que le dicen.
La gran revolución de la IA es que no recibe órdenes para obtener un
resultado. Es ella la que, con unos datos de entrada, debe apañárselas para
obtener los resultados.
Como hemos visto, una inteligencia artificial intenta imitar el pensamiento
humano. Cuando nacemos, nuestro cerebro es prácticamente un disco duro
vacío. Necesita años de aprendizaje para aprender conceptos básicos, desde
no orinarse encima a aprender a andar, a hablar, a sumar, y otras actividades
más complejas.

Aprendemos algo, ponemos en práctica esa teoria, fallando mucho al principio


hasta que cogemos práctica y vamos mejorando con el tiempo.

Finalmente, la IA será capaz de trabajar ella sola, sin recibir órdenes.


Simplemente entregándole los datos de entrada (fotos) generará un resultado
(fotos de gatos) sin que exista una lista de órdenes (programa) que le diga los
pasos que tiene que realizar.
Este tipo de estructura (aprendizaje, entrenamiento, y resultados) es común
para las IAs que tienen que realizar tareas mecánicas y repetitivas, o que
trabajan con el lenguaje humano, como un asistente virtual.

DIFERENTES TIPO DE IAS MUY UTILIZADAS

Existen docenas de formas de aplicar esta teoria, en función del tipo de IA o las tareas
que se pretende acometer.
Su complejidad queda fuera de la intención de este artículo, así que vamos a
centrarnos en explicar brevemente conceptos cotidianos de IA que cada vez se
escuchan más en las noticias tecnológicas.
Sistema experto

Es una IA que intenta emular a un experto humano en una determinada


materia.

Desde un trabajador del servicio técnico a una recepcionista, un cinéfilo o un


economista.

Aprendizaje automático (Machine Learning)

El aprendizaje automático o aprendizaje de máquinas (Machine


Learning) se ajusta perfectamente a la explicación teórica que hemos dado. Es
la capacidad que tiene una IA, un software o un robot para aprender por su
cuenta.

El aprendizaje automático sigue los pasos clásicos de la IA: primero hay un


aprendizaje, un entrenamiento que genera una experiencia, y una puesta en
práctica que nos dice si la tarea se cumple o no con éxito.

Normalmente este aprendizaje automático suele ser de dos


tipos: supervisado o no supervisado. En el primer caso hay un humano que
le dice lo que hace bien o mal. En el no supervisado, es la propia IA la que
tiene que aprender a descubrir lo que hace bien y lo que hace mal, en función
de unas reglas.
Se usa en los asistentes virtuales, el diagnóstico de enfermedades, detección
de fraudes, videojuegos, análisis de Bolsa, etc.

Redes neuronales

Frente a otros sistemas que imitan el comportamiento del cerebro humano, las
redes neuronales intentan copiar el comportamiento de las neuronas, es
decir, las células nerviosas que transmiten y procesan información en el
cerebro.
Es otra forma de aprender, y por tanto es un tipo de Aprendizaje automático.

Una neurona artificial es una entidad que recibe unos datos de entrada, les
aplica una serie de operaciones matemáticas y una función de activación (una
fórmula matemática), y genera un resultado. Es un mecanismo sencillo, pero la
complejidad llega cuando millones de neuronas trabajan en paralelo para crear
Redes Neuronales Artificiales, o RNA.
Lo que la diferencia de un programa informático es que no siguen órdenes, sino
que se asocian entre sí y cambian su entradas y salidas mediante el
aprendizaje y error, según la tarea encomendada.

Las redes neuronales son adecuadas para tareas en las que haya que
reconocer un patrón, o asociar ideas. Se usan en cosas tan dispares como el
control de robots, reconocimiento de texto e imágenes, procesamiento de
lenguaje natural, etc.

Aprendizaje profundo (Deep Learning)

El aprendizaje profundo es un tipo de aprendizaje automático que va un poco


más allá, con el objetivo de abarcar más y procesar más datos al mismo
tiempo.
El aprendizaje profundo usas redes neuronales para aprender usando
capas de información cada vez más abstractas, como hacemos los
humanos. Si tiene que buscar manos en una foto por ejemplo, comienza con
información sencilla, como separar según la forma, para diferenciarla de un
pie.
Pero irá añadiendo capas cada vez más abstractas y generales, hasta que al
final sea capaz de responder a la pregunta, ¿qué es una mano? y ya no se
equivocará.

El aprendizaje profundo es esencial para trabajar con el Big Data, o grandes


cantidades de datos.

La manipulación de la verdad, será uno de los peligros de la IA.


Pero lo que genios de nuestro tiempo o gurús de la tecnología como Stephen
Hawking. Bill Gates o Elon Musk temen, no es el mal uso de la IA, sino que la
IA se vuelva demasiado lista, y decida prescindir de nosotros porque
razone que somos un peligro para la vida en la Tierra, o innecesarios para su
propia evolución.
Aquello que Marvin Minsky ya auguraba en 1970: "puede que, con suerte, los
ordenadores decidan tenernos como sus mascotas".

La inteligencia artificial ética y segura es un debate candente, con gente


como Mark Zuckeberg defendiendo que no hay que ser catastrofistas, y otros
como Elon Musk o Jack Ma, el fundador de AliExpress, que está convencido de
que "la IA desencadenará la Tercera Guerra Mundial".
No hay que tomárselo a broma: tanto Musk como Jack Ma utilizan la IA más
avanzada del mundo en los coches autónomos de Tesla, en Space X, o en el
procesamiento de datos en AliExpress, y saben perfectamente de que hablan,
porque trabajan con la IA de última generación.
El propio Elon Musk, junto a otras personalidades y expertos han
fundado OpenAI, una iniciativa que tiene como objetivo crear sistemas de IA
que beneficien a la Humanidad, y no puedan revelarse contra ella.

ROBÓTICA Y CIBERNÉTICA
Diferencia entre Robótica Y Cibernética
Diferencia entre Robótica Y Cibernética
CIBERNÉTICA
La cibernética es el estudio interdisciplinario de la estructura de los sistemas
reguladores. La cibernética está estrechamente vinculada a la teoría de control
y a la teoría de sistemas. Tanto en sus orígenes como en su evolución, en la
segunda mitad del siglo XX, la cibernética es igualmente aplicable a los
sistemas físicos y sociales. Los sistemas complejos afectan y luego se adaptan
a su ambiente externo.

CIBERNÉTICA
ROBÓTICA
La Robótica es una ciencia o rama de la tecnología, que estudia el diseño y
construcción de máquinas capaces de desempeñar tareas realizadas por el ser
humano o que requieren del uso de inteligencia. Las ciencias y tecnologías de
las que deriva podrían ser: el álgebra, los autómatas programables, las
máquinas de estados, la mecánica o la informática.

ROBÓTICA
Historia de la robótica
Historia de la robótica
Por siglos el ser humano ha construido máquinas que imiten las partes del
cuerpo humano. Los antiguos egipcios unieron brazos mecánicos a las
estatuas de sus dioses. Estos brazos fueron operados por sacerdotes, quienes
clamaban que el movimiento de estos era inspiración de sus dioses. Los
griegos construyeron estatuas que operaban con sistemas hidráulicas, los
cuales se utilizaban para fascinar a los adoradores de los templos.

Durante los siglos XVII y XVIII en Europa fueron construidos muñecos


mecánicos muy ingeniosos que tenían algunas características de robots.

Jacques de Vauncansos construyó varios músicos de tamaño humano a


mediados del siglo XVIII. Esencialmente se trataba de robots mecánicos
diseñados para un propósito específico: la diversión.

En 1805, Henri Maillardert construyó una muñeca mecánica que era capaz de
hacer dibujos. Una serie de levas se utilizaban como ‘ el programa ’ para el
dispositivo en el proceso de escribir y dibujar. Éstas creaciones mecánicas de
forma humana deben considerarse como inversiones aisladas que reflejan el
genio de hombres que se anticiparon a su época. Hubo otras invenciones
mecánicas durante la revolución industrial, creadas por mentes de igual genio,
muchas de las cuales estaban dirigidas al sector de la producción textil. Entre
ellas se puede citar la hiladora giratoria de Hargreaves (1770), la hiladora
mecánica de Crompton (1779), el telar mecánico de Cartwright (1785), el telar
de Jacquard (1801), y otros.

El desarrollo en la tecnología, donde se incluyen las poderosas computadoras


electrónicas, los actuadores de control retroalimentados, transmisión de
potencia a través de engranes, y la tecnología en sensores han contribuido a
flexibilizar los mecanismos autómatas para desempeñar tareas dentro de la
industria. Son varios los factores que intervienen para que se desarrollaran los
primeros robots en la década de los 50’s. La investigación en inteligencia
artificial desarrolló maneras de emular el procesamiento de información
humana con computadoras electrónicas e inventó una variedad de mecanismos
para probar sus teorías.

No obstante las limitaciones de las máquinas robóticas actuales, el concepto


popular de un robot es que tiene una apariencia humana y que actúa como tal.
Este concepto humanoide ha sido inspirado y estimulado por varias
narraciones de ciencia ficción.

Una obra checoslovaca publicada en 1917 por Karel Kapek, denominada


Rossum’s Universal Robots, dio lugar al término robot. La palabra checa
‘Robota’ significa servidumbre o trabajador forzado, y cuando se tradujo al
ingles se convirtió en el término robot.

Tipos de Robots
Androides: estos artilugios se parecen y actúan como si fueran seres humanos.
Este tipo de robots no existen en la realidad, por lo menos por el momento, sino
que son elementos ficcionales.

Móviles: estos robots cuentan con orugas, ruedas o patas que les permiten
desplazarse de acuerdo a la programación a la que fueron sometidos. Estos
robots cuentan con sistemas de sensores, que son los que captan la
información que dichos robots elaboran.

Industriales: los robots de este tipo pueden ser electrónicos o mecánicos y se


los utiliza para la realización de los procesos de manipulación o fabricación
automáticos. También se les llama robots industriales a aquellos
electrodomésticos que realizan simultáneamente distintas operaciones.
Médicos: bajo esta categoría se incluyen básicamente las prótesis para
disminuidos físicos. Estas cuentan con sistemas de mando y se adaptan
fácilmente al cuerpo. Estos robots lo que hacen es suplantar a aquellos
órganos o extremidades, realizando sus funciones y movimientos.

Teleoperadores: estos robots son controlados de manera remota por un


operador humano. A estos artilugios se los utiliza en situaciones extremas
como la desactivación de una bomba o bien, para manipular residuos tóxicos.

Poliarticulados: si bien estos pueden tener de diversas configuraciones, lo que


tienen en común estos robots es que son sedentarios. Estos son diseñados
para mover sus terminales con limitada libertad y de acuerdo a ciertos sistemas
de coordenadas.

Zoomórficos: la locomoción de estos robots imita a la de distintos animales y se


los puede dividir en caminadores y no caminadores. Estos últimos están aún
muy poco desarrollados mientras que los caminadores sí lo están y resultan
útiles para la exploración volcánica y espacial.

DIFERENCIAS
1. Cibernética esta relacionada con el control y retroalimentación de sistemas
mientras que robótica se enfoca exclusivamente al diseño, construcción y uso
de los robots.

2. La cibernética se aplica incluso a sistemas sociales, tu puedes aplicar las


teorías de la cibernética para monitorear cualquier sistema y analizar cómo es
afectado por factores externos, en cambio en la robótica no tanto.

EVOLUCIÓN HISTÓRICA DEL DERECHO


INFORMÁTICO

La informática es un fenómeno multifacético de la realidad


contemporánea. Surge como una actividad creada por el hombre como un
instrumento esencial para superar las dificultades generadas por la aceleración
del progreso y su natural consecuencia: la explosión informativa. La difusión de
la informática ha impactado significativamente a la cultura, la economía, la
política, las ciencias, las comunicaciones y la organización del trabajo, entre
otras muchas áreas de la actividad social. El derecho como fenómeno social
tiene como objeto el regular las actividades del hombre en sociedad. El
derecho como fenómeno social se encuentra en constante evolución en
relación con la evolución de la sociedad. El derecho adapta continuamente sus
reglas a las nuevas relaciones sociales y económicas. La creación de un nuevo
derecho es por lo general el resultado de una experimentación social previa. A
partir de derechos existentes y de montajes contractuales, los sectores
interesados logran introducir un nuevo objeto de derecho.
Es por lo que la aparición de la informática en la sociedad ha generado
múltiples relaciones entre ella y el Derecho. Los vertiginosos avances
tecnológicos en esta materia, con el uso masivo de los computadores y la
comunicación interactiva, presentan un nuevo y original desafío al derecho. La
informática ha provocado la aparición de reglas de derecho que le son
particulares, dispersos algunas, inadecuadas otras, algunas veces
contradictorias, que han desafiado a las tradicionales instituciones del derecho.
También la informática ha invadido sectores de la vida jurídica como el
de la documentación y Registros, así como en la propia administración de
justicia. Es por lo antes referido y en aras de dilucidar los conceptos cardinales
del Derecho Informático, debemos retrotraernos a su piedra angular: la
informática. La informática surge en el seno de la cibernética, ciencia que
apareció como respuesta a una inquietud racional del hombre.
El asidero histórico de la aparición de la cibernética como género y de la
informática como especie, se encuentra en la acción del factor social (la
necesidad social de un aumento en la producción y en el capital), el factor
técnico-científico (los avances de la ciencia y la técnica en diversas áreas del
conocimiento humano) y el factor histórico (la necesidad de unificar los avances
científico-técnicos de ese momento histórico para que funcionara como unidad
multitudinaria) de una época de convulso desarrollo intelectual.
De esta forma, el hombre se enfrenta a una necesidad
de información y gestión eficaz de la misma, por lo que recurrió a reformular
postulados y técnicas que fueran capaces de solucionar esta problemática con
la implementación de nuevas formas de manejo, organización y utilización de la
información. Sin embargo, el desarrollo y evolución de la informática no culminó
en ese momento sino encontró su inicio jugando un papel trascendental en
todos los órdenes del desarrollo humano, impulsando novedosos cambios y
entretejiendo otros horizontes para las ciencias.
Adjuntamente, se alcanzaron objetivos como la transferencia de
información, la potenciación de las comunicaciones, la explotación
de programas de uso institucional y privado, la implementación de la ofimática,
el perfeccionamiento de la formulación de políticas, planeación y conducción
de estrategias organizacionales; el perfeccionamiento de la comunicación,
dirección y supervisión de empleados, el
eficiente control de nóminas, contabilidad o inventarios, y la consolidación de
los sistemas de pago automatizado, entre otros aspectos. La informatización de
la sociedad llegó a alcanzar insospechados niveles. Desde hace ya
algún tiempo, en el área industrial escuchamos sobre robótica e implicaciones
como el aumento de la productividad con reducciones de tiempo y costos. Así
mismo, el área de la medicina se ha beneficiado de esta revolución informática
con la creación e implementación de programas para gestionar historias
clínicas, exámenes, diagnósticos y pruebas de laboratorio con mayor
exactitud.
En igual sentido, el Derecho ha conseguido notables y significativos
resultados a consecuencia de los aportes de una informática especializada en
la arena legal, es decir, la Informática Jurídica; entendida como el conjunto de
aplicaciones de la informática en el ámbito del Derecho. Hablamos de una
técnica interdisciplinaria que fusiona las aplicaciones informáticas con el
Derecho para la automatización de información jurídica y la elaboración y
aprovechamiento de los instrumentos de análisis y tratamiento de dicha
información.
Esta vertiente de la informática germina en 1959 en los Estados Unidos,
con el desarrollo de las primeras investigaciones sobre recuperación
automatizada de documentos jurídicos. Fue en la Universidad de Pittsburg,
Pennsylvania, a través del Health Law Center, donde John Horty concibió la
idea de crear un mecanismo para obtener acceso automatizado a la
información legal. De esta manera, se expanden los usos de
las computadoras a las áreas lingüísticas.
En 1959, el Health Law Center colocó los ordenamientos jurídicos de
Pennsylvania en cintas magnéticas; quedando constituida la recopilación legal
informática. Dicho sistema fue demostrado en 1960, ante la Barra de la
Asociación Americana de Abogados pasando a la historia como la primera
demostración de un sistema legal automatizado de búsqueda de información.
En 1966, doce Estados de Estados Unidos tenían este sistema, y para 1968,
cincuenta Estados de ese mismo país lo acogieron.
Actualmente, el Derecho Informático recurre al tratamiento
automatizado de las fuentes del conocimiento jurídico a través de los sistemas
de documentación legislativa, jurisprudencial y doctrinal (informática jurídica
documental); las fuentes de producción jurídica a través de la elaboración
informática de los factores lógico-formales que concurren en
el proceso legislativo y en la decisión judicial (informática jurídica decisional); y
los procesos de organización de la infraestructura o medios instrumentales con
los que se gestiona el Derecho (informática jurídica de gestión).
Así, a causa de esa necesidad del Derecho de atemperarse a las
circunstancias de la sociedad que regula, se abre paso un nuevo campo de
acción con el Derecho Informático. En 1949 con la obra de Norbert Wiener,
encontramos una de las primeras alusiones a esta rama del derecho, cuando
establece la relación entre Derecho y Cibernética; conjuntamente al artículo
"The next step forward" publicado el mismo año por Lee Loavenger.
El cambio que se ha experimentado en el campo de la computación y
tele comunicaciones en los últimos años, ha impactado de alguna manera en
diversos sectores o ámbitos de la sociedad, como en lo político, social y
especialmente en el campo jurídico en cuanto a la administración de justicia.

h vidas seráEl profesor Mario Losano (1987) afirma que la historia del Derecho está
condicionada por tres revoluciones: de la escritura, de la imprenta y de la
ordenación electrónica de datos.

Se conceptualiza el Derecho informático como la rama del Derecho que regula los
fenómenos provocados por la informática. Según el profesor Julio Téllez Valdés
(2004: 21), es el conjunto de leyes, normas y principios aplicables a los hechos y a los
actos derivados de la informática. Si bien son escasos, existen varios ordenamientos
jurídicos nacionales e internacionales con alusión específica al fenómeno
informático.

Por su parte, el profesor Antonio Enrique Pérez Luño (1996) sostiene que es una
materia inequívocamente jurídica, conformada por el sector normativo de los
sistemas jurídicos contemporáneos, el cual está integrado por el conjunto de
disposiciones dirigido a la regulación de las nuevas tecnologías de la información y la
comunicación.

La autonomía del Derecho informático se puede analizar desde cuatro perspectivas:


docente, normativa, institucional y científica. El ámbito docente es sostenible debido
a que este Derecho se enseña como una asignatura independiente en las
universidades y constituye una materia de especialización con sus propios
programas y grupos de docentes especializados (diplomatura, especialidad,
maestría y doctorado). El ámbito institucional está conformado por instituciones
propias como agencias de gobierno electrónico, sociedades de la información,
autoridades de protección de datos personales y de acceso a la información,
ministerios de ciencia y tecnología, entre otras. El ámbito normativo se consolida
mediante reglas propias, tanto a nivel nacional como internacional, y existen
importantes cuerpos legales; es el ámbito que ha tenido mayor crecimiento en la
última década. Finalmente, el ámbito científico, conformado por investigaciones,
doctrina y jurisprudencia.1

Se pueden distinguir las siguientes características del Derecho


informático: a) Derecho nuevo, b) Derecho en permanente formación, c) Derecho no
codificado, d) Derecho determinado por la tecnología informática, e) Derecho
transversal, f) Derecho dinámico, g) Derecho con tendencia a la internacionalización
(Viega, 2017).
transformad

, y cómo funciona la analíCuando surgió el Derecho informático, en la década de


1960, para dar respuesta a la aparición de las computadoras y, por lo tanto, al
procesamiento automatizado de la información, los primeros temas que se
plantearon fueron los siguientes: regulación de bienes informáticos (protección de
bienes inmateriales, separación del software y del hardware); protección de datos
personales (los datos ya no se guardan en soporte de papel, la información se
procesa en forma automática, el perfilamiento se vuelve mucho más fácil de
realizar); flujo transfronterizo de datos (el envío de datos fuera de las fronteras de un
Estado); delitos informáticos (actos ilícitos en que se tiene a las computadoras como
instrumento o fin); contratos informáticos (cuyo objeto sea un bien o un servicio
informático) y valor probatorio de los soportes informáticos (valor jurídico
probatorio del documento electrónico y de la firma electrónica).

Con el salto tecnológico y los cambios sociales ocurridos en el último cuarto del siglo
XX, momento en que la convergencia de la informática y las telecomunicaciones se
hace evidente en todas las actividades humanas, el objeto de estudio del Derecho
informático se amplía notoriamente. En esta época se profundiza la simbiosis o la
alianza entre la informática y las comunicaciones (Bauza et al., 2017). Por otra parte,
la expansión de internet y las tecnologías de la Información y la comunicación (TIC)
inevitablemente se relacionó con el Derecho informático.

Otros temas importantes del Derecho informático son los siguientes: la contratación
electrónica (oferta y aceptación por medios electrónicos), el comercio electrónico
(compra y venta de productos y servicios a partir de medios electrónicos), la
transferencia electrónica de fondos (dinero electrónico, pago electrónico, cheque
electrónico, entre otros), el gobierno electrónico (utilización intensiva de las TIC, con
modalidades de gestión, planificación y administración, como una nueva forma de
gobierno) y el teletrabajo (modalidad laboral a distancia mediante la utilización de
las TIC). En relación con la propiedad intelectual, tenemos temas de interés como la
protección jurídica de los nombres de dominio, software, base de datos, sitios web y
música en internet.

ticaor otra parte, en 2003 se realizó en Ginebra, Suiza, la Cumbre Mundial de la


Sociedad de la Información (CMSI). De acuerdo con sus principios, el centro de la
sociedad de la información deben ser los individuos, de manera que todos puedan
crear, consultar, utilizar y compartir la información y el conocimiento, para que las
personas, las comunidades y los pueblos puedan emplear plenamente sus
posibilidades en la promoción de su desarrollo sostenible y en la mejora de su
calidad de vida, sobre la base de los propósitos y principios de la carta de las
Naciones Unidas.
El término “sociedad de la información” comenzó a utilizarse en Japón en la década
de 1970. Yoneji Masuda fue quien lo divulgó a partir de una obra publicada en 1968.

? En la Cumbre de la Organización del Tratado del Atlántico Norte de julio de 2016,


celebrada en Varsovia, se reconoció el ciberespacio como un nuevo dominio de las
operaciones, al lado de la tierra, el mar, el aire y el espacio. Se ha dicho que el
cibersespacio es el lugar sin lugar, ya que en él no encontramos fronteras físicas, lo
que provoca que el Derecho internacional cobre relevancia porque, de alguna
manera, debemos lograr anclar lo que sucede en medio de las redes de
comunicación a un país, de manera que se establezca cuál será la ley aplicable y la
jurisdicción competente en En la actualidad, el Derecho informático se preocupa por
regular las tecnologías disruptivas como la computación en la nube,2 la inteligencia
artificial,3 el internet de las cosas,4 la ciberseguridad,5 el blockchain6 o cadena de
bloques, las criptomonedas y los criptoactivos, los smart contracts, la robótica, la
realidad virtual y aumentada, la neurotecnología, entreuna determinada situación o
conflicto.

La tecnología disruptiva es cualquier tecnología o innovación que deja obsoleta la


tecnología anterior, provocando cambios profundos en nuestro modo de vida. Tiene
como denominador común su capacidad de evolucionar rápidamente y adaptarse a
diferentes sectores, generando nuevos modelos de negocio.

El Derecho informático ha creado la necesidad de


nuevos perfiles especializados de abogados.
Por lo anterior, es importante que los abogados tengan conocimiento de algunos
temas que trata el Derecho informático relacionados con su área de especialización;
más aún después de la pandemia de Covid-19 que propició una adopción acelerada
de tecnología, lo que implicó, a su vez, una transformación digital precipitada.

Finalmente, hay que señalar que el Derecho informático ha creado la necesidad de


nuevos perfiles especializados de abogados. Actualmente se les denomina
“abogados digitales”, los cuales no cuentan con un código específico, sino que
tratan un amplio abanico de temas regulados de forma transversal en varias ramas
jurídicas (que vimos de forma precedente). Se trata de una especialización que se
puede conseguir realizando masters o estudios de posgrado relacionados con
Derecho informático o Derecho digital. Por otra parte, hoy los abogados cuentan con
muchas y diversas herramientas legaltech para elegir, pero también ha cobrado
relevancia la experiencia del usuario y la ciberseguridad.
LA AUTONOMIA DEL DERECHO INFORMATICO Y SU
RELACION CON OTRAS RAMAS DEL DERECHO

AUTONOMIA

Según encuentros sobre Informática realizados en Facultades de


Derecho en España a partir de 1987, siempre surgían problemas
a la hora de catalogar al Derecho Informático como rama jurídica
autónoma del Derecho o simplemente si el Derecho Informático
debe diluirse entre las distintas ramas del Derecho, asumiendo
cada una de estas la parte que le correspondiese.

Ahora bien, para analizar esta dicha situación, es necesario


mencionar las bases que sustentan a una rama jurídica autónoma,
y al respecto se encuentran:

 Una legislación especificada (campo normativo).


 Estudio particularizado de la materia (campo docente).
 Investigaciones, doctrinas que traten la materia (campo
científico).
 Instituciones propias que no se encuentren en otras áreas del
Derecho (campo institucional).

En el Derecho Informático si existe legislación específica que


protege al campo informático. Tal vez no con tanta trayectoria y
evolución como la legislación que comprenden otras ramas del
Derecho, pero si existe en el Derecho informático, legislación
basada en leyes, tratados y convenios internacionales, además
de los distintos proyectos que se llevan a cabo en los entes
legislativos de las naciones, con la finalidad del control y
aplicación lícita de los instrumentos informáticos.

Con respecto a las instituciones propias que no se encuentren en


otras áreas del Derecho (campo institucional), se encuentra el
contrato informático, el documento electrónico, el comercio
electrónico, entre otras, que llevan a la necesidad de un estudio
particularizado de la materia (campo docente), dando como
resultado las Investigaciones, doctrinas que traten la materia
(campo científico). En efecto, se pueden conseguir actualmente
grandes cantidades de investigaciones, artículos, libros, e
inclusive jurisprudencia que esté enmarcada en la interrelación
entre el Derecho y la informática, como se ha constatado en los
Congresos Iberoamericanos de Derecho e Informática.
RELACION CON OTRAS RAMAS DEL
DERECHO
Con el Derecho Constitucional
El Derecho Informático tiene una estrecha relación con el Derecho
Constitucional, por cuanto la forma y manejamiento de la
estructura y órganos fundamentales del Estado, es materia
constitucional. De allí, que se debe resaltar que dicho
manejamiento y forma de controlar la estructura y organización de
los órganos del Estado, se lleva a cabo por medio de la
Informática, colocando al Derecho Informático en el tapete, porque
con el debido uso que se le den a estos instrumentos informáticos,
se llevará una idónea, eficaz y eficiente organización y control de
estos entes. De lo que se puede desprender una serie de
relaciones conexas con otras materias como sería el caso del
Derecho Tributario y el Derecho Procesal.

Con el Derecho Penal


En este punto se nota una estrecha relación entre el Derecho
Informático y el Derecho Penal, porque el Derecho Penal regula
las sanciones para determinados hechos que constituyen violación
de normas del Derecho y en este caso del Derecho Informático, en
materia del delito cibernético o informático, entonces se podría
comenzar a hablar del Derecho Penal Informático.

Con los Derechos Humanos


Los Derechos humanos, indispensables para defender los
Derechos fundamentales del hombre, tales como el de la vida, el
de la igualdad, el respeto moral, vida privada e intimidad que
llevan al hombre a ser dignos y por consiguiente a tener dignidad,
con lo que permite catalogar a las personas como íntegras,
conviviendo en ambiente de respeto, de libertad y haciendo posible
sociedades verdaderamente civilizadas.

¿Qué relación puede tener el Derecho Informático con los


Derechos humanos?, pues bien, es tan grande esa relación que
sería motivo de innumerables libros y monografías; sin embargo,
muy simple y brevemente se puede mencionar la posibilidad de
que exista a través del Derecho Informático esa regulación jurídica
que apoye el buen funcionamiento de los órganos jurisdiccionales,
sólo para dar un simple ejemplo; es de imaginar, la eficacia y
eficiencia con que se manejarían las leyes, que colaborarían en un
alto grado a la celeridad procesal, punto indispensable para
defender los Derechos humanos de las personas que se
encuentran en las cárceles nacionales, declaradas éstas a nivel
internacional, como centros violadores de los Derechos humanos.
Entonces, al existir celeridad, habrá posibilidad de evitar la
sobrepoblación en las cárceles, factor que ha influido en la
constante violación de estos Derechos; por producir esa
sobrepoblación, escasez de alimento para los reclusos, así como
carencia de medios sanitarios y de higiene mínimos necesarios.

También, se pueden mencionar otras relaciones tratadas en


materia de Derechos humanos como lo es la privacidad e
intimidad, que podrían ser burladas por utilización ilícita de los
medios informáticos.

Con la propiedad intelectual


En las naciones se necesita con urgencia un mejor control de esta
materia, para penalizar los plagios, la piratería y en sí cualquier
ilícito en contra de los Derechos de autor o industriales, debido a
que se están produciendo estos ilícitos en contra y por medio de
los instrumentos informáticos.

INFORMATICA JURIDICA
El Derecho Informático constituye el conjunto de normas,
aplicaciones, procesos, relaciones jurídicas que surgen como
consecuencia de la aplicación y desarrollo de la informática. Es
decir, que la informática en general desde este punto de vista es
objeto regulado por el Derecho.

Ahora bien, la informática jurídica constituye una ciencia que


forma parte del ámbito informático, demostrando de esta manera
que la informática ha penetrado en infinidad de sistemas,
instituciones, etcétera; y prueba de ello es que ha penetrado en el
campo jurídico para servirle de ayuda y servirle de fuente. Por lo
tanto, la informática jurídica puede ser considerada como fuente
del Derecho.

La informática jurídica estudia el tratamiento automatizado de las


fuentes del conocimiento jurídico a través de los sistemas de
documentación legislativa, jurisprudencial y doctrinal (informática
jurídica documental); las fuentes de producción jurídica, a través
de la elaboración informática de los factores lógico-formales que
concurren en el proceso legislativo y en la decisión judicial
(informática jurídica decisional); y los procesos de organización de
la infraestructura o medios instrumentales con los que se gestiona
el Derecho (informática jurídica de gestión).

RESGUARDO DE LA INFORMACION
El Derecho Informático como una nueva rama del Derecho se
encarga de prever las soluciones jurídicas a los grandes problemas
generados por el uso de las tecnologías en la sociedad, por lo que
los especialistas en esta nueva rama del Derecho se enfrenta
constantemente al dilema de dar respuestas coherentes y
armónicas para que el operador jurídico se encuentre en
condiciones de plantear las soluciones más adecuadas a cada
caso concreto.

Con la finalidad de otorgar un adecuado resguardo a la información


que circula por las redes interconectadas, sean estas, redes
abiertas como Internet o redes cerradas como las Intranet o
redes internas que se instalan en las instituciones, el Derecho
Informático recoge instituciones técnicas y las incorpora al
Derecho otorgándoles un adecuado valor legal, por ejemplo, se
pueden citar las técnicas de cifrado, es decir, aquellos elementos
de seguridad que permiten ocultar la información evitando que
personas extrañas a las relaciones vinculantes y generadoras de
derechos entre las partes, accedan a la misma para dañarla,
alterarla o comercializarla.

CRIPTOGRAFIA
El Derecho Informático ha incorporado a la Criptografía como
institución jurídica. La Criptografía es la ciencia que se encarga
del estudio del cifrado de la información, de tal forma, que por el
uso de tales técnicas se consiga otorgar un alto grado de
confidencialidad a las comunicaciones y manifestaciones de
voluntad realizadas a través de medios electrónicos. La
Criptografía moderna permite ocultar la información por medio de
la aplicación de grandes funciones matemáticas, las mismas que
son aplicadas mediante determinado software diseñado para tal
efecto.

Los orígenes históricos de la criptografía se remontan a las


necesidades del ser humano para proteger eficientemente sus
comunicaciones, los secretos militares y la información estatal en
general. Actualmente, la realidad informática en que se vive ha
permitido que todas las instituciones y personas transmitan y
archiven grandes cantidades de datos e información, las mismas
que deben ser cauteladas con mucho cuidado. En los tiempos
modernos la técnica de cifrar tanto datos como información se ha
convertido en una imperiosa necesidad.

CAMPOS DE ESTUDIO

 Acceso a la información
 Acceso a las TICs
 Administración de Justicia y Nuevas Tecnologías.
 Banca y Dinero Digital
 Censura en Internet. Libertad de Expresión online
 Comercio Electrónico
 Contratos Informáticos
 Compras públicas mediante el uso de las NTIC
 Correo electrónico
 Defensa del consumidor
 Delitos Informáticos
 Derecho en la Era Digital
 Derecho de las Telecomunicaciones
 Derecho Laboral e Informática. Teletrabajo.
 Documento Electrónico, mesajes de datos, EDI y Factura
Electrónica
 Editoriales online de Derecho.
 E-government
 e-Learning del Derecho y Nuevas Tecnologías
 Firma Electrónica
 Hábeas data
 Impuestos e Internet
 Informática jurídica
 Manifestación de la Voluntad por Medios Electrónicos
 Medidas Cautelares sobre Equipos Informáticos
 Nombres de Dominio y Direcciones IP
 Notas Bibliográficas y de Eventos
 Notificación por Medios Electrónicos
 Privacidad
 Protección de datos
 Profesionales del Derecho en la Era Digital
 Propiedad Intelectual y Propiedad Industrial e Internet
 Programas: Software Jurídico. Bases de datos y Gestión de
Bufetes
 Protección de Datos de Carácter Personal
 Publicidad e Internet
 Relación entre el Derecho y la Informática
 Seguridades informáticas
 Sociedad Civil e Internet
 Sociedad de la Información
 Software libre
 Telefonía y Voz sobre IP
 Wireless Application Prototocol (WAP)

LA CIBERNETICA Y SUS IMPLICACIONES


EN LAS ACTIVIDADES HUMANAS,
CRIPTOGRAFIA, BIG DATA, BLOCK CHAIN

La cibernética, es la construcción de máquinas autónomas y permite una comprensión


estructural y funcional de los sistemas vivientes, buscando analogías entre los sistemas vivos y
los sistemas artificiales.
Para la cibernética, la complejidad es vista como la evolución, de cómo los cambios se
producen en los sistemas artificiales (máquinas autónomas) y su interacción (simbiosis) con los
sistemas vivos. Por eso cuando en la cibernética se habla de máquinas se refiere a máquinas
autónomas a diferencia de la inteligencia artificial que cuando habla de máquinas se refiere a
máquinas inteligentes. Mientras la preocupación de la cibernética son las máquinas que se
auto-regulan y se auto-organizan, para la inteligencia artificial su tema de estudio es como
construir una máquina inteligente que iguale o supere la inteligencia humana.
La inteligencia artificial nace dentro del pensamiento positivista, mecanicista y reduccionista
desde este enfoque solo cabe pensar en una IA alineada a los intereses humanos.
La IA se basa en máquinas inteligentes basadas en el procesamiento de información,
programas que se ejecutan y manipulan bases de conocimientos, introducidos por el
programador, por lo que son sistemas cerrados y no interactúan con el entorno. Es significativo
el hecho de que la IA ve la evolución como máquinas inteligentes que alcanzan a igualar y
superar la de los humanos y que serán capaces a su vez de auto-programarse y construir
máquinas más inteligentes. Es obvio que estamos ante una retroalimentación positiva:
máquinas inteligentes que a su vez construyen máquinas más inteligentes y así infinitamente.
Esta es la idea central de la singularidad tecnológica.
En cambio, la cibernética, tiene como fundamento para la evolución, la retroalimentación
negativa, o sea la regulación del sistema para lograr su adaptación al entorno, no crece
infinitamente sino que se va ajustando por medio de la interacción no solo con el entorno sino
también con los sistemas vivos y con otras máquinas (sistemas artificiales)
Una idea interesante es que para la cibernética los sistemas por una parte son abiertos
informacionalmente están en interacción con el entorno y por otra parte son sistemas cerrados
organizacionalmente, lo cual le permite conservar su orden interno y funcionar como un sistema
en equilibrio. Cuando se rompe el orden interno el sistema se desorganiza y deja de funcionar
como tal (las máquinas autónomas son a la vez dependientes e independientes del entorno). O
sea, su gestión organizativa se realiza hacia dentro (cerrada) para evitar el caos y el desorden
mientras su gestión de la información es abierta, procesa la información del exterior y se
reajusta al entorno por medio de la retroalimentación. Por naturaleza los sistemas tienden hacía
el equilibrio del sistema y a controlar los desórdenes de manera neguentrópica, con el fin de
mantener la organización. En este proceso se dan la adaptación y cambio del sistema, pero
siempre hacia el equilibrio como respuesta a las amenazas tanto internas como externas.
Podemos sacar la conclusión que las máquinas cibernéticas son sistemas autónomos que
están en interacción, no solo con el ambiente sino también con los sistemas vivos, lo cual ira
produciendo una sinergia entre las máquinas autónomas y los humanos y con ello una
transformación de la cual emergen nuevas organizaciones acorde con el propósito del sistema
(metasistema) como un todo.
Inteligencia artificial (IA): máquinas (inteligentes) que como sistema artificial serán capaces de
hacerse cada vez más inteligentes por sí mismas (retroalimentación positiva, proceso lineal y
exponencial) hasta superar a los humanos. Deberán, inicialmente, ser programadas para que
estén alineadas con los intereses humanos (sistema cerrado al que se le suministra
conocimientos). En general la maquina es vista como un mecanismo separado de los humanos
y que se desarrolla dentro de un entorno digital
Cibernética: máquinas (autónomas) que como sistemas artificiales se desarrollan en interacción
(colaboración) y en equilibrio con los humanos (enfoque sistémico-cibernético) y tendrán como
finalidad un mismo propósito general. Se produce una sinergia en la que sujeto no pierde su
condición humana (ectosimbiosis mutual). Las máquinas como un mecanismo en interacción
con los humanos y con el entorno natural (abiertas al entorno). Ectosimbiosis mutual que busca
el equilibrio del sistema como un todo y sigue el principio de recursividad (retroalimentación
negativa).
Enfoque sistémico-cibernético (desde la complejidad), nueva mentalidad donde el humano por
medio del conocimiento que se va obteniendo en su sinergia con las tecnologías inteligentes,
alcanza la sabiduría.

Desarrollo presente y futuro de la IA y la cibernética (líneas de investigación)


1.-Surgimiento de máquinas inteligentes desde la cosmovisión de las tecnologías
Enfoque mecanicista-cognitivo
 Super-inteligencia artificial. Singularidad tecnológica. La IA más inteligente que los humanos, la
cual tendrá su visión tecnologista del mundo. Las tecnologías son la solución a todos los
problemas desde un enfoque cognitivo (tecno-centrismo). Tiene como representantes a Vernor
Vinge, Hans Moravec y Ray Kurzweil (uno de los ingenieros principales de Google)
 IA alineada con los intereses humanos. Se persigue la construcción de una IA controlada para
que no sea un peligro. Las tecnologías pueden ser reguladas por los científicos. La IA se
desarrolló en centros de investigación (tecno-democracia). Entre sus representantes se
encuentra el filósofo, Nick Bostrom
 IA como fuerza productiva. Se integra a la gestión productiva de las transnacionales, como su
know how, ya sea como un futuro servicio o para elaborar nuevos productos. Sera una IA
privada en manos de las transnacionales. Las tecnologías en función del mercado (tecno-
liberalismo). Tiene como representante a Google, Microsoft, IBM, Apple, etc.
2.-Surgimiento de máquinas inteligentes desde la cosmovisión de la complejidad
Enfoque sistémico-conexionista
 Cerebro global. Se produce un superoganismo global, debido a que cada vez existen más
conexiones entre humanos y maquinas (retroalimentación positiva). Las tecnologías como
solución a todos los problemas desde un enfoque conexionista (tecno-centrismo). Conexión en
red humanos-máquinas que alcanzan un metasistema y donde se produce una sinergia con las
tecnologías en la que se pierde el sujeto (individuo) y da lugar a una supraconciencia en red.
Su máximo exponente es Heilyghen
 Inteligencia colectiva. Aspira a que la inteligencia se puede compartir para encontrar soluciones
colaborativas a los problemas. En la práctica, se busca explorar nuevas aplicaciones que
saquen provecho de la inteligencia colectiva. Las tecnologías como investigación para que
sean beneficiosas (eco-tecno-social). Su representante principal es Thomas Malone del MIT
 Inteligencia ampliada como metasistema colaborativo producto de las relaciones entre
humanos y máquinas dada las complejas interrelaciones que están surgiendo. Se produce una
fusión de los dos puntos anteriores, pero teniendo como desarrolladores a la sociedad civil, en
lugar de los centros de investigaciones o las transnacionales (como en el enfoque mecanicista-
cognitivo). La inteligencia artificial va creciendo y desarrollándose junto a los humanos y ambos
se hacen más inteligentes y sabios (eco-tecno-complejidad). Tendrá una visión compartida con
los humanos (superorganismo colaborativo). Aun no se ha definido totalmente, pero debe tener
como motor impulsor a la comunidad de software libre que se irá transformando en una
comunidad abierta de software inteligente.

A Norbert Wiener siempre le preocupó como sería la relación entre humanos y tecnologías y
cuál sería el destino de los seres humanos. Él siempre entendió a la cibernética como una
nueva forma de pensar y de un nuevo paradigma que rompe con el paradigma mecanicista y
determinista, idea desarrollado posteriormente por Edgar Morin, quien, partiendo de los
conceptos de la cibernética, la teoría de sistemas y la de la información, elaboró los tres
principios que sustentan el pensamiento complejo:
 Principio Dialógico
 Principio de Recursividad
 Principio Hologramático
Para la cibernética, la complejidad es vista como la evolución de cómo los cambios que se
producen en los sistemas artificiales (maquinas autónomas) y su interacción (simbiosis) con los
sistemas vivos. En cambio, la teoría de sistemas de Bertalanffy se centra en los sistemas vivos.
Por eso cuando en la cibernética se habla de máquinas se refiere a maquinas autónomas a
diferencia de la inteligencia artificial que cuando habla de máquinas se refiere a maquinas
inteligentes. Mientras las preocupaciones de la cibernética son las máquinas que se auto-
regulan y se auto-organizan, para la inteligencia artificial su tema de estudia es como construir
una maquina inteligente que iguale o supere la inteligencia humana.
Mientras las maquinas cibernética se sustenta sobre la idea de máquinas autónomas que están
en interacción con el entorno, son sistemas abiertos informacionalmente. La IA se basa en
máquinas inteligentes basadas en el procesamiento de información (programas que se
ejecutan y manipulan bases de conocimientos, introducidos por el programador, por lo que son
sistemas cerrados y no interactúan con el entorno.
Es significativo el hecho de que la IA ve la evolución como maquinas inteligentes que alcanzan
a igualar y superar la de los humanos y que serán capaces a su vez de auto programarse y
construir máquinas más inteligentes. Es obvio que estamos ante una retroalimentación positiva:
maquinas inteligentes que a su vez construyen maquinas más inteligentes y así infinitamente.
Esta es la idea central de la singularidad tecnológica.
En cambio, la cibernética, tiene como fundamento para la evolución, la retroalimentación
negativa, o sea la regulación del sistema para lograr su adaptación al entorno, no crece
infinitamente, sino que se va ajustando por medio de la interacción no solo con el entorno sino
también con los sistemas vivos y con otras máquinas (sistemas artificiales)
Una idea interesante es que para la cibernética los sistemas por una parte son abiertos
informacionalmente están en interacción con el entorno y por otra parte son sistemas cerrados
organizacionalmente, lo cual le permite conservar su orden interno y funcionar como un sistema
en equilibrio. Cuando se rompe el orden interno el sistema se desorganiza y deja de funcionar
como tal (las maquinas autónomas son a la vez dependientes e independientes del entorno). O
sea, su gestión organizativa se realiza hacia dentro (cerrado) para evitar el caos y el desorden
mientras su gestión de la información es abierta, procesa la información del exterior y se
reajusta al entorno por medio de la retroalimentación.
Por naturaleza los sistemas tienden hacía el equilibrio del sistema y a controlar los desórdenes
de manera neguentrópica, a través de una retroalimentación negativa con el fin de mantener la
organización. En este proceso se dan adaptación y cambio del sistema, pero siempre hacia el
equilibrio como respuesta a las amenazas tanto internas como externas.
Podemos sacar la conclusión que las maquinas cibernéticas son sistemas autónomos que
están en interacción, no solo con el ambiente sino también con los sistemas vivos, lo cual ira
produciendo una sinergia entre las maquinas autónomas y los humanos y con ello una
transformación de la cual emergen nuevas organizaciones acorde con los propósitos del
sistema como un todo.
Hoy estamos ante una sobre-abundancia de información. Se genera tanta información
(retroalimentación positiva) que es imposible consumirla o procesarla.

CIENCIA, TECNOLOGÍA Y BIOÉTICA: UNA RELACIÓN DE


IMPLICACIONES MUTUAS

1. Introducción

La ciencia es un cuerpo de conocimiento organizado y sistematizado acerca del


Universo, incluidos nosotros mismos. Hasta este punto no existen implicaciones
éticas, porque el pensamiento es neutro en tanto no determine acciones; pero el
humano, dada su propia naturaleza, no se detiene nunca en sólo conocer y
entender, y ha desarrollado una extraordinaria habilidad para usar y aplicar el
conocimiento para múltiples propósitos, herramientas, productos y procesos de
modificación de materiales que alteran y afectan la forma de vivir. Esto es, la
tecnología tiene indiscutibles implicaciones éticas, ya que la vida alterada a la que
conduce no puede asegurarse que sea mejor o peor, y las consecuencias a largo
plazo son, en la mayoría de los casos, imprevisibles.

Bunge(1) considera que la ciencia debe entenderse como un sistema lógicamente


estructurado de conceptos y enunciados verdaderos, y la actividad científica como
una empresa teórica de investigadores que se rige por la búsqueda de la verdad
objetiva.

Para él, la tecnología es el resultado de la aplicación de los conocimientos científicos


en forma de sistemas de acción basados en leyes científicas y por tanto racionales,
de lo que se concluye que el conocimiento científico y la tecnología, basados en la
ciencia y las humanidades racionalistas, son no sólo valiosos medios de producción
y bienestar, sino también condiciones para el debate democrático y la solución
racional de los conflictos.

Esta posición ultraoptimista de Bunge -quien en este artículo aboga por una
cruzada para expulsar de la Academia, como nuevos caballos de Troya
posmodernos, a los "constructivistas-relativistas"- es insostenible y resume cinco
mitos que Daniel Sarewitz(2) menciona. Siendo la sociedad la que sostiene al
sistema y considerando al sistema de alto valor estratégico para el desarrollo social
y material de las naciones, es necesario adoptar nuevos puntos de vista, que
Sarewitz considera también mitos pero más adecuados a la situación actual. El
primer grupo de mitos actuales a los que se refiere Sarewitz es el siguiente:

- El mito del beneficio infinito: más ciencia y más tecnología generarán mayor
bienestar público.

- El mito de la libre investigación: es posible cualquier línea de investigación,


científicamente razonable para producir beneficios sociales.

- El mito de la responsabilidad (rendición de cuentas): el sistema de revisión por


pares, la reproducibilidad de los resultados y otros controles expresan las
principales responsabilidades éticas del sistema de investigación.

- El mito de la autoridad: la información científica ofrece una base objetiva para la


resolución de disputas políticas.
- El mito de las fronteras sin límites: el nuevo conocimiento generado en la frontera
de la ciencia es independiente de las consecuencias morales y prácticas producidas
en la sociedad.

La idea de Sarewitz es que estos mitos han sido creados por la propia comunidad
científica, pero suelen fracasar a la hora de servir a los intereses de la sociedad.
Considera que no se puede divorciar lo que ocurre en el interior del laboratorio del
contexto social más amplio en el que está profundamente inmerso, existiendo la
necesidad de crear "un nivel más realista de expectativas respecto de las promesas
sociales hechas en nombre del sistema de investigación y desarrollo y un
incremento en la capacidad de objetivos sociales". Para esto sugiere una mitología
alternativa sobre la que volveremos al final de este documento.

En relación con el quinto mito -considerar a la ciencia como filosóficamente ajena a


valores y políticas, movida exclusivamente por intereses teóricos y verificación de
hechos, y como consecuencia declararla éticamente neutral, al margen de las
responsabilidades que el uso de los resultados de la investigación libremente
llevada a cabo conlleva-, es una posición que no se puede seguir sosteniendo, por
muchas razones. Por una parte, en la creación del conocimiento intervienen
factores sociales, económicos, culturales, ideológicos, entre otros, situaciones que
no pueden quedar al arbitrio de una sola persona; por otra, los resultados de su
aplicación tienen una trascendencia que puede ser considerada como parte de una
estrategia nacional.

Los estudios de los últimos cincuenta años sobre la interrelación Ciencia-


Tecnología-Sociedad (CTS) han puesto de relieve la compleja red de agentes,
actividades y escenarios que integran la ciencia y la tecnología contemporáneas y,
como consecuencia, conducen a aceptar que éstas son un resultado de la cultura
humana: realizaciones sociales y culturales(3).

2. Aspectos éticos del desarrollo tecnológico

Un examen somero de la tecnología nos mostraría que tiende siempre a crecer y


renovarse: la creatividad y la innovación son aspectos destacados de su actividad,
de tal modo que cuando se detiene corre el riesgo de derrumbarse (efecto
bicicleta).
Además, se relaciona con otras actividades del quehacer humano, formando un
sistema cuya dinámica compleja se conoce como "desarrollo tecnológico". La
tecnología se relaciona con los propósitos del ser humano, sus aspiraciones y sus
valores; en muchas ocasiones es el instrumento para su logro(4). El ser humano ha
aspirado siempre a extender y ampliar sus capacidades intrínsecas: ver más, mejor
y más lejos, de donde surgen instrumentos (lentes, anteojos, telescopios,
microscopios); la extensión de su movimiento (caballos, trenes, aviones); la
ampliación de las funciones cerebrales (libros, calculadoras, computadores); la
reducción de los riesgos (defensa contra el frío, las inundaciones, el hambre, las
enfermedades), por ejemplo. La tecnología, como expresión de creatividad, se
relaciona con propósitos, anhelos y valores: extiende la capacidad humana y
elimina o reduce los riesgos.

La exuberancia y virtuosismo de la tecnología y, por ende, del desarrollo


tecnológico nos lleva a formular algunas cuestiones: ¿para qué crear? ¿Para qué
ampliar y extender las capacidades humanas? ¿Hasta qué punto? ¿Para qué
eliminar los riesgos? No siempre es bueno ni moral el crecimiento. No olvidemos
que el cáncer es un crecimiento celular incontrolado: ¿no podría sucedernos lo
mismo con el crecimiento tecnológico?
Al mismo tiempo que la tecnología amplía las posibilidades de vida, plantea una
serie de responsabilidades y de problemas que están lejos de haber sido resueltos
filosófica, legal o políticamente(5). Como consecuencia del desarrollo técnico se
establece una nueva división del trabajo y comenzamos a ser expertos en nuestro
oficio, piezas sustituibles en el engranaje social, pero con la obligación de tomar
decisiones que tienen implicaciones bioéticas muy vastas. Al decidir, casi siempre
tenemos un conocimiento experto del problema, pero sin tiempo ni lugar para
reflexionar sobre sus alcances. De aquí la necesidad de una formación en bioética.

Los juicios de Nürenberg establecieron de forma contundente (aunque desde el lado


vencedor) que el cumplimiento del deber no excluye la responsabilidad ética. Esta
doctrina extendida al trato médico de poblaciones segregadas, como en el caso
Tuskegee(6), llevó a acuñar el término bioética en 1970(7,8), referido a una
preocupación central acerca del ser humano y su entorno, el cuidado de otras
especies, ecosistemas y el equilibrio de la vida en el planeta. Para Ruy Pérez
Tamayo(9) la bioética nació como un puente entre la biología y la filosofía, pero
incluye también la ecología, la medicina y la antropología, y busca un lenguaje
común entre todas ellas. Con un alcance más amplio, el mismo Potter concibió a la
bioética como un puente entre la ciencia y las humanidades, concepto cuya
fertilidad y profundo significado lo hacen hoy tan evidente y necesario.

¿Cuántos profesionales de la salud necesitan, antes de emitir un diagnóstico, una


serie de estudios, gráficos y números obtenidos en equipos de varia complejidad
tecnológica, y olvidan la importancia de la palpación, el ojo clínico o el semblante
de los pacientes? Quien haya estado alguna vez internado en un hospital moderno
se habrá sentido más atendido por aparatos y sensores electrónicos que por
personal médico o paramédico. ¿Ha enfermado la medicina? Estos hechos deben
llevarnos a reflexionar sobre las implicaciones éticas de la ciencia y de la
tecnología.

La tecnología permea e interviene en multitud de actividades relacionadas con


nuestra manera de vivir (desde el momento de la fecundación hasta la prolongación
de la vida, como examinaremos más adelante) y es importante que su uso -y no su
abuso- conduzca a una mejor vida, objeto de la bioética, pues, como se ha dicho,
su razón de ser es evitar que su avance incontrolado arrase con los principios y
valores del ser humano(10).

3. Biotecnología. Sistemas tecnocientíficos. Transgénicos

La segunda mitad del siglo XX estuvo marcada por el surgimiento y crecimiento de


los sistemas tecno-científicos: la investigación nuclear, la espacial, la informática,
las telecomunicaciones, la telemática y en especial la biotecnología(11).Un sistema
tecnocientífico se crea cuando alguien (singular o colectivamente) intencionalmente
(planeación), mediante técnicas apropiadas, transforma un objeto concreto y
produce artefactos(12,13). Siguiendo a Olivé podemos decir que en todo sistema
tecnocientífico cabe distinguir: (a) agentes intencionales que persiguen un fin, (b)
objetos que se transforman, (c) técnicas de manipulación de los objetos y (d)
resultados en forma de artefactos. Las técnicas son sistemas de habilidades y
reglas que conducen a la solución de problemas y, por tanto, cambian de acuerdo
con el problema propuesto; pueden ser habilidades materiales o intelectuales, como
técnicas matemáticas, de cómputo, etc. Los artefactos suelen ser el resultado de
las transformaciones de otros objetos concretos, pero no siempre son un resultado
previsto y deliberado. Por ejemplo, el adelgazamiento de la capa de ozono es un
artefacto no intencionalmente buscado, resultado del uso indebido de compuestos
que contienen clorofluorocarburos (CFC) utilizados como base en aerosoles.

Los transgénicos son organismos modificados genéticamente; son objetos


biotecnológicos, por tanto, son artefactos con vida creados con técnicas de
manipulación biológica. Han existido transgénicos a lo largo de toda la historia: el
cruce de los animales (asno-caballo), injertos de unas variedades de vegetales en
otras para lograr mejor rendimiento u obtener variedades resistentes. Sin embargo,
el caso reviste características y problemas nuevos cuando las posibilidades de
producción de transgénicos -como consecuencia de la fusión del conocimiento
científico y la tecnología han aumentado casi sin límites y sus consecuencias no son
totalmente previsibles.

La biotecnología es un sistema de espectro muy amplio que va desde las vacunas


hasta la clonación de especies animales. Las variedades vegetales transgénicas son
sólo un aspecto muy pequeño de ese gran panorama y si se ha suscitado un debate
nacional e internacional es debido a que con un conocimiento incompleto se trata
de obtener leyes universales de comportamiento y aquellas ideologías de los
diferentes grupos involucrados no encuentran un terreno común de acuerdo. La
actitud no puede consistir en oponerse rotundamente al proceso, pero sí estar
alertas a posibles consecuencias desagradables que pudieran surgir al utilizar
transgénicos.

En junio de 2005, un informe de la Organización Mundial de la Salud (OMS) señaló


que no sólo no se han encontrado indicios de que los transgénicos sean nocivos
para la salud, sino que pueden ayudar a mejorarla; sugiere que se sigan haciendo
evaluaciones desde un punto de vista social y cultural. Por otra parte, Greenpeace y
otras organizaciones no gubernamentales se aferran al punto de vista opuesto y
abogan contra todo uso de transgénicos, su importación y hasta su posible ensayo.

¿Cómo evaluar los sistemas biotecnológicos y sus artefactos, y las consecuencias


que generan, cuando éstos afectan intereses de diversos sectores de la sociedad?
¿Cómo manejar estos problemas en una sociedad contemporánea que aspira a vivir
democráticamente?(14).

La discusión bioética con relación a los sistemas biotecnológicos debe hacerse de


manera transparente, con abundante información y, hasta donde ello sea posible,
desprejuiciada y al margen de intereses particulares, de tal modo que los acuerdos
sean éticamente justificables.

4. Las tecnologías de la reproducción

Las técnicas utilizadas en la reproducción humana merecen consideración especial


porque tienen una amplia perspectiva de aplicación médica, ofrecen facetas
bioéticas singulares y se está muy lejos de un consenso en cuanto a su uso y
legitimidad. Nuestra generación posee un conocimiento que no tuvieron
generaciones anteriores acerca de cómo ocurre la concepción humana y cómo se
interrumpe. Con esta información la humanidad puede intervenir en su propia
reproducción: técnicas simples de fertilización in vitro pueden evitar muchos de los
problemas iniciales de la concepción; los embriones pueden ser conservados
criogénicamente; se pueden donar gametos y embriones, y existe la posibilidad, a
través de la investigación y el desarrollo de nuevas técnicas, de descubrir y corregir
mal formaciones del nuevo ser en el embrión mismo(15).

El desarrollo de estas tecnologías conduce a situaciones en que una persona o


grupo de personas adquiere un rol que siempre hemos atribuido a Dios. Los puntos
de vista éticos ante la fertilización in vitro son diferentes entre judíos, musulmanes
y cristianos, y aun en un mismo país y en la misma cultura, entre diferentes
asociaciones científicas y profesionales: se presentan como antagónicos el derecho
a la vida y el derecho a elegir.

Lo cierto es que por primera vez en la historia de la humanidad se puede, mediante


el uso de la ciencia y de la tecnología, resolver el ancestral problema de infertilidad
y satisfacer el anhelo de asegurar la descendencia que tiene casi todo ser humano.
Las situaciones legales y sociales, sin olvidar las religiosas, que aparecen como
consecuencia del uso y difusión de las tecnologías de la reproducción humana son
muy variadas y singulares.

El solo tema del "parentesco por encargo" suscita otra serie de cuestiones de
carácter legal y ético, que comienzan a plantearse en las cortes de justicia y para
las cuales aún no existe jurisprudencia. Nos encontramos con que la tecnología
extiende las posibilidades existenciales pero, al mismo tiempo, origina una serie de
responsabilidades que filosófica, legal o políticamente no están resueltas. El que
desarrolla la tecnología y no sólo el que la aplica debe reflexionar sobre sus
implicaciones.

La manipulación del material genético preembriónico crea otros problemas bioéticos


relacionados con el aborto, y ello llevaría al enfrentamiento con los grupos pro vida.
El punto de vista cristiano es que existe la persona desde el momento mismo de la
concepción y que, por lo tanto, el embrión debe considerarse como sagrado. Paul
Badham(16), clérigo anglicano (Chair of Religión and Ethics de St.David´s
University College de la Universidad de Gales, U.K.) analiza esta posición frente a la
Biblia, la tradición de la Iglesia y los requerimientos de un razonamiento cristiano,
llegando a la conclusión de que no existe un fundamento adecuado para lo que ha
dado en llamarse "posición cristiana" ante el aborto y la manipulación genética.

5. Neuroética(17, 18)

Se han explorado algunos sistemas tecnocientíficos construidos a partir de la


ingeniería genética y se especula acerca de las posibilidades terapéuticas que
ofrece la manipulación de genes: prevención de enfermedades asociadas con genes
específicos del código genético, los cuales podrían ser bloqueados en sus efectos y
con ello evitarlas. La fantasía se desborda cuando se asocia la manipulación con el
logro de una descendencia diseñada de acuerdo con patrones de color, tamaño,
inteligencia, etc. En todas estas especulaciones están ausentes las consideraciones
bioéticas y parecen olvidarse también los fundamentos genéticos de la evolución
humana.

Sin embargo, no paran aquí las tribulaciones. Cuando se considera posible afectar,
como ya empieza a serlo mediante manipulación genética y neurotecnologías
apropiadas, el funcionamiento del cerebro y con ello la conciencia, último reducto
de la personalidad humana, es razonable que surja un nuevo campo de estudio
acerca de las posibles consecuencias de estos procesos, conocido como
"neuroética", y cuyo propósito es el estudio y consideración de los beneficios y
peligros asociados a la investigación moderna del cerebro y, por extensión, las
implicaciones sociales, legales y éticas que resultan del tratamiento y/o
manipulación de la mente.

Las tecnologías actuales derivadas de las neurociencias, el desarrollo de nuevos y


poderosos fármacos y la utilización de técnicas de resonancia magnética para la
detección y alteración de los estados neuronales, están dando origen a problemas
éticos novedosos que trascienden el ámbito de la bioética. Estas técnicas de
tratamiento y manipulación del cerebro y los estados mentales asociados
constituyen lo que se conoce como "neurotecnologías".

Las neurociencias traen aparejados nuevos problemas bioéticos, cuya naturaleza los
hace particularmente complejos y dignos de especial consideración. Sin entrar en el
problema de entender cómo nuestros cerebros llegan a juicios morales y éticos, hay
un conjunto de cuestiones que pertenecen a la neuroética como, por ejemplo, los
planteados por Michael S. Gazzaniga en su libro "The Ethical Brain"(19). Gazzaniga
pregunta ¿es técnicamente posible escoger los genes de la inteligencia? Y en caso
de serlo, ¿determinan estos genes por sí solos la inteligencia? ¿Es ético este tipo de
manipulación? El autor no descarta una no lejana posibilidad de alterar la
personalidad y la inteligencia a través de la manipulación genética, a pesar de que
ser persona depende también de la influencia de los demás y del azar. Se necesita
no sólo cierta organización genética para ser un profesional brillante, un atleta o un
músico; se requieren muchas horas de práctica y apoyo social. Sin embargo,
¿seremos lo suficientemente inteligentes para no manipular los genes de la
inteligencia más allá de lo que la evolución de la especie humana determina?

6. Conclusión

Aunque sólo se han explorado aquí algunos sistemas tecnocientíficos, puede ya


entenderse el tamaño y la complejidad de los problemas asociados al desarrollo de
nuevas tecnologías y al avance científico en general. El viejo esquema lineal de la
relación "ciencia-tecnología-sociedad-bienestar humano" resulta ser ahora un
esquema teórico y en el mejor de los casos histórico, pues no sirve para describir la
situación actual. De ahí que concebir la ciencia y tecnología actuales como
valorativamente neutras sea no solamente falso sino incluso peligroso: no puede
seguirse educando a las nuevas generaciones de científicos y tecnólogos al margen
de las implicaciones éticas de su actividad.

No se podrá negar que la ciencia y la tecnología han contribuido enormemente para


mejorar la vida de los seres humanos, pero si se analizan estos resultados en el
sentir y humor de la gente pareciera que no todo ha sido para felicidad humana.
Los valores y metas de la sociedad postindustrial difieren notablemente de los de
hace dos o tres generaciones, estableciéndose la "brecha generacional" con muy
poca comunicación por lo que respecta a los valores. La nueva cultura con base
tecnológica está para quedarse y avanzar del lado técnico. Los que han probado
alguna vez el desarrollo tecnológico tardan en reaccionar ante sus otras
consecuencias. Lo que se puede es repensar la tecnología en un mundo centrado en
lo humano.

Volviendo a Sarewitz, la mitología alternativa que propone se basa en:

- Tratar de aumentar la diversidad, especialmente en la cúpula, entre la comunidad


que lleva a cabo la investigación científica y el desarrollo tecnológico.

- Tomar en cuenta el elemento humano al dirigir y controlar el crecimiento y la


productividad.

- Crear mecanismos (brokers) honestos de intermediación entre el laboratorio y la


arena política, que ayuden a crear y mantener armonía, flujo de información y
expectativas.
- Crear vías democráticas amplias para la participación pública en la toma de
decisiones sobre ciencia y tecnología.

- Procurar un enfoque global que se centre en la sustentabilidad más que en el


crecimiento ilimitado.

Esta nueva mitología apunta hacia una política democrática en la toma de


decisiones en relación con la ciencia y la tecnología, controlando el poder de los
expertos que en ocasiones es excesivo y se contrapone al poder de decisión de los
afectados. ¿Se logrará este objetivo? Hasta ahora los hechos parecen decir lo
contrario, pero quizá la inminencia de la catástrofe obligue a comprenderlo y
lograrlo.

CRIPTOGRAFIA
La criptografía es un método de protección de la información y las
comunicaciones mediante el uso de códigos que permite que solo aquellos a
quienes está destinada la información puedan leerla y procesarla. El término se
deriva de la palabra griega kryptos, donde el prefijo "cripta-" significa "oculto" -
y el sufijo "-grafía" significa "escritura".

¿Qué es la criptografía en seguridad?


La definición de criptografía nos dice que es el estudio de técnicas de
comunicaciones seguras que permiten que solo el remitente y el destinatario
previsto de un mensaje vean su contenido.

Los criptógrafos protegen los sistemas informáticos y de tecnología de la información


mediante la creación de algoritmos y códigos para cifrar los datos. A menudo
también llevan a cabo las tareas de un criptoanalista, descifrando algoritmos y
descodificando texto para descifrar información.

¿Cuáles son los cuatro pilares de la criptografía?

Esta disciplina gira alrededor de la protección de cuatro pilares: físico,


datos, procesos y arquitectura del sistema. Lo consigue gracias al uso de
herramientas específicas.

¿Qué son las herramientas criptográficas?

El token de seguridad o el token de autenticación es el que se considera


herramienta de criptografía. Usando el token de seguridad, se puede
autenticar al usuario. También se utiliza para proporcionar estado al protocolo
HTTP. El token de seguridad debe estar cifrado para permitir el intercambio
seguro de datos.

¿Cuáles son los tres tipos de criptografía?


Existen tres tipos de criptografía: clave secreta, clave pública y función
hash. Vamos a ver en qué consiste cada uno de ellos:

 Criptografía de clave secreta: utiliza una única clave tanto para el


cifrado como para el descifrado; también llamado cifrado simétrico. Se
utiliza principalmente para la privacidad y la confidencialidad.
 Criptografía de clave pública: utiliza una clave para el cifrado y otra
para el descifrado. A este método se le conoce como cifrado asimétrico.
Se utiliza principalmente para autenticación e intercambio de claves.
 Funciones hash: emplea una transformación matemática para "cifrar" la
información de forma irreversible, proporcionando una huella digital. Se
utiliza principalmente para la integridad de los mensajes.

¿Cómo se usa la criptografía en el día a día


La criptografía en la vida cotidiana aparece en una serie de situaciones en las
que el uso de un conjunto de técnicas de este tipo facilita la prestación de un
servicio seguro. Esta disciplina se pone al servicio de la protección del usuario
cuando procede al retiro de efectivo de un cajero automático, renueva un
contrato con su proveedor de servicios de entretenimiento, utiliza el
almacenamiento de archivos online o el correo electrónico mediante algún
software gratuito. Resulta imprescindible también para una navegación web
segura y para el uso de cualquier dispositivo móvil conectado.

Hoy en día, la criptografía se utiliza para mantener seguro en línea


material sensible, como puede ser las contraseñas privadas. Los expertos en
ciberseguridad recurren a la criptografía para diseñar algoritmos, cifrados y
otras medidas de seguridad que codifican y protegen los datos de la empresa y
los clientes.

BIG DATA

Big Data: ¿En qué consiste?


Su importancia, desafíos y
gobernabilidad
Big Data es un término que describe el gran volumen de datos, tanto
estructurados como no estructurados, que inundan los negocios cada
día. Pero no es la cantidad de datos lo que es importante. Lo que importa con
el Big Data es lo que las organizaciones hacen con los datos. Big Data se
puede analizar para obtener ideas que conduzcan a mejores decisiones y
movimientos de negocios estratégicos.
. ¿Qué es Big Data?
Cuando hablamos de Big Data nos referimos a conjuntos de datos o
combinaciones de conjuntos de datos cuyo tamaño (volumen),
complejidad (variabilidad) y velocidad de crecimiento (velocidad)
dificultan su captura, gestión, procesamiento o análisis mediante
tecnologías y herramientas convencionales, tales como bases de
datos relacionales y estadísticas convencionales o paquetes de visualización,
dentro del tiempo necesario para que sean útiles.

Aunque el tamaño utilizado para determinar si un conjunto de datos


determinado se considera Big Data no está firmemente definido y sigue
cambiando con el tiempo, la mayoría de los analistas y profesionales
actualmente se refieren a conjuntos de datos que van desde 30-50
Terabytes a varios Petabytes.

La naturaleza compleja del Big Data se debe principalmente a la


naturaleza no estructurada de gran parte de los datos generados por las
tecnologías modernas, como los web logs, la identificación por
radiofrecuencia (RFID), los sensores incorporados en dispositivos, la
maquinaria, los vehículos, las búsquedas en Internet, las redes sociales como
Facebook, computadoras portátiles, teléfonos inteligentes y otros teléfonos
móviles, dispositivos GPS y registros de centros de llamadas.

En la mayoría de los casos, con el fin de utilizar eficazmente el Big Data,


debe combinarse con datos estructurados (normalmente de una base de
datos relacional) de una aplicación comercial más convencional, como un ERP
(Enterprise Resource Planning) o un CRM (Customer Relationship
Management).

2. ¿Por qué el Big Data es tan


importante?
Lo que hace que Big Data sea tan útil para muchas empresas es el hecho
de que proporciona respuestas a muchas preguntas que las empresas ni
siquiera sabían que tenían. En otras palabras, proporciona un punto
dereferencia. Con una cantidad tan grande de información, los datos pueden
ser moldeados o probados de cualquier manera que la empresa considere
adecuada. Al hacerlo, las organizaciones son capaces de identificar los
problemas de una forma más comprensible.

La recopilación de grandes cantidades de datos y la búsqueda de


tendencias dentro de los datos permiten que las empresas se muevan
mucho más rápidamente, sin problemas y de manera eficiente. También
les permite eliminar las áreas problemáticas antes de que los problemas
acaben con sus beneficios o su reputación.
El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos
y utilizarlos para identificar nuevas oportunidades. Eso, a su vez, conduce
a movimientos de negocios más inteligentes, operaciones más eficientes,
mayores ganancias y clientes más felices. Las empresas con más éxito con Big
Data consiguen valor de las siguientes formas:

 Reducción de coste. Las grandes tecnologías de datos, como Hadoop


y el análisis basado en la nube, aportan importantes ventajas en
términos de costes cuando se trata de almacenar grandes cantidades de
datos, además de identificar maneras más eficientes de hacer negocios.

 Más rápido, mejor toma de decisiones. Con la velocidad de Hadoop y


la analítica en memoria, combinada con la capacidad de analizar nuevas
fuentes de datos, las empresas pueden analizar la
informacióninmediatamente y tomar decisiones basadas en lo que han
aprendido.
 Nuevos productos y servicios. Con la capacidad de medir las
necesidades de los clientes y la satisfacción a través de análisis viene el
poder de dar a los clientes lo que quieren. Con la analítica de Big Data,
más empresas están creando nuevos productos para satisfacer las
necesidades de los clientes.

Por ejemplo:

 Turismo: Mantener felices a los clientes es clave para la industria del


turismo, pero la satisfacción del cliente puede ser difícil de medir,
especialmente en el momento oportuno. Resorts y casinos, por ejemplo,
sólo tienen una pequeña oportunidad de dar la vuelta a una mala
experiencia de cliente. El análisis de Big data ofrece a estas empresas la
capacidad de recopilar datos de los clientes, aplicar análisis e identificar
inmediatamente posibles problemas antes de que sea demasiado tarde.
 Cuidado de la salud: El Big Data aparece en grandes cantidades en la
industria sanitaria. Los registros de pacientes, planes de salud,
información de seguros y otros tipos de información pueden ser difíciles
de manejar, pero están llenos de información clave una vez que se
aplican las analíticas. Es por eso que la tecnología de análisis de datos
es tan importante para el cuidado de la salud. Al analizar grandes
cantidades de información - tanto estructurada como no estructurada -
rápidamente, se pueden proporcionar diagnósticos u opciones de
tratamiento casi de inmediato.
 Administración: La administración se encuentra ante un gran desafío:
mantener la calidad y la productividad con unos presupuestos ajustados.
Esto es particularmente problemático con lo relacionado con la justicia.
La tecnología agiliza las operaciones mientras que da a la
administración una visión más holística de la actividad.

 Retail: El servicio al cliente ha evolucionado en los últimos años, ya que


los compradores más inteligentes esperan que los minoristas
comprendan exactamente lo que necesitan, cuando lo necesitan. El Big
Dataayuda a los minoristas a satisfacer esas demandas. Armados con
cantidades interminables de datos de programas de fidelización de
clientes, hábitos de compra y otras fuentes, los minoristas no sólo tienen
una comprensión profunda de sus clientes, sino que también pueden
predecir tendencias, recomendar nuevos productos y aumentar la
rentabilidad.
 Empresas manufactureras: Estas despliegan sensores en sus
productos para recibir datos de telemetría. A veces esto se utiliza para
ofrecer servicios de comunicaciones, seguridad y navegación. Ésta
telemetría también revela patrones de uso, tasas de fracaso y otras
oportunidades de mejora de productos que pueden reducir los costos de
desarrollo y montaje.
 Publicidad: La proliferación de teléfonos inteligentes y otros dispositivos
GPS ofrece a los anunciantes la oportunidad de dirigirse a los
consumidores cuando están cerca de una tienda, una cafetería o un
restaurante. Esto abre nuevos ingresos para los proveedores de
servicios y ofrece a muchas empresas la oportunidad de conseguir
nuevos prospectos.
 Otros ejemplos del uso efectivo de Big Data existen en las siguientes
áreas:
o Uso de registros de logs de TI para mejorar la resolución de problemas
de TI, así como la detección de infracciones de seguridad, velocidad,
eficacia y prevención de sucesos futuros.
o Uso de la voluminosa información histórica de un Call Center de
forma rápida, con el fin de mejorar la interacción con el cliente y
aumentar su satisfacción.
o Uso de contenido de medios sociales para mejorar y comprender más
rápidamente el sentimiento del cliente y mejorar los productos, los
servicios y la interacción con el cliente.
o Detección y prevención de fraudes en cualquier industria que procese
transacciones financieras online, tales como compras, actividades
bancarias, inversiones, seguros y atención médica.
o Uso de información de transacciones de mercados financieros para
evaluar más rápidamente el riesgo y tomar medidas correctivas.

3. Desafíos de la calidad de datos en


Big Data
Las especiales características del Big Data hacen que su calidad de datos se
enfrente a múltiples desafíos. Se trata de las conocidas como 5 Vs: Volumen,
Velocidad, Variedad, Veracidad y Valor, que definen la problemática del Big
Data.

Estas 5 características del big data provocan que las empresas


tengan problemas para extraer datos reales y de alta calidad, de conjuntos
de datos tan masivos, cambiantes y complicados.
Accede GRATIS al Webinar sobre calidad de datos en el mundo Big Data

Hasta la llegada del Big Data, mediante ETL podíamos cargar la información
estructurada que teníamos almacenada en nuestro sistema ERP y CRM, por
ejemplo. Pero ahora, podemos cargar información adicional que ya no se
encuentra dentro de los dominios de la empresa: comentarios o likes en
redes sociales, resultados de campañas de marketing, datos estadísticos
de terceros, etc. Todos estos datos nos ofrecen información que nos ayuda a
saber si nuestros productos o servicios están funcionando bien o por el
contrario están teniendo problemas.

Algunos desafíos a los que se enfrenta la calidad de datos de Big Data son:

1. Muchas fuentes y tipos de datos


Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de
integración de datos aumenta.

Las fuentes de datos de big data son muy amplias:

 Datos de internet y móviles.


 Datos de Internet de las Cosas.
 Datos sectoriales recopilados por empresas especializadas.
 Datos experimentales.

Y los tipos de datos también lo son:

1. Tipos de datos no estructurados: documentos, vídeos, audios, etc.


2. Tipos de datos semi-estructurados: software, hojas de cálculo,
informes.
3. Tipos de datos estructurados

Solo el 20% de información es estructurada y eso puede provocar muchos


errores si no acometemos un proyecto de calidad de datos.

2. Tremendo volumen de datos


Como ya hemos visto, el volumen de datos es enorme, y eso complica la
ejecución de un proceso de calidad de datos dentro de un tiempo
razonable.

Es difícil recolectar, limpiar, integrar y obtener datos de alta calidad de forma


rápida. Se necesita mucho tiempo para transformar los tipos no
estructurados en tipos estructurados y procesar esos datos.

3. Mucha volatilidad
Los datos cambian rápidamente y eso hace que tengan una validez muy
corta. Para solucionarlo necesitamos un poder de procesamiento muy
alto.

Si no lo hacemos bien, el procesamiento y análisis basado en estos datos


puede producir conclusiones erróneas, que pueden llevar a cometer
errores en la toma de decisiones.

4. No existen estándares de calidad de datos


unificados
En 1987 la Organización Internacional de Normalización (ISO) publicó las
normas ISO 9000 para garantizar la calidad de productos y servicios. Sin
embargo, el estudio de los estándares de calidad de los datos no comenzó
hasta los años noventa, y no fue hasta 2011 cuando ISO publicó las normas
de calidad de datos ISO 8000.

Estas normas necesitan madurar y perfeccionarse. Además, la investigación


sobre la calidad de datos de big data ha comenzado hace poco y no hay
apenas resultados.

La calidad de datos de big data es clave, no solo para poder obtener ventajas
competitivas sino también impedir que incurramos en graves errores
estratégicos y operacionales basándonos en datos erróneos con
consecuencias que pueden llegar a ser muy graves.

¿Quieres implementar un proyecto de Big Data?


Consulta con un experto para lograr que tu iniciativa en Big Data tenga éxito

4. Cómo construir un plan de Data


Governance en Big data
Gobernabilidad significa asegurarse de que los datos estén autorizados,
organizados y con los permisos de usuario necesarios en una base de
datos, con el menor número posible de errores, manteniendo al mismo
tiempo la privacidad y la seguridad.

Esto no parece un equilibrio fácil de conseguir, sobre todo cuando la realidad


de dónde y cómo los datos se alojan y procesan está en constante movimiento.

A continuación veremos algunos pasos recomendados al crear un plan de Data


Governance en Big Data.

1. Acceso y Autorización Granular a Datos


No se puede tener un gobierno de datos efectivo sin controles granulares.
Se pueden lograr estos controles granulares a través de las expresiones de
control de acceso. Estas expresiones usan agrupación y lógica booleana para
controlar el acceso y autorización de datos flexibles, con permisos basados en
roles y configuraciones de visibilidad.

En el nivel más bajo, se protegen los datos confidenciales, ocultándolos,


y en la parte superior, se tienen contratos confidenciales para científicos
de datos y analistas de BI. Esto se puede hacer con capacidades
de enmascaramiento de datos y diferentes vistas donde se bloquean los datos
en bruto tanto como sea posible y gradualmente se proporciona más acceso
hasta que, en la parte superior, se da a los administradores una mayor
visibilidad.

Se pueden tener diferentes niveles de acceso, lo que da una seguridad más


integrada.

2. Seguridad perimetral, protección de datos y


autenticación integrada
La gobernabilidad no ocurre sin una seguridad en el punto final de la
cadena. Es importante construir un buen perímetro y colocar un
cortafuegos alrededor de los datos, integrados con los sistemas y
estándares de autenticación existentes. Cuando se trata de autenticación,
es importante que las empresas se sincronicen con sistemas probados.

Con la autenticación, se trata de ver cómo integrarse con LDAP [Lightweight


Directory Access Protocol], Active Directory y otros servicios de
directorio. También se puede dar soporte a herramientas como Kerberos para
soporte de autenticación. Pero lo importante es no crear una infraestructura
separada, sino integrarla en la estructura existente.

3. Encriptación y Tokenización de Datos


El siguiente paso después de proteger el perímetro y autenticar todo el acceso
granular de datos que se está otorgando es asegúrese de que los archivos y
la información personalmente identificable (PII) estén encriptados y
tokenizados de extremo a extremo del pipeline de datos.

Una vez superado el perímetro y con acceso al sistema, proteger los datos de
PII es extremadamente importante. Es necesario encriptar esos datos de
forma que, independientemente de quién tenga acceso a él, puedan
ejecutar los análisis que necesiten sin exponer ninguno de esos datos.

4. Constante Auditoría y Análisis


La estrategia no funciona sin una auditoría. Ese nivel de visibilidad y
responsabilidad en cada paso del proceso es lo que permite a la TI
"gobernar" los datos en lugar de simplemente establecer políticas y
controles de acceso y esperar lo mejor. También es cómo las empresas
pueden mantener sus estrategias actualizadas en un entorno en el que la forma
en que vemos los datos y las tecnologías que utilizamos para administrarlos y
analizarlos están cambiando cada día.

Estamos en la infancia de Big Data e IoT (Internet de Cosas), y es


fundamental poder rastrear el acceso y reconocer patrones en los datos.

La auditoría y el análisis pueden ser tan simples como el seguimiento de los


archivos de JavaScript Object Notation (JSON).

5. Una arquitectura de datos unificada


En última instancia, el responsable de TI que supervisar la estrategia de
administración de datos empresariales, debe pensar en los detalles del
acceso granular, la autenticación, la seguridad, el cifrado y la auditoría.
Pero no debe detenerse ahí. Más bien debe pensar en cómo cada uno de
estos componentes se integra en su arquitectura de datos global. También
debe pensar en cómo esa infraestructura va a necesitar ser escalable y
segura, desde la recolección de datos y almacenamiento hasta BI, analítica y
otros servicios de terceros. La gobernanza de los datos es tanto acerca de
repensar la estrategia y la ejecución como sobre la propia tecnología.

Va más allá de un conjunto de reglas de seguridad. Es una arquitectura única


en la que se crean estos roles y se sincronizan a través de toda la
plataforma y todas las herramientas que se aportan a ella.

BLOCKCHAIN

La tecnología Blockchain o cadena de bloques es uno


de los conceptos más innovadores y disruptivos de los
últimos años. Sin embargo a veces es complicado
entender ¿Qué es una blockchain? ¿Qué lo diferencia de
las criptomonedas? ¿Cómo funciona el Blockchain? ¿Qué
ventajas tiene? ¿Cómo funciona un nodo en la red?. No
te preocupes porque hemos elaborado esta completa
guía de qué es Blockchain y cómo funciona esta
tecnología para que no te quedes con ninguna duda.
¡Comenzamos!
¿Qué es Blockchain o cadena de bloques?
El Blockchain es una tecnología basada en una cadena
de bloques de operaciones descentralizada y
pública. Esta tecnología genera una base de datos
compartida a la que tienen acceso sus participantes, los
cuáles pueden rastrear cada transacción que hayan
realizado. Es como un gran libro de contabilidad
inmodificable y compartido que van escribiendo una
gran cantidad de ordenadores de forma simultánea.

Cada vez que algún miembro de la red realiza una


transacción digital, dicha transacción genera unos
datos asociados que quedaran almacenados en uno de
los bloques. Cuando ese bloque está completo de
información, el bloque se acopla a la cadena de bloques
ya existente o blockchain.

La información que se almacena en dicha red dependerá


del propósito para el que haya sido creada. Puede
tratarse de una red que almacene datos de pago
(moneda criptográfica o criptomonedas), información
médica, datos logísticos o de trazabilidad de alimentos e
inclusive recuento de datos electorales.

La diferencia que hay entre blockchain y una red


centralizada (un servidor tradicional que almacena
datos) es que la red de blockchain se ejecuta en
múltples ordenadores distribuidos por todo el mundo y
no en un sitio único. Esto hace que la red blockchain
presente una serie de ventajas como la privacidad,
descentralización o no dependencia de un ejecutor
centralizado o la seguridad. Sin embargo presenta una
serie de retos que valoraremos más adelante en el
apartado de ventajas y desventajas.

El carácter programable y abierto de esta tecnología


permite innovar el sector financiero y los procesos
administrativos para que sean más eficientes y
transparentes. Además, la burocracia se disminuye. El
Blockchain es la tecnología que desarrolló el Bitcoin, la
criptodivisa virtual e intangible que se sustenta por el
protocolo y la red P2P.

En definitiva, con Blockchain los procesos se agilizan y


se abaratan, las transacciones son más transparentes y
se eliminan los intermediarios.

¿Cómo funciona la Tecnología


Blockchain?
La cadena de bloques es un registro de todas las
transacciones, almacenadas y compartidas de forma
pública. Los llamados mineros se encargan de verificar
esas transacciones. Tras ello, se incluyen en la cadena y
se distribuyen a los nodos que forman la red.

eamos en qué consiste cada uno de estos elementos:

1#Bloques

Un bloque está constituido por un conjunto de


transacciones. Cada uno forma parte de la cadena de
bloques. La compañía Bit2me, especializada en el
Bitcoin y su tecnología, define cada una de las partes
que conforman un bloque:

 Un código alfanumérico que enlaza con el bloque


anterior.
 El “paquete” de transacciones que incluye (cuyo
número viene determinado por diferentes factores).
 Otro código alfanumérico que enlazará con el
siguiente bloque.

El siguiente bloque en progreso lo que intenta es


averiguar con cálculos el código alfanumérico que
permitía al anterior bloque enlazarse a éste.

2# Mineros
Los mineros son ordenadores/chips que se encargan
de verificar todas las transacciones. Cuando alguien
completa un bloque o realiza una transacción, recibe una
recompensa en forma de Bitcoins.

3# Nodos

Un nodo es un ordenador/chip que está conectado a la


red Bitcoin. Se dedica a almacenar y distribuir una copia
actualizada de la cadena de bloques. Por lo tanto, cada
bloque nuevo que se confirma se añade a la cadena de
bloques y a la copia que cada nodo almacena.

ipos de Blockchain
La tecnología blockchain ha evolucionado a pasos
agigantados durante los últimos 10 años y la potente
capacidad de innovación en procedimientos de
documentación y almacenamiento de datos no pasó
desapercibida para gobiernos y empresas del ámbito
privado. Es por eso que estas también han querido
implementar redes blockchain privadas (con acceso
restringido).

Vamos a repasar los diferentes tipos de blockchains que


existen en relación con dónde se ejecuta y quién tiene
acceso a la misma.

Blockchain pública

Estos son los ejemplos mejor conocidos como son el


caso de Bitcoin y Ethereum. Al ser públicas significa que
son accesibles para cualquier usuario del mundo (sólo
necesitan un ordenador y una conexión a internet). La
contrapartida de una blockchain pública es la gestión de
la seguridad de la misma, pues cuanto mayor sea el
número de usuarios mayor nivel de seguridad
necesitaremos. Es aquí donde entran en juego los
protocolos de consenso y medidas de seguridad que
veremos más adelante.
Blockchain privada

Las blockchain privadas de caracterizan porque, a


diferencia de las públicas, el acceso a la misma depende
de una unidad central (empresa, organización o
individuo). Los elementos son los mismos que en una
blockchain pública. Uno de los ejemplos de blockchains
privadas más conocidos es la red Hyperledger.

Cuando una red blockchain es privada (no es acceso


público) pero su acceso y control está en manos de un
grupo de empresas/individuos se conoce como
un consorcio blockchain.

En la siguiente imagen vemos los diferentes tipos de


blockchain que hemos comentado en un diagrama de
Venn donde vemos como se categorizan según el nivel
de privacidad.

Qué son los Smart Contracts


Una de las ventajas de las blockchains de 2º generación
como Ethereum es que son blockchains programables,
es decir, que nos permiten alojar en las blockchains
unas «instrucciones» o programas para ejecutar una
serie de instrucciones si se cumplen ciertas
condiciones.

A estos programas se les conoce como contratos


inteligentes o smart contracts. Por ejemplo podemos
alojar un contrato en el que se automatice el reparto de
una herencia una vez se haya cumplido la condición del
fallecimiento del propietario y emisor de dicho contrato.

Diferencias entre Bitcoin y Blockchain


Para aquellos que no conocen en profundidad el mundo
de estas tecnologías, puede llegar a ser confuso la
diferencia en un primer momento entre Blockchain y
Bitcoin e incluso poder hablar de las dos de forma
indistinta cuando no lo es.

Blockchain es la tecnología descentralizada que permite


almacenar información en forma de bloques de datos que
se disponen seguidamente en una cadena de bloques (de
ahí el nombre).

Una criptomoneda es una de las formas más reconocidas


de implementar una red blockchain (una red
descentralizada que registra transacciones) y el ejemplo
más conoido de una criptomoneda es Bitcoin.

Si quieres ampliar mayor información sobre las


criptomonedas, te dejamos este post sobre las
criptomonedas más grandes por capitalización de
mercado.

Ventajas y desventajas del Blockchain


Otra de sus razones de ser es reducir el fraude en las
operaciones. Todos los participantes tienen acceso a
las transacciones y se necesita un consenso de todos
para modificarlas. Esto genera confianza en los
negocios, algo que hasta ahora había sido difícil de
conseguir en la red. Además, al tratarse de una cadena
de bloques de operaciones pública, se protege la
seguridad de las transacciones ya que todas las
personas tienen acceso a una única fuente de confianza
compartida.

Una de las facilidades que aporta Blockchain es poder


realizar una transacción económica desde España a
cualquier país en un tiempo de entre cinco y diez
minutos. Pero también puede aplicarse, por ejemplo,
para financiar movimientos de “stock” o firmar
contratos inteligentes.

jemplos de Blockchains
1# Blockchain y su aplicación en el sector financiero

Esta tecnología ya se está aplicando en muchos


sectores, pero quiénes más la están explotando
actualmente son los bancos. Varios estudios aseguraron
en su momento que el 15% de los bancos y el 14% de
las entidades financieras contemplan introducir
soluciones y tecnologías Blockchain en 2017. Y se
prevé, que en 2020, un 20% de las compañías globales
integren esta tecnología. En realidad, lo que persiguen
los bancos es implementar tecnologías para poder
eliminar los intermediarios y la desconfianza en las
transacciones.

BBVA, Bankinter o Banco Santander son algunos de


los grandes bancos que han detectado una importante
fuente de inversión en la tecnología Blockchain. Están
empezando a instalar este sistema en sus transacciones,
con el objetivo de mejorar la seguridad de los procesos y
suprimir los costes que suponen las transacciones
tradicionales.

El Blockchain llega a las Pymes


Las pequeñas y medianas empresas representan cerca
del 75% del total de empresas que conforman la
economía española, según datos del Informe ePyme
2015: análisis sectorial de la implantación de las TIC en
las empresas españolas. Este dato demuestra que las
Pymes son un pilar fundamental de la industria
financiera de nuestro país, por lo que todas las
innovaciones tecnológicas que desarrollen tendrán un
impacto clave en el modelo de economía actual.

El informe Termómetro del middle market en


España revela que el 85% de los empresarios asegura
que la cifra de negocio de sus empresas aumentará y
sólo el 2% cree que bajarán las ventas. Esto sucede,
entre otros factores, porque las Pymes han detectado la
necesidad de pasar por un proceso de transformación
digital y, por lo tanto, de investigar caminos para abrir
nuevos modelos de negocio adaptados a la era digital.

Algunas startups están liderando la introducción de la


tecnología Blockchain. La utilizan como método para
descentralizar y que sean los usuarios quienes controlen
sus propios movimientos, sin necesidad de la
intervención de terceros.

Por ejemplo, Storj es una startup que ha desarrollado


una versión beta de un servicio que pemite crear
una base de datos descentralizada, utilizando la
tecnología Blockchain, para aumentar la seguridad. Para
entenderlo, sería como los servicios de almacenamiento
en la nube, como Dropbox o Google Drive, pero, a
diferencia de ellos, en este caso no hay un único
proveedor que responda por los datos que se almacenan.

Otra de las posibilidades que ofrece Blockchain es la


creación de Smart Contracts. Consiste en automatizar
los procesos de un negocio (pagos, proveedores,
abastecimiento…) mediante una máquina virtual que
almacena y gestiona la información. La máquina se
convierte en la persona que habla con los proveedores y
realiza los pagos. La startup española Clluc crea
plataformas para que las empresas tengan acceso a
estos Smart Contract

DERECHO DE LAS NUEVAS TECNOLOGIAS

Con siete artículos, este informe muestra cómo diferentes industrias podrían utilizar
¿Qué es el derecho a las nuevas tecnologías?

El derecho de las nuevas tecnologías, es aquel que regula las relaciones


entre los ciudadanos y que se basan fundamentalmente en el uso de
las nuevas tecnologías. Este derecho se aplica tanto desde el punto de vista
civil, mercantil, laboral o penal, por ejemplo la compra-venta a través de
Internet.
R

a Las nuevas tecnologías (NT) y las tecnologías de la información y la comunicación


(TIC) y la conciencia tecnológica de los juristas
En las últimas décadas, se ha difundido, con mayor intensidad que en cualquier época anterior,
la idea de que las nuevas tecnologías de la información y la comunicación (NT y TIC):
desplazamiento de personas, flujo de noticias e interdependencia de los procesos económicos,
han estrechado las relaciones entre las personas y los pueblos a escala planetaria. Es cierto
que, en periodos anteriores, existían ya algunos desarrollos e inventos científicos y técnicos
que habían supuesto una revolución al facilitar las comunicaciones y permitir una aproximación
en las formas de vida. Pero ha sido la era de la informática y de la telemática la que más
decisivamente ha contribuido a que se adquiriese la convicción de que el hábitat cívico de
nuestro momento histórico es el de la "aldea global" o, más exactamente, "el hogar global"; en
la medida en que con el acceso a Internet cada ciudadano puede establecer, sin salir de su
domicilio, una conversación en tiempo real, sin límites en el espacio ni en las personas.

"En las últimas décadas, se ha difundido la idea de que las nuevas tecnologías de la
información y la comunicación: desplazamiento de personas, flujo de noticias e
interdependencia de los procesos económicos, han estrechado las relaciones entre las
personas y los pueblos a escala planetaria"

El pensamiento jurídico, desde finales pasado siglo, no fue insensible a la urgencia de tomar
en serio la tarea de construir una teoría del derecho abierta, y responsablemente
comprometida con la respuesta a las nuevas necesidades y exigencias de los hombres que
viven en la era de la informática. Esa nueva coyuntura reclama de los juristas, los filósofos y los
teóricos del derecho una "consciencia tecnológica", término acuñado por Vittorio Frosini para
apelar a una actitud reflexiva, crítica y responsable ante los nuevos problemas que, en las
diversas esferas del acontecer social, suscita la tecnología, y ante los que ni el derecho, ni
quienes lo aplican o lo estudian pueden permanecer insensibles. Esa exigencia complica
sobremanera la labor de los operadores jurídicos y los teóricos del derecho, porque les obliga a
ampliar el angosto horizonte de las autorreferencias normativas, con la apertura hacia los
estímulos de la ciencia y la tecnología. Pero sólo mostrando sensibilidad a esa exigencia, la
teoría del derecho será capaz de responder a los retos de la sociedades tecnológicas que
inician la andadura del siglo XXI; lo que es tanto como decir que sólo en virtud de esa
"consciencia tecnológica" la teoría del derecho tendrá pleno sentido (Atienza, Denninger,
Losano, Pérez Luño, Westin y Baker ...).

El impacto tecnológico en el derecho: un nuevo marco disciplinar


Las repercusiones de la informática en el derecho están siendo cada vez más extensas e
intensas. Dar cuenta de todas ellas resulta una tarea prácticamente inviable, entre otras cosas,
por el carácter abierto y dinámico que reviste esa proyección. Baste pensar que, en el horizonte
tecnológico del presente, muchos de los problemas y de las soluciones jurídicas tradicionales
aparecen irremediablemente caducos. Esa nueva situación impele al pensamiento jurídico a
diseñar nuevos instrumentos de análisis y marcos conceptuales prontos para adaptarse a las
exigencias de una sociedad en transformación. Para responder a esas exigencias se han
forjado dos nuevas disciplinas. El derecho informático o derecho de la informática es una
materia inequívocamente jurídica, conformada por el sector normativo de los sistemas jurídicos
contemporáneos integrado por el conjunto de disposiciones dirigido a la regulación de las
nuevas tecnologías de la información y la comunicación, es decir, la informática y la telemática.
Mientras que la Informática jurídica tiene por objeto la aplicación de la tecnología de la
información al derecho. Es una disciplina bifronte en la que se entrecruzan una metodología
tecnológica con su objeto jurídico que, a su vez, condiciona las propias posibilidades o
modalidades de tal aplicación. La Informática jurídica estudia el tratamiento automatizado de:
las fuentes de conocimiento jurídico, a través de los sistemas de documentación legislativa,
jurisprudencial y doctrinal (Informática jurídica documental ); las fuentes de producción jurídica,
a través de la elaboración informática de los factores lógico-formales que concurren en el
proceso legislativo y en la decisión judicial (Informática jurídica decisional); y los procesos de
organización de la infraestructura o medios instrumentales con los que se gestiona el derecho
(Informática jurídica de gestión ). La Informática jurídica, el derecho informático, y los sectores
que los integran, constituyen, por tanto, una de las aportaciones más relevantes con que
cuenta la teoría del derecho para responder a los apremios de las sociedades tecnológicas
(Allen, Frosini, Losano, Pérez Luño, Sánchez-Mazas, Simitis, Susskind, Tapper...).

"La nueva situación impele al pensamiento jurídico a diseñar nuevos instrumentos de


análisis y marcos conceptuales prontos para adaptarse a las exigencias de una sociedad
en transformación"

La revolución tecnológica y el derecho


La revolución tecnológica ha redimensionado las relaciones del hombre con los demás
hombres, las relaciones entre el hombre y la naturaleza, así como las relaciones del ser
humano para consigo mismo. Estas mutaciones no han dejado de incidir en la esfera del
derecho.
1) En el plano de las relaciones interhumanas, la potencialidad de las modernas tecnologías de
la información ha permitido, por vez primera, establecer unas comunicaciones a escala
planetaria. Ello ha posibilitado que se adquiera consciencia universal de los peligros más
acuciantes que amenazan la supervivencia de la especie humana. El desarrollo actual de la
industria bélica sitúa a la humanidad ante la ominosa perspectiva de una hecatombe de
proporciones mundiales capaz de convertir nuestro planeta en un inmenso cementerio. De ahí,
que la temática de la paz haya adquirido un protagonismo indiscutible en el sistema de las
necesidades insatisfechas de los hombres y de los pueblos del último periodo de nuestra
historia colectiva.
Tampoco puede soslayarse que el contexto regulado por el Derecho es el de una sociedad
donde la informática ha devenido el símbolo emblemático de nuestra cultura, hasta el punto de
que para designar el marco de nuestra convivencia se alude reiteradamente a expresiones
tales como la "sociedad de la información", o a la "sociedad informatizada".
El control electrónico de los documentos de identificación, el proceso informatizado de datos
fiscales, educativos y médicos, el registro y gestión de las adquisiciones comerciales realizadas
con tarjetas de crédito, así como de las reservas de viajes, representan algunas muestras bien
conocidas de la omnipresente vigilancia informática de nuestra existencia habitual. Nuestra vida
individual y social corren, por tanto, el riesgo de hallarse sometidas a lo que se ha calificado,
con razón, de "juicio universal permanente" (Frosini). Ya que, en efecto, cada ciudadano
fichado en un banco de datos se halla expuesto a una vigilancia continua e inadvertida, que
afecta potencialmente incluso a los aspectos más sensibles de su vida privada; aquellos que en
épocas anteriores quedaban fuera de todo control por su variedad y multiplicidad. Estas
circunstancias han generado en los ciudadanos más sensibles a la defensa de su intimidad el
denominado "síndrome del pez rojo", es decir, la sensación de hallarse sometidos a
mecanismos de control tecnológico capaces de perforar, de forma inadvertida, aspectos
esenciales de su vida privada.

El derecho de las nuevas


tecnologías
El Derecho de las Nuevas Tecnologías puede
estructurarse en dos grandes puntos:
1. Por un lado, nuevas ramas del Derecho, estrechamente vinculadas con las
nuevas tecnologías. Este es el caso de:
1. La protección de datos, que tiene como base originaria el tratamiento
automatizado de los datos personales.
2. Las telecomunicaciones.
3. La firma electrónica.
4. Los servicios de la sociedad de la información y el comercio electrónico.
2. Por otro, de la aplicación o relación de las ramas del Derecho tradicional con
las nuevas tecnologías. Este es el caso de:
1. Los ciberdelitos o delitos informáticos.
2. Los ciberderechos o derechos de los usuarios de las nuevas tecnologías.
3. La propiedad intelectual.
4. La propiedad industrial.
5. Los contratos informáticos.
6. Las relaciones con consumidores y usuarios.

La informática jurídica.
La informática jurídica no es la aplicación de la informática a un mundo
tradicionalmente ajeno a los nuevos desarrollos tecnológicos, como es el Derecho.

Las aplicaciones de la informática al Derecho se


han estructurado fundamentalmente en tres tipos
de automatización de procesos:
1. Bases de datos jurídicas: aplicación de la tecnología relacional y de los
motores de búsqueda a las normas y decisiones judiciales que integran el
ordenamiento jurídico.
2. Sistemas expertos: aplicación de la tecnología de toma de decisiones a la
actividad judicial o administrativa. En principio, esta aplicación no debe tener
efectos reales ni definitivos, por cuanto actualmente es exigible la intervención
humana.
3. Software de gestión judicial: cualquier aplicación de la informática que
permita la automatización total o parcial de los procesos de la administración
judicial.

Delitos informáticos.
Al hablar de delitos relacionados con las nuevas tecnologías, suele recurrirse a
términos exóticos y sugerentes como ciberdelito o delitos informáticos.

Son actividades delictivas o abusivas relacionadas con los ordenadores y las redes
de comunicaciones, bien porque se utilicen el ordenador como herramientas del delito
o porque sean sistemas informáticos (o sus datos) el objetivo del delito.
El derecho de las nuevas tecnologías y la privacidad
El derecho de las nuevas tecnologías es la continuación de los derechos
civiles en internet y su adaptación. Regula las relaciones entre los ciudadanos
cuando usan diversas tecnologías. Sin embargo, esta normativa no está
exenta de obstáculos porque, por un lado, es un fenómeno muy complejo y,
por otro, transciende las fronteras de las competencias jurisdiccionales de
los Estados.

¿Qué son los derechos digitales?

Las sucesivas leyes de protección de datos desarrolladas por los Estados y la


Unión Europea ilustran ampliamente el interés de los legisladores en proteger
el derecho de las personas a la intimidad.

Relacionado con la privacidad y también con el uso de la tecnología, se acuña


el concepto del derecho al olvido o de supresión. Hace referencia a la
posibilidad de solicitar que no nos encuentren los buscadores bajo
determinadas circunstancias, especialmente, cuando los datos están obsoletos.

Por otro lado, no podemos olvidar quelos menores son uno de los colectivos
más sensibles. Poseen conocimientos tecnológicos intuitivos que, en
ocasiones, son mayores que los de sus padres, lo que dificulta su
supervisión. Además, son objeto de búsqueda de determinadas redes
criminales.

También los derechos de los consumidores y las transacciones comerciales


han sido objeto de diferentes normativas. Ahora se regulan la contratación
electrónica y los negocios online, distintos servicios y plataformas digitales,
cuestiones sobre la propiedad industrial e intelectual, etc.

Internet vino a modificar todas las relaciones, incluidas las laborales. Nuevos
delitos tecnológicos han hecho necesaria la ciberseguridad

También podría gustarte