Separatas de Biofisica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 144

PRIMERA UNIDAD

BIOFÍSICA
La biofísica es la ciencia que estudia la biología con los principios y
métodos de la física. Se discute si la biofísica es una rama de la física o
de la biología. Desde un punto de vista puede concebirse que los
conocimientos y enfoques acumulados en la física "pura" pueden
aplicarse al estudio de los sistemas biológicos. En ese caso la biofísica
le aporta conocimientos a la biología, pero no a la física, sin embargo,
le ofrece a la física evidencia experimental que permite corroborar
teorías. Ejemplos en ese sentido son la física de la audición, la
biomecánica, los motores moleculares, comunicación molecular, entre otros campos de
la biología abordada por la física.

FORMACIÓN DEL UNIVERSO


El hecho de que el universo esté en expansión se deriva de las observaciones del
corrimiento al rojo realizadas en la década de 1920 y que se cuantifican por la ley de
Hubble. Dichas observaciones son la predicción experimental del modelo de
Friedmann-Robertson-Walker, que es una solución de las ecuaciones de campo de
Einstein de la relatividad general, que predicen el inicio del universo mediante un
bigbang.

El "corrimiento al rojo" es un fenómeno observado por los astrónomos, que muestra una
relación directa entre la distancia de un objeto remoto (como una galaxia) y la velocidad
con la que éste se aleja. Si esta expansión ha sido continua a lo largo de la vida del
universo, entonces en el pasado estos objetos distantes que siguen alejándose tuvieron
que estar una vez juntos. Esta idea da pie a la teoría del Big Bang; el modelo dominante
en la cosmología actual.

Durante la era más temprana del Big Bang, se cree que el universo era un caliente y
denso plasma. Según avanzó la expansión, la temperatura decreció hasta el punto en
que se pudieron formar los átomos. En aquella época, la energía de fondo se desacopló
de la materia y fue libre de viajar a través del espacio. La energía remanente continuó
enfriándose al expandirse el universo y hoy forma el fondo cósmico de microondas.
Esta radiación de fondo es remarcablemente uniforme en todas direcciones,
circunstancia que los cosmólogos han intentado explicar como reflejo de un periodo
temprano de inflación cósmica después del Big Bang.

El examen de las pequeñas variaciones en el fondo de radiación de microondas


proporciona información sobre la naturaleza del universo, incluyendo la edad y
composición. La edad del universo desde el Big Bang, de acuerdo a la información
actual proporcionada por el WMAP de la NASA, se estima en unos 13.700 millones de
1
Jefferson Loor García Biofísica Grupo # 15
años, con un margen de error de un 1 % (137 millones de años). Otros métodos de
estimación ofrecen diferentes rangos de edad, desde 11.000 millones a 20.000
millones.

ORIGEN DEL UNIVERSO


Origen y evolución del universo
La ciencia ha intentado explicar a lo largo del tiempo el origen del universo a través de
teorías.

Existen 4 teorías fundamentales que explican de una manera creíble le origen del
universo:

-Teoría del Big Bang.

- Teoría inflacionaria.

-Teoría del universo oscilante

TEORIA DEL BIG BANG

El Big Bang, literalmente gran estallido, constituye el momento en que de la "nada"


emerge toda la materia, es decir, el origen del Universo. La materia, hasta ese
momento, es un punto de densidad infinita, que en un momento dado "explota"
generando la expansión de la materia en todas las direcciones y creando lo que
conocemos como nuestro Universo.

Inmediatamente después del momento de la "explosión", cada partícula de materia


comenzó a alejarse muy rápidamente una de otra, de la misma manera que al inflar un
globo éste va ocupando más espacio expandiendo su superficie. Los físicos teóricos
han logrado reconstruir esta cronología de los hechos a partir de un 1/100 de segundo
después del Big Bang. La materia lanzada en todas las direcciones por la explosión
primordial está constituida exclusivamente por partículas elementales: Electrones,
Positrones, Mesones, Bariones, Neutrinos, Fotones y un largo etcétera hasta más de 89
partículas conocidas hoy en día.

TEORIA INFLACIONARIA

Según la teoría del Big Bang, la expansión del universo pierde velocidad, mientras que
la teoría inflacionaria lo acelera e induce el distanciamiento, cada vez más rápido, de
unos objetos de otros. Esta velocidad de separación llega a ser superior a la velocidad
de la luz, sin violar la teoría de la relatividad, que prohíbe que cualquier cuerpo de masa
finita se mueva más rápido que la luz. Lo que sucede es que el espacio alrededor de los
objetos se expande más rápido que la luz, mientras los cuerpos permanecen en reposo
en relación con él.
2
Jefferson Loor García Biofísica Grupo # 15
A esta extraordinaria velocidad de expansión inicial se le atribuye la uniformidad del
universo visible, las partes que lo constituían estaban tan cerca unas de otras, que
tenían una densidad y temperatura comunes.

TEORIA DEL UNIVERSO OSCILATORIO


La teoría del universo oscilante trata de explicar el origen del universo y parte de la
hipótesis de que en el instante 0, tuvo lugar una gran explosión a partir de una
concentración de energía y densidad infinita. Esta explosión, denominada BIG BANG,
dio lugar a la expansión constante de la materia, y en sí al universo entero. Con todo
esto, los científicos explican que desde el instante 0, el universo ha tenido un
crecimiento exponencial en el tiempo.

Pero y si la atracción gravitatoria hiciera que en un punto de tiempo X el universo


iniciara un retroceso hasta el momento 0 inicial, en otras palabras y si el universo se
contrae en el denominado BIG CRUNCH volviendo hasta el punto de energía inicial.
Significa eso que el universo cumple ciclos en los que se contrae y expande de forma
infinita.

TEORIAS DEL ORIGEN DE LA VIDA


Los sistemas vivos somos máquinas autopoieticas: transformamos la materia
convirtiéndola en nosotros mismos, de tal manera, que el producto es nuestra propia
organización.
Cuando se habla de la vida, también se hace referencia a su diversidad y complejidad.
Si la diversidad de la vida aumenta, necesariamente se incrementa su complejidad. La
diversidad de la vida o biodiversidad, se organiza de tal modo que construye complejas
redes de relaciones entre las especies y entre éstas y su entorno físico: la vida cambia
a quienes la componen, entre éstas y su entorno físico: la vida cambia a quienes la
componen.

Primera hipótesis: Creacionismo


El creacionismo es un sistema de creencias que postula que el universo, la tierra y la
vida en la tierra fueron deliberadamente creados por un ser inteligente. Hay diferentes
visiones del creacionismo, pero dos escuelas principales sobresalen: el creacionismo
religioso y el diseño inteligente.
Segunda hipótesis: La generación espontánea
La teoría de la generación espontánea, también conocida como autogénesis es una
antigua teoría biológica de abiogénesis que sostenía que podía surgir vida compleja,
animal y vegetal, de forma espontánea a partir de la materia inerte.
La autogénesis se sustentaba en procesos como la putrefacción. Es así que de un trozo
de carne podían generarse larvas de mosca. Precisamente, esta premisa era como un
fin de una observación superficial, ya que -según los defensores de esta corriente- no
era posible que, sin que ningún organismo visible se acercara al trozo de carne
aparecieran las larvas, a menos que sobre ésta actuara un principio vital generador de
3
Jefferson Loor García Biofísica Grupo # 15
vida. El italiano Redi fue el primero en dudar de tal concepción y usó la experimentación
para justificar su duda. El experimento consistió en poner carne en un tarro abierto y en
otro cerrado también puso carne. Las cresas, que parecían nidos de huevos de
moscas, se formaron en el tarro abierto, cuya carne se había descompuesto. El italiano
dedujo que las cresas brotaban de los pequeñísimos huevos de las moscas.

Tercera teoría: El origen cósmico de la vida o panspermia


La hipótesis de la panspermia postula que la vida es llevada al azar de planeta a
planeta y de un sistema planetario a otro. Su máximo defensor fue el químico sueco
Svante Arrhenius (1859-1927), que afirmaba que la vida provenía del espacio exterior
en forma de esporas bacterianas que viajan por todo el espacio impulsadas por la
radiación de las estrellas. (6)
Dicha teoría se apoya en el hecho de que las moléculas basadas en la química del
carbono, importantes en la composición de las formas de vida que conocemos, se
pueden encontrar en muchos lugares del universo
Cuarta teoría: Teoría de la evolución química y celular
Mantiene que la vida apareció, a partir de materia inerte, en un momento en el que las
condiciones de la tierra eran muy distintas a las actuales y se divide en tres.
Evolución química.
Evolución prebiótica.
Evolución biológica.
La primera teoría coherente que explicaba el origen de la vida la propuso en 1924 el
bioquímico ruso Alexander Oparin. Se basaba en el conocimiento de las condiciones
físico-químicas que reinaban en la Tierra hace 3.000 a 4.000 millones de años. Oparin
postuló que, gracias a la energía aportada primordialmente por la radiación ultravioleta
procedente del Sol y a las descargas eléctricas de las constantes tormentas, las
pequeñas moléculas de los gases atmosféricos (H2O, CH4, NH3) dieron lugar a unas
moléculas orgánicas llamadas prebióticas. Estas moléculas, cada vez más complejas,
eran aminoácidos (elementos constituyentes de las proteínas) y ácidos nucleicos.
Según Oparin, estas primeras moléculas quedarían atrapadas en las charcas de aguas
poco profundas formadas en el litoral del océano primitivo. Al concentrarse, continuaron
evolucionando y diversificándose.

LA BIOFÍSICA Y LA MEDICINA MODERNA

La Biofísica ha hecho grandes aportes a la Medicina. El conocimiento Biofísico ha sido


el pilar fundamental para el entendimiento de los fenómenos fisiológicos que son base
del funcionamiento del organismo humano en estado normal y patológico. Dentro de
ellos podemos mencionar: la recepción de señales exteriores por parte del organismo,
la transmisión del impulso nervioso, los procesos biomecánicos del equilibrio y
desplazamiento del organismo humano, la óptica geométrica del ojo, la transmisión del
sonido hasta el oído interno y el cerebro, la mecánica de la circulación sanguínea, de la
respiración pulmonar, el proceso de alimentación y sostenimiento energético del
4
Jefferson Loor García Biofísica Grupo # 15
organismo, el mecanismo de acción de las moléculas biológicamente funcionales sobre
las estructuras celulares (las membranas, los órgano bioenergéticos, los sistemas
mecano-químicos), los modelos físico-matemáticos de los procesos biológicos, etc.

De otro lado, el establecimiento de las bases biofísicas de los fenómenos arriba


mencionados ha sido básico para el desarrollo de dispositivos técnicos, aparatos y
medidores para obtener bioinformación, equipos de autometría y telemetría; que
permiten un diagnóstico médico más efectivo y confiable.

En la actualidad el desarrollo de la Medicina depende en gran medida de su capacidad


tecnológica, la cual está determinada por el desarrollo del conocimiento biofísico
soporte de la Bioingeniería.

MÉTODO CIENTÍFICO
El método científico, por lo tanto, se refiere a la serie de etapas que hay que recorrer
para obtener un conocimiento válido desde el punto de vista científico, utilizando para
esto instrumentos que resulten fiables. Lo que hace este método es minimizar la
influencia de la subjetividad del científico en su trabajo.
El método científico está basado en los preceptos de falsabilidad (indica que cualquier
proposición de la ciencia debe resultar susceptible a ser falsada) y reproducibilidad (un
experimento tiene que poder repetirse en lugares indistintos y por un sujeto cualquiera).

PASOS DEL MÉTODO CIENTIFICO.


1. Observación: Observar es aplicar atentamente los sentidos a un objeto o a un
fenómeno, para estudiarlos tal como se presentan en realidad, puede ser ocasional o
causalmente.
2. Inducción: La acción y efecto de extraer, a partir de determinadas observaciones o
experiencias particulares, el principio particular de cada una de ellas.

3. Hipótesis: Planteamiento mediante la observación siguiendo las normas establecidas


por el método científico.
4. Probar la hipótesis por experimentación.

5. Demostración o refutación (antítesis) de la hipótesis.

6. Tesis o teoría científica (conclusiones).

Explicación:
1. Observación: en este paso se observa cualquier objeto o proceso.

2. Inducción: en este se recopilan varias observaciones y se juntan para poder plantear


una hipótesis.

3. Hipótesis: es una pregunta base la cual se quiere comprobar.

4. Experimentación: realizas varios procesos para tratar de comprobar la hipótesis.

5. Antítesis: en este paso se muestra si la hipótesis es posible o no.

5
Jefferson Loor García Biofísica Grupo # 15
6. Tesis: en esta se dan las conclusiones a las que llegaste mediante los pasos
anteriores.

ESTRUCTURA DE LA MATERIA

En Física, la materia es aquello de lo que están hechos los objetos que constituyen
el Universo observable y el no observable. Si bien durante un tiempo se consideraba
que la materia tenía dos propiedades que juntas la caracterizan: que ocupa un lugar en
el espacio y que tiene masa, en el contexto de la física moderna se entiende por
materia cualquier campo, entidad o discontinuidad que se propaga a través del espacio-
tiempo a una velocidad inferior a la de la velocidad de la luz y a la que se pueda asociar
energía. Así todas las formas de materia tienen asociadas una cierta energía pero sólo
algunas formas de materia tienen masa.

La materia másica se organiza jerárquicamente en varios niveles. El nivel más complejo


es la agrupación en moléculas y éstas a su vez son agrupaciones de átomos. Los
constituyentes de los átomos, que sería el siguiente nivel son:

 Electrones: partículas leptónicas con carga eléctrica negativa.


 Protones: partículas bariónicas con carga eléctrica positiva.
 Neutrones: partículas bariónicas sin carga eléctrica (pero con momento magnético).
ELECTRÓN
Un electrón es una partícula elemental estable cargada negativamente que
constituye uno de los componentes fundamentales del átomo. Forma parte
del grupo de los leptones.

Un electrón es considerado como una partícula diminuta y fundamental que forma parte
de la estructura del átomo con una carga eléctrica negativa y que orbita alrededor del
núcleo atómico, el electrón aporta la mayoría de las propiedades físico-químicas de los
elementos y materiales del universo, el electrón es representado con el símbolo e -

Según los modelos clásicos, la estructura interna del átomo está compuesta por un
núcleo con carga positiva al cual orbitan una serie de pequeñas partículas con carga
negativa llamadas electrones, la suma de cargas positivas es igual al número de cargas
negativas o electrones, haciendo neutro y estable el átomo.

Con el transcurso del tiempo se descubrió que el núcleo de los átomos está formado
por neutrones y protones, estos últimos son lo que aportan las cargas positivas al
átomo, durante el último siglo y con la ayuda de los aceleradores de partículas se
descubrió que los neutrones y protones a su vez están formados por partículas
subatómicas denominadas quarks, mientras que los electrones parecen que no están

6
Jefferson Loor García Biofísica Grupo # 15
formados por otro tipo de partículas subatómicas, por ello se considera al electrón como
una partícula fundamental.

Los electrones intervienen y aportan la mayoría de las propiedades fisco-químicas de


los elementos que nos rodean, el magnetismo de un imán es producido por el
ordenamiento de los electrones en una sola dirección, las fuerzas de atracción y
repulsión de cualquier átomo, molécula o material están basadas en el exceso o
ausencia de electrones, los procesos químicos de oxidación están basados en un
transvase de electrones de un material a otro, los enlaces químicos que forman las
moléculas, tejidos y órganos que crean la vida del universo están basados en la
compartición o emisión y aceptación de electrones entre los átomos, la electricidad que
alimenta a todos los aparatos y máquinas que utilizamos diariamente está basado en el
movimiento o flujo de electrones... Como puedes observar esta diminuta partícula es la
fuente de la vida y de todos los materiales que nos rodean.

PROTÓN
Protón procede de un vocablo griego que significa “primero”. Se trata de una partícula
subatómica con carga eléctrica positiva que, junto a los neutrones, forma el núcleo de
los átomos. El número atómico del protón determina las propiedades químicas de dicho
átomo.
Los protones se clasifican dentro la categoría de bariones (las partículas subatómicas
formadas por tres quarks). En el caso específico de los protones, están compuestos por
dos quarks arriba y un quark abajo. Su equivalente de antimateria es
el antiprotón o protón negativo, con la misma magnitud de carga pero signo contrario.
NEUTRÓN

A instancias de la Física, un neutrón es aquella partícula elemental, pesada, que posee


una carga eléctrica neutra y una masa aproximadamente similar a la del protón y que
forma parte de los núcleos atómicos junto con los protones. Específicamente, el
neutrón, está formado por dos quarks abajo y un quark arriba.
La vida media que el neutrón presenta fuera del núcleo atómico es de quince minutos,
cuando emite un antineutrón y un electrón para convertirse en protón. Aquellos
neutrones que tienen una masa similar a los protones resultan ser necesarios para
la estabilidad de los núcleos atómicos, exceptuando al hidrógeno.

POSITRÓN O ELECTRON POSITIVO

Un positrón es una partícula de tipo elemental (ya que no existen evidencias de que
esté compuesta por otras partículas más simples) cuya carga eléctrica resulta igual a la
que posee el electrón, aunque positiva.
Por esta característica, se dice que el positrón es la antipartícula de esta partícula
subatómica.
Masa del Positrón

Es la antipartícula correspondiente al electrón, por lo que posee su misma masa y carga


eléctrica (aunque de diferente signo, ya que es positiva). No forma parte de la materia

7
Jefferson Loor García Biofísica Grupo # 15
ordinaria, sino de la antimateria, aunque se producen en numerosos procesos radio
químicos como parte de transformaciones nucleares.

Características de los Positrones

El antielectrón es tan estable como el electrón, de hecho, es idéntico al electrón en


todos sus aspectos, excepto en su carga eléctrica. Su existencia puede ser indefinida.
Aunque el promedio de vida es de una millonésima de segundo, hasta que se
encuentra con un electrón, durante un momento relampagueante quedaran asociados
el electrón y el positrón; ambas partículas giraran en torno a un centro de fuerza común.

Pero la existencia de este sistema, como máximo, durará una diezmillonésima de


segundo ya que se combinan el positrón y el electrón. Cuando se combinan las dos
partículas opuestas, se produce una neutralización mutua y literalmente desaparecen,
no dejan ni rastro de materia (aniquilamiento mutuo). Pero como se sabe la materia al
igual que la energía no puede desaparecer, como resultado de esto queda la energía
en forma de radiación gamma. De tal forma como había sugerido el genio Albert
Einstein: la materia puede convertirse en energía, y viceversa.

Otras consideraciones:

Cuando en el universo temprano los fotones eran convertidos continuamente en un par


de positrones y electrones, y luego estos en fotones.

El positrón al ser una antipartícula correspondiente a un electrón, ya que esto poseen la


misma carga eléctrica y la misma masa, (aunque de diferente signo, ya que es positiva),
con el signo contrario (positivo).

Este no forma parte de la materia ordinaria, forma parte de la antimateria, a pesar de


que se producen en determinados procesos radioactivos, es parte de las
transformaciones nucleares.

NIVELES DE ORGANIZACIÓN DE LOS SERES VIVOS

1. Partículas fundamentales: la componen los quarks y los leptones


que son los constituyentes fundamentales de la materia. Especies
de leptones se unen para formar electrones y especies de quarks
se unen para formar neutrones y protones. La física es la ciencia
que se encarga del estudio de este ámbito junto con el nivel
atómico y subatómico.

2. Subatómico: este nivel es el más simple de todo y está formado por electrones,
protones y neutrones, que son las distintas partículas que configuran el átomo.

3. Átomo: es el siguiente nivel de organización. Es un átomo de oxígeno, de hierro, de


cualquier elemento químico. A nivel biológico podemos llamar a los átomos como
bioelementos y clasificarlos según su función:

8
Jefferson Loor García Biofísica Grupo # 15
 Si cumplen una función estructural son bioelementos primarios: son el carbono,
el fósforo, nitrógeno, hidrógeno, oxígeno y azufre que forman por ejemplo, las
membranas de las células, las proteínas, los ácidos grasos, los lípidos…

 Si cumplen una función estructural y catalítica son bioelementos secundarios:


calcio, sodio, potasio, magnesio, cloro, iodo… son fundamentales para el
funcionamiento de la célula, pero no forman parte estructural de las mismas.

 Si cumplen sólo función catalítica son oligoelementos o elementos vestigiales


porque sus cantidades en el organismo son muy escasas como por ejemplo
pueden ser el Cobalto, el Zinc, que intervienen en el funcionamiento de ciertas
enzimas.

4. Moléculas: las moléculas consisten en la unión de diversos átomos diferentes para


formar, por ejemplo, oxígeno en estado gaseoso (O2), dióxido de carbono, o
simplemente carbohidratos, proteínas, lípidos… Las moléculas pueden ser orgánicas
(glucosa, lípidos, grasas) o inorgánicas (agua, sales minerales, gases, óxidos…) La
bioquímica se encarga del estudio de este nivel de organización, siendo una de las
disciplinas más punteras y que mayor recursos de investigación obtiene en
investigación y universidades dentro de las áreas de este artículo.

5. Estructuras subcelulares u orgánulos: no es uno de los niveles de organización que


tradicionalmente se incluyen ya que está a medio a camino entre las moléculas y las
células. Se puede considerar como un paso más, ya que supone la unión de varias
moléculas para formar estructuras más grandes como los orgánulos de las células:
membranas plasmáticas, aparato de Golgi… La citología o biología celular se encarga
del estudio de las células y los orgánulos que las componen.

6. Celular: las moléculas se agrupan en unidades celulares con vida propia y capacidad de
autorreplicación. Las células puede ser eucariotas o procariotas dependiendo de su
estructura. También pueden formar organismos de vida independiente como son los
protozoos o las amebas.
7. Tisular: las células se organizan en tejidos: epitelial, adiposo, nervioso, muscular… En
plantas hablaríamos del parénquima, por ejemplo. La histología es la ciencia que se
encarga del estudio de los tejidos.

8. Organular: los tejidos están estructurados en órganos: corazón, bazo, pulmones,


cerebro, riñones… En las plantas, podemos hablar de hojas, tallo, raíz, …

9. Sistémico o de aparatos: los órganos se estructuran en aparatos o sistemas más


complejos que llevan a cabo funciones más amplias. Tenemos el ejemplo de los
sistemas digestivos, respiratorios, circulatorios, nerviosos…

10. Organismo: nivel de organización superior en el cual las células, tejidos, órganos y
aparatos de funcionamiento forman una organización superior como seres
vivos:animales, plantas, insectos,…

9
Jefferson Loor García Biofísica Grupo # 15
11. Población: los organismos de la misma especie se agrupan en determinado número
para formar un núcleo poblacional: una manada de leones, o lobos, un bosque
de arces,pinos… coinciden además, en el tiempo y el espacio.

12. Comunidad: es el conjunto de seres vivos de un lugar, por ejemplo, un conjunto de


poblaciones de seres vivos diferentes. Está formada por distintas especies.

13. Ecosistema: es la interacción de la comunidad biológica con el medio físico, con una
distribución espacial amplia. Las poblaciones, comunidades y ecosistemas son
estudiados por la ecología.

14. Paisaje: es un nivel de organización superior que comprende varios ecosistemas


diferentes dentro de una determinada unidad de superficie. Por ejemplo, el conjunto de
vid, olivar y almendros características de las provincias del sureste español llamado
agrosistemas.

15. Región: es un nivel de organización superior al de paisaje y supone una superficie


geográfica que agrupa varios paisajes.

16. Bioma: Son ecosistemas de gran tamaño asociados a unas determinadas


características ambientales: macroclimáticas como la
humedad, temperatura, radiación y se basan en la dominancia de una especie aunque
no son homogéneos. Un ejemplo es la taiga que se define por las coníferas que es un
elemento identificador muy claro pero no homogéneo, también se define por la latitud y
la temperatura.

17. Biosfera: es todo el conjunto de seres vivos y componentes inertes que comprenden
elplaneta tierra, o de igual modo es la capa de la atmósfera en la que existe vida y que
se sustenta sobre la litosfera.
Como decíamos antes, tal vez ahora queda más claro que cada nivel de
organización engloba a los niveles inferiores anteriores. Por ejemplo, un elefante tiene
un sistema respiratorio que consta de órganos como son los pulmones, que a su vez
están compuestos de tejidos como el tejido respiratorio, el epitelial, que a su vez lo
conforman células, y así sucesivamente.
Por otra parte se encuentran los niveles de organización morfológicos, especialmente
en los vegetales que se agrupan en diferentes niveles de acuerdo a su estructura.

Generalidades de los compuestos Químicos. Tabla periódica.

Para saber que es un compuesto primero hay que definir la palabra, Compuesto que,
en química es la unión de uno o más elementos de la tabla periódica.

A su ves los compuesto se dividen en tres grandes ramas que son los compuestos
Binarios, Terciarios y Cuaternarios.

10
Jefferson Loor García Biofísica Grupo # 15
Los Compuestos Binarios son: Aquellos que tienen 2 electrones, en los cuales destacan
el Ácido, Óxido Anhídrido, Sal, Peroxido, Hidruro.

Los Compuestos Terciarios son: Aquellos que tienes 3 electrones, en los cuales
destacan Orto, Meta, Piro.

Los Compuestos Cuaternarios son: Los que tienen 4 electrones , en esta rama entran
los radicales.

A continuación explicare algunos de los compuestos binarios más importantes y más


sonados.

Óxidos: Se llama óxidos a los compuestos que se forman al combinarse oxigeno con
los elementos. Puesto que los elementos se clasifican en metales y no metales, hay
tres clases de óxidos metálicos o básicos y oxiácidos.

Peróxidos: Algunos óxidos tienen un átomo más de oxigeno que los óxidos ordinarios.
Para designar a estas sustancias se agrega el prefijo Per. En los peróxidos, el oxigeno
funciona con valencia 1 Por lo tanto el peroxido se forma con un Metal y en Oxigeno.

Anhídridos: Se forman gracias a la combinación de los no metales con el oxigeno y así


de forman anhídridos.

Base: Las bases o hidróxidos se caracterizan por tener en solución acuosa el radical
hidroxilo. Por lo tanto los Hidróxidos se forman con en metal y un (OH)-1 .

Ácido: Los ácidos son compuesto que se forman con un Hidrogeno y un no metal.

Sal: Las sales son compuestos que se forman gracias a la unión de un metal con un no
metal.

Estado sólido
Los objetos en estado sólido se presentan como cuerpos de forma definida; sus átomos
a menudo se entrelazan formando estructuras estrechas definidas, lo que les confiere la
capacidad de soportar fuerzas sin deformación aparente. Son calificados generalmente
como duros y resistentes, y en ellos las fuerzas de atracción son mayores que las de
repulsión. En los sólidos cristalinos, la presencia de espacios intermoleculares
pequeños da paso a la intervención de las fuerzas de enlace, que ubican a las celdillas
11
Jefferson Loor García Biofísica Grupo # 15
en formas geométricas. En los amorfos o vítreos, por el contrario, las partículas que los
constituyen carecen de una estructura ordenada.

Las sustancias en estado sólido suelen presentar algunas de las siguientes


características:

 Cohesión elevada.

 Tienen una forma definida y memoria de forma, presentando fuerzas elásticas


restitutivas si se deforman fuera de su configuración original.

 A efectos prácticos son Incompresibles.

 Resistencia a la fragmentación.

 Fluidez muy baja o nula.

 Algunos de ellos se subliman.

Estado líquido
Si se incrementa la temperatura, el sólido va perdiendo forma hasta desaparecer la
estructura cristalina, alcanzando el estado líquido. Característica principal: la capacidad
de fluir y adaptarse a la forma del recipiente que lo contiene. En este caso, aún existe
cierta unión entre los átomos del cuerpo, aunque mucho menos intensa que en los
sólidos. El estado líquido presenta las siguientes características:

 Cohesión menor.

 Movimiento energía cinética.

 Son fluidos, no poseen forma definida, ni memoria de forma por lo que toman la
forma de la superficie o el recipiente que lo contiene.

 En el frío se contrae (exceptuando el agua).

 Posee fluidez a través de pequeños orificios.

 Puede presentar difusión.

 Son poco compresibles.

Estado gaseoso
Se denomina gas al estado de agregación de la materia que no tiene forma ni volumen
propio. Su principal composición son moléculas no unidas, expandidas y con poca
fuerza de atracción, haciendo que no tengan volumen y forma definida, provocando que
este se expanda para ocupar todo el volumen del recipiente que la contiene, con
respecto a los gases las fuerzas gravitatorias y de atracción entre partículas resultan
insignificantes. Es considerado en algunos diccionarios como sinónimo de vapor,
12
Jefferson Loor García Biofísica Grupo # 15
aunque no hay que confundir sus conceptos, ya que el término de vapor se refiere
estrictamente para aquel gas que se puede condensar por presurización a temperatura
constante. Los gases se expanden libremente hasta llenar el recipiente que los
contiene, y su densidad es mucho menor que la de los líquidos y sólidos.

Dependiendo de sus contenidos de energía o de las fuerzas que actúan, la materia


puede estar en un estado o en otro diferente: se ha hablado durante la historia, de un
gas ideal o de un sólido cristalino perfecto, pero ambos son modelos límites ideales y,
por tanto, no tienen existencia real.

En los gases reales no existe un desorden total y absoluto, aunque sí un desorden más
o menos grande.

En un gas, las moléculas están en estado de caos y muestran poca respuesta a la


gravedad. Se mueven tan rápidamente que se liberan unas de otras. Ocupan entonces
un volumen mucho mayor que en los otros estados porque dejan espacios libres
intermedios y están enormemente separadas unas de otras. Por eso es tan fácil
comprimir un gas, lo que significa, en este caso, disminuir la distancia entre moléculas.
El gas carece de forma y de volumen, porque se comprende que donde tenga espacio
libre allí irán sus moléculas errantes y el gas se expandirá hasta llenar por completo
cualquier recipiente.

El estado gaseoso presenta las siguientes características:

 Cohesión casi nula.

 No tienen forma definida.

 Su volumen es variable.

FENÓMENOS BIOFÍSICOS MOLECULARES

Fenómeno: todo cambio o transformación que se realice en la naturaleza, se clasifican


en:

1. Fenómenos Químicos

2. Fenómenos Físicos

3. Fenómenos biofísicos-moleculares.

Los fenómenos físicos son todos aquellos que no cambian en la estructura interna de la
materia.

Los fenómenos químicos son aquellos que cambian la estructura interna de la materia.

Los fenómenos biofísicos moleculares son procesos que se realizan en los seres vivos,
los cuales se basan en leyes físicas y físico-químicas dando lugar a la formación de
13
Jefferson Loor García Biofísica Grupo # 15
dichos fenómenos. Los fundamentos moleculares de la Biofísica se rigen en las
biomoléculas, o macromoléculas, y su funcionamiento en todo aspecto.

TENSIÓN SUPERFICIAL

En física se denomina tensión superficial de un líquido a la cantidad de energía


necesaria para aumentar su superficie por unidad de área. Esta definición implica que el
líquido tiene una resistencia para aumentar su superficie. Este efecto permite a
algunos insectos, como el zapatero), desplazarse por la superficie del agua sin
hundirse. La tensión superficial (una manifestación de las fuerzas intermoleculares en
los líquidos), junto a las fuerzas que se dan entre los líquidos y las superficies sólidas
que entran en contacto con ellos, da lugar a la capilaridad. Como efecto tiene la
elevación o depresión de la superficie de un líquido en la zona de contacto con un
sólido.
Otra posible definición de tensión superficial: es la fuerza que actúa tangencialmente
por unidad de longitud en el borde de una superficie libre de un líquido en equilibrio y
que tiende a contraer dicha superficie. Las fuerzas cohesivas entre las moléculas de un
líquido son las responsables del fenómeno conocido como tensión superficial.
PRESIÓN HIDROSTÁTICA

La presión hidrostática es la parte de la presión debida al peso de un fluido en reposo.


En un fluido en reposo la única presión existente es la presión hidrostática, en un fluido
en movimiento además puede aparecer una presión hidrodinámica adicional
relacionada con la velocidad del fluido. Es la presión que sufren los cuerpos sumergidos
en un líquido o fluido por el simple y sencillo hecho de sumergirse dentro de este. Se
define por la fórmula donde es la presión hidrostática, es el peso
específico y profundidad bajo la superficie del fluido.
Un fluido pesa y ejerce presión sobre las paredes del fondo del recipiente que lo
contiene y sobre la superficie de cualquier objeto sumergido en él. Esta presión,
llamada presión hidrostática, provoca, en fluidos en reposo, una fuerza perpendicular a
las paredes del recipiente o a la superficie del objeto sumergido sin importar la
orientación que adopten lascaras. Si el líquido fluyera, las fuerzas resultantes de las
presiones ya no serían necesariamente perpendiculares a las superficies. Esta presión
depende de la densidad del líquido en cuestión y de la altura del líquido con referencia
del punto del que se mida.
Se calcula mediante la siguiente expresión:

Donde, usando unidades del SI,

14
Jefferson Loor García Biofísica Grupo # 15
 es la presión hidrostática (en pascales);
 es la densidad del líquido (en kilogramos partido metro cúbico);
 es la aceleración de la gravedad (en metros partido segundo al cuadrado);
 es la altura del fluido (en metros). Un líquido en equilibrio ejerce fuerzas
perpendiculares sobre cualquier superficie sumergida en su interior
 es la Presión atmosférica (en pascales)

ADHESIÓN

La adhesión es la propiedad de la materia por la cual se unen y plasman dos superficies


de sustancias iguales o diferentes cuando entran en contacto, y se mantienen juntas
por fuerzas intermoleculares.
La adhesión ha jugado un papel muy importante en muchos aspectos de las técnicas
de construcción tradicionales. La adhesión del ladrillo con el mortero (cemento) es un
ejemplo claro.
COHESIÓN

La cohesión es distinta de la adhesión. La cohesión es la fuerza de atracción


entre partículas adyacentes dentro de un mismo cuerpo, mientras que la adhesión es la
interacción entre las superficies de distintos cuerpos.
DIFUSIÓN
La difusión molecular, a menudo llamado simplemente la difusión, es el movimiento
térmico de todas las partículas a temperaturas por encima del cero absoluto. La
velocidad de este movimiento es una función de la temperatura, la viscosidad del fluido
y el tamaño de las partículas. Difusión explica el flujo neto de moléculas de una región
de mayor concentración a una de menor concentración, pero también la difusión se
produce cuando no hay gradiente de concentración. El resultado de la difusión es una
mezcla gradual de material. En una fase con la temperatura uniforme, las fuerzas netas
ausentes externos que actúan sobre las partículas, el proceso de difusión
eventualmente resultará en la mezcla completa.

OSMOSIS
La ósmosis es un fenómeno físico relacionado con el movimiento de un solvente a
través de una membrana semipermeable. Tal comportamiento supone una difusión
simple a través de la membrana, sin gasto de energía. La ósmosis del agua es un
fenómeno biológico importante para el metabolismo celular de los seres vivos.

MECANISMOS
Se denomina membrana semipermeable a aquella estructura que contiene poros o
agujeros, al igual que cualquier filtro, de tamaño molecular. El tamaño de los poros es
tan minúsculo que deja pasar las moléculas pequeñas pero no las grandes,
15
Jefferson Loor García Biofísica Grupo # 15
normalmente del tamaño de micrómetros. Por ejemplo, deja pasar las moléculas de
agua, que son pequeñas, pero no las de azúcar, que son más grandes.
Si una membrana como la descrita separa un líquido en dos particiones, una de agua
pura y otra de agua con azúcar, suceden varias cosas, explicadas a fines del siglo XIX
por Van 't Hoff y Gibbs empleando conceptos de potencial electroquímico y difusión
simple, entendiendo que este último fenómeno implica no sólo el movimiento al azar de
las partículas hasta lograr la homogénea distribución de las mismas y esto ocurre
cuando las partículas que vienen se equiparan con las que aleatoriamente van, sino el
equilibrio de los potenciales químicos de ambas particiones. Los potenciales químicos
de los componentes de una solución son menores que la suma del potencial de dichos
componentes cuando no están ligados en la solución. Este desequilibrio, que está en
relación directa con la osmolaridad de la solución, genera un flujo de partículas
solventes hacia la zona de menor potencial que se expresa como presión
osmótica mensurable en términos de presión atmosférica, por ejemplo: "existe
una presión osmótica de 50 atmósferas entre agua desalinizada y agua de mar". El
solvente fluirá hacia el soluto hasta equilibrar dicho potencial o hasta que la presión
hidrostática equilibre la presión osmótica.
El resultado final es que, aunque el agua pasa de la zona de baja concentración a la de
alta concentración y viceversa, hay un flujo neto mayor de moléculas de agua que
pasan desde la zona de baja concentración a la de alta.
Dicho de otro modo: dado suficiente tiempo, parte del agua de la zona sin azúcar habrá
pasado a la de agua con azúcar. El agua pasa de la zona de baja concentración a la de
alta concentración.
Las moléculas de agua atraviesan la membrana semipermeable desde la disolución de
menor concentración, disolución hipotónica, a la de mayor concentración, disolución
hipertónica. Cuando el trasvase de agua iguala las dos concentraciones, las
disoluciones reciben el nombre de isotónicas.
En los seres vivos, este movimiento del agua a través de la membrana celular puede
producir que algunas células se arruguen por una pérdida excesiva de agua, o bien que
se hinchen, posiblemente hasta reventar, por un aumento también excesivo en el
contenido celular de agua. Para evitar estas dos situaciones, de consecuencias
desastrosas para las células, estas poseen mecanismos para expulsar el agua o los
iones mediante un transporte que requiere gasto de energía.

ADSORCIÓN

La adsorción es un proceso por el cual átomos, iones o moléculas son atrapados o


retenidos en la superficie de un material en contraposición a la absorción, que es un
fenómeno de volumen. Es decir es un proceso en el cual un contaminante soluble
16
Jefferson Loor García Biofísica Grupo # 15
(adsorbato) es eliminado del agua por contacto con una superficie sólida (adsorbente).
El proceso inverso a la adsorción se conoce como desorción.

En química, la adsorción de una sustancia es su acumulación en una determinada


superficie interfacial entre dos fases. El resultado es la formación de una película líquida
o gaseosa en la superficie de un cuerpo sólido o líquido.
Considérese una superficie limpia expuesta a una atmósfera gaseosa. En el interior del
material, todos los enlaces químicos (ya sean iónicos, covalentes o metálicos) de
los átomos constituyentes están satisfechos. En cambio, por definición la superficie
representa una discontinuidad de esos enlaces. Para esos enlaces incompletos, es
energéticamente favorable el reaccionar con lo que se encuentre disponible, y por ello
se produce de forma espontánea.
La naturaleza exacta del enlace depende de las particularidades de los especímenes
implicados, pero el material adsorbido es generalmente clasificado
como fisisorbido quimisorbido
La cantidad de material que se acumula depende del equilibrio dinámico que se alcanza
entre la tasa a la cual el material se adsorbe a la superficie y la tasa a la cual se
evapora, y que normalmente dependen de forma importante de la temperatura. Cuanto
mayor sea la tasa de adsorción y menor la de desorción, mayor será la fracción de la
superficie disponible que será cubierta por material adsorbido en el equilibrio.
Para estos procesos, resultan interesantes materiales con una gran superficie interna,
(y por lo tanto poco volumen) ya sea en polvo o granular, como el carbón activo, y
llevan asociados otros fenómenos de transporte de material, como el macro
transporte y micro transporte de los reactivos.
TIPOS DE ADSORCION

 Adsorción por intercambio: Ocurre cuando los iones de la sustancia se concentran


en una superficie como resultado de la atracción electrostática en los lugares
cargados de la superficie (p. ej. en las cercanías de un electrodo cargado).
 Adsorción física: Se debe a las fuerzas de Van der Waals y la molécula adsorbida
no está fija en un lugar específico de la superficie, y por ello está libre de trasladarse
en la interfase.
 Adsorción química: Ocurre cuando el adsorbato forma enlaces fuertes en los centros
activos del adsorbente.

17
Jefferson Loor García Biofísica Grupo # 15
ACCIÓN CAPILAR
Atracción capilar, o capilaridad, es la capacidad de un líquido a fluir en espacios
estrechos sin la ayuda de, y en oposición a fuerzas externas como la gravedad. El
efecto puede ser visto en la elaboración de líquidos entre los pelos de un pincel, en un
tubo delgado, en materiales porosos tales como papel, en algunos materiales no
porosos tales como fibra de carbono licuado, o en una célula. Ocurre debido a fuerzas
intermoleculares entre las superficies circundantes líquidas y sólidas. Si el diámetro del
tubo es suficientemente pequeño, entonces la combinación de la tensión superficial y
las fuerzas adhesivas entre el líquido y el acto de levantar el recipiente de líquido.

CAPILARIDAD

La capilaridad es un proceso de los fluidos que depende de su tensión superficial la


cual, a su vez, depende de la cohesión del líquido y que le confiere la capacidad de
subir o bajar por un tubo capilar.
Cuando un líquido sube por un tubo capilar, es debido a que la fuerza intermolecular o
cohesión intermolecular entre sus moléculas es menor que la adhesión del líquido con
el material del tubo; es decir, es un líquido que moja. El líquido sigue subiendo hasta
que la tensión superficial es equilibrada por el peso del líquido que llena el tubo. Éste es
el caso del agua, y esta propiedad es la que regula parcialmente su ascenso dentro de
las plantas, sin gastar energía para vencer la gravedad.
Sin embargo, cuando la cohesión entre las moléculas de un líquido es más potente que
la adhesión al capilar, como el caso del mercurio, la tensión superficial hace que el
líquido descienda a un nivel inferior y su superficie es convexa.
FENÓMENO FÍSICO
La materia puede someterse a dos tipos de procesos o fenómenos, los físicos y los
químicos

Cuando ocurre un fenómeno físico las sustancias realizan un proceso o cambio sin
perder sus propiedades características, es decir, sin modificar su naturaleza.

Por ejemplo, si disolvemos sal común en agua, tiene lugar un proceso físico, tras el cual
la sal y el agua siguen teniendo las mismas propiedades características, como se
puede comprobar recuperando la sal por calentamiento de la disolución. Es decir, en el
proceso de disolución no se altera la naturaleza de las sustancias que se disuelven. Lo
mismo ocurre al disolver azúcar en leche, alcohol en agua, al mezclar arena y serrín...

También es un proceso físico la fusión del hielo, pues el líquido que se obtiene sigue
siendo agua, e incluso el paso de ésta a vapor.

Otros fenómenos físicos son el desplazamiento de un vehículo, el paso de la


electricidad por los cables, la dilatación de un cuerpo al ser calentado, el paso de la luz
a través de los cristales de una ventana o de una lente, etcétera.

18
Jefferson Loor García Biofísica Grupo # 15
FÉNOMENO QUÍMICO

Por el contrario, si unas sustancias se transforman en otras nuevas, de distinta


naturaleza, se dice que ha tenido lugar un fenómeno químico.

Por ejemplo, el hierro de algunos objetos se combina con el oxígeno, en presencia de


la humedad del aire, transformándose en una sustancia diferente, la herrumbre, que no
tiene las propiedades características del metal, es decir no es tan dura, ni tiene su brillo
y su color, ni funde a la misma temperatura, etc.

Es un fenómeno químico lo que ocurre al calentar un hilo de cobre, pues se transforma


en otra sustancia diferente de color negro; también la combustión de un papel y la
descomposición del agua por la electricidad.

Termometría
La termometría es la encargada de la medición de la temperatura en sistemas o
cuerpos. Para realizar dicha medición, se utiliza un instrumento llamado termómetro,
que aprovecha el fenómeno de dilatación de los cuerpos con el calor, para poder medir
la temperatura.

Calorimetría
La calorimetría mide el calor en una reacción química o un cambio de estado usando un
instrumento llamado calorímetro. Pero también se puede emplear un modo indirecto
calculando el calor que los organismos vivos producen a partir de la producción de
dióxido de carbono y de nitrógeno (urea en organismos terrestres), y del consumo de
oxígeno.

ΔU = cambio de energía interna

Como la presión no se mantiene constante, el calor medido no representa el cambio


deentalpía.

Energía
Al mirar a nuestro alrededor se observa que las plantas crecen, los animales se
trasladan y que las máquinas y herramientas realizan las más variadas tareas. Todas
estas actividades tienen en común que precisan del concurso de la energía.

La energía es una propiedad asociada a los objetos y sustancias y se manifiesta en las


transformaciones que ocurren en la naturaleza.

La energía se manifiesta en los cambios físicos, por ejemplo, al elevar un objeto,


transportarlo, deformarlo o calentarlo.

La energía está presente también en los cambios químicos, como al quemar un trozo
de madera o en la descomposición de agua mediante la corriente eléctrica.

La energía es una magnitud cuya unidad de medida en el S.I. es el julio (J)


19
Jefferson Loor García Biofísica Grupo # 15
Trabajo
Se dice que una fuerza realiza trabajo cuando altera el estado de movimiento de un
cuerpo. El trabajo de la fuerza sobre ese cuerpo será equivalente a la energía necesaria
paradesplazarlo1 de manera acelerada. El trabajo es una magnitud físicaescalar que se
representa con la letra (del inglés Work) y se expresa en unidades de energía, esto es
en julios o joules (J) en elSistema Internacional de Unidades.

Ya que por definición el trabajo es un tránsito de energía, nunca se refiere a él como


incremento de trabajo, ni se simboliza como ΔW.

Calor

El calor es posible definirlo como energía transferida entre dos cuerpos o sistemas, se
puede asociar al movimiento molecular y otras partículas que forman la materia. El calor
puede ser generado por reacciones químicas, reacciones nucleares, disipación
electromagnética o por disipación mecánica. Su concepto está ligado al Principio Cero
de la Termodinámica, según el cual dos cuerpos en contacto intercambian energía
hasta que su temperatura se equilibre.

El calor puede ser transferido entre objetos por diferentes mecanismos, entre los que
cabe reseñar la radiación, la conducción y la convección, aunque en la mayoría de los
procesos reales todos los mecanismos anteriores se encuentran presentes en mayor o
menor grado.

El calor que puede intercambiar un cuerpo con su entorno depende del tipo de
transformación que se efectúe sobre ese cuerpo y por tanto depende del camino. "Los
cuerpos no tienen calor, sino energía interna". El calor es la transferencia de parte de
dicha energía interna (energía térmica) de un sistema a otro, con la condición de que
estén a diferente temperatura.

Temperatura y escalas termométricas.


La Temperatura es una propiedad de la materia que está relacionada con la sensación
de calor o frío que se siente en contacto con ella. Cuando tocamos un cuerpo que está
a menos temperatura que el nuestro sentimos una sensación de frío, y al revés de
calor. Sin embargo, aunque tengan una estrecha relación, no debemos confundir la
temperatura con el calor.

Cuando dos cuerpos, que se encuentran a distinta temperatura, se ponen en contacto,


se produce una transferencia de energía, en forma de calor, desde el cuerpo caliente al
frío, esto ocurre hasta que las temperaturas de ambos cuerpos se igualan. En este
sentido, la temperatura es un indicador de la dirección que toma la energía en su
tránsito de unos cuerpos a otros.

20
Jefferson Loor García Biofísica Grupo # 15
La medida
El instrumento utilizado habitualmente para medir la temperatura es el termómetro. Los
termómetros de líquido encerrado en vidrio son los más populares; se basan en la
propiedad que tiene el mercurio, y otras sustancias (alcohol coloreado, etc.), de
dilatarse cuando aumenta la temperatura. El líquido se aloja en una burbuja -bulbo-
conectada a un capilar (tubo muy fino). Cuando la temperatura aumenta, el líquido se
expande por el capilar, así, pequeñas variaciones de su volumen resultan claramente
visibles.

Escalas
Actualmente se utilizan tres escalas para medir al temperatura, la escala Celsius es la
que todos estamos acostumbrados a usar, la Fahrenheit se usa en los países
anglosajones y la escala Kelvin de uso científico.

Nombre Símbolo Temperaturas de referencia Equivalencia

Escala Celsius ºC Puntos de congelación (0ºC) y ebullición del agua (100ºC)

Escala Fahrenhit ºF Punto de congelación de una mezcla anticongelante de agua


y sal y temperatura del cuerpo humano. ºF = 1,8 ºC + 32

Escala Kelvin K Cero absoluto (temperatura más baja posible) y punto triple
del agua. K = ºC + 273

Parece que los primeros intentos de medir la temperatura fueron realizados en el año
170 aC. por Galeno que propuso una escala con cuatro grados de calor y cuatro de frío
en torno a una temperatura media (se dice que agua a 50ºC).

El termómetro
Los primeros ingenios para medir la temperatura se llamaron termoscopios y consistían
en un recipiente esférico que se prolongaba por un largo tubo. Éste contenía un líquido
coloreado y en el interior del recipiente esférico se quitaba parte del aire lo que permitía
que al sumergir el tubo en otro recipiente con un líquido este suba por su interior. Al
calentar el aire contenido en el bulbo la presión aumenta lo que hace descender el
líquido. Esta puede ser una forma de medir las temperaturas. Galileo construyó uno de
estos termoscopios utilizando vino como líquido de color.

La construcción de nuevos ingenios que usaban la propiedad de los líquidos de


dilatarse en cambios de temperatura en el interior de un tubo muy fino llevó a la
construcción de los termómetros. Fué Fahrenheit quien empezó a utilizar el mercurio en
los termómetros.

También hemos de recordar que la fabricación de los termómetros se basaba en la


elección de puntos fijos dando lugar a distintas escalas termométricas:

21
Jefferson Loor García Biofísica Grupo # 15
El termómetro se utiliza para medir la temperatura de un sistema. Generalmente
consistían en un depósito que contiene un líquido que al dilatarse o contraerse se
extiende o se retrae en un capilar lo que, tomando unos puntos fijos, nos permite dividir
la escala termométrica. Ese líquido suele ser alcohol coloreado y hasta hace poco
mercurio.

Existen diferentes tipos de termómetros, los que miden la temperatura ambiente, los
termómetros clínicos que solamente permiten medir la máxima de la temperatura
corporal evitando que al dejar de estar en contacto con el cuerpo la temperatura baje...
En estos momentos están ganando terreno los termómetros digitales que en poco
tiempo, con bastante exactitud, nos dan la temperatura de un sistema. Además los
termómetros clínicos de mercurio están siendo retirados en la Unión Europea para
evitar la contaminación a causa de este metal.

Debemos diferenciar entre calor y temperatura.


El calor, o energía térmica, se define como la energía que se transmite desde un cuerpo
a otro cuando entre ellos hay una diferencia de temperatura. El calor siempre fluye, en
forma espontánea, desde el cuerpo a mayor temperatura hacia el cuerpo a menor
temperatura.

Puesto que el calor es una forma de energía su unidad en el S.I. es el Joule (J) aunque
se usa también habitualmente otra unidad, la caloría (1 cal = 4,18 J). Se define ésta
última como el calor necesario para elevar la temperatura de 1 g de agua de 14,5ºC a
15,5ºC

Propagación del calor. Mecanismos.


El calor es una energía que se transmite de unos cuerpos a otros mediante tres tipos de
mecanismos diferentes:

Conducción: La conducción es la manera de transferir calor desde una masa de


temperatura más elevada a otra de temperatura inferior por contacto directo. El
coeficiente de conducción de un material mide la capacidad del mismo para conducir el
calor a través de la masa del mismo. Los materiales aislantes tienen un coeficiente de
conducción pequeño por lo que su capacidad para conducir el calor es reducida, de ahí
su utilidad.

Convección: La transmisión de calor por convección es un intercambio de calor entre el


aire y una masa material que se encuentran a diferentes temperaturas. El transporte del
calor se produce por movimientos naturales debidos a la diferencia de temperaturas, el
aire caliente tiende a subir y el aire frío baja, o bien mediante mecanismos de
convección forzada.

Radiación: Es un mecanismo de transmisión de calor en el que el intercambio se


produce mediante la absorción y emisión de energía por ondas electromagnéticas, por

22
Jefferson Loor García Biofísica Grupo # 15
lo que no existe la necesidad de que exista un medio material para el transporte de la
energía. El sol aporta energía exclusivamente por radiación.

LA TERMODINÁMICA

Ofrece un aparato formal aplicable únicamente a estados de


equilibrio,definidos como aquel estado hacia «el que todo
sistema tiende a evolucionar y caracterizado porque en el
mismo todas las propiedades del sistema quedan
determinadas por factores intrínsecos y no por influencias
externas previamente aplicadas». Tales estados terminales
de equilibrio son, por definición, independientes del tiempo, y
todo el aparato formal de la termodinámica todas las leyes y
variables termodinámicas, se definen de tal modo que podría decirse que un sistema
está en equilibrio si sus propiedades pueden describirse consistentemente empleando
la teoría termodinámica. Los estados de equilibrio son necesariamente coherentes con
los contornos del sistema y las restricciones a las que esté sometido. Por medio de los
cambios producidos en estas restricciones (esto es, al retirar limitaciones tales como
impedir la expansión del volumen del sistema, impedir el flujo de calor, etc.), el sistema
tenderá a evolucionar de un estado de equilibrio a otro; comparando ambos estados de
equilibrio, la termodinámica permite estudiar los procesos de intercambio de masa y
energía térmica entre sistemas térmicos diferentes.

Como ciencia fenomenológica, la termodinámica no se ocupa de ofrecer una


interpretación física de sus magnitudes. La primera de ellas, la energía interna, se
acepta como una manifestación macroscópica de las leyes de conservación de la
energía a nivel microscópico, que permite caracterizar el estado energético del sistema
macroscópico. El punto de partida para la mayor parte de las consideraciones
termodinámicas son los que postulan que la energía puede ser intercambiada entre
sistemas en forma de calor o trabajo, y que sólo puede hacerse de una determinada
manera. También se introduce una magnitud llamada entropía, que se define como
aquella función extensiva de la energía interna, el volumen y la composición molar que
toma valores máximos en equilibrio: el principio de maximización de la entropía define
el sentido en el que el sistema evoluciona de un estado de equilibrio a otro.
Esla mecánica estadística, íntimamente relacionada con la termodinámica, la que
ofrece una interpretación física de ambas magnitudes: la energía interna se identifica
con la suma de las energías individuales de los átomos y moléculas del sistema, y la
entropía mide el grado de orden y el estado dinámico de los sistemas, y tiene una
conexión muy fuerte con la teoría de información. En la termodinámica se estudian y
clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos
como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza
por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas
se pueden combinar para expresar la energía interna y los potenciales termodinámicos,

23
Jefferson Loor García Biofísica Grupo # 15
útiles para determinar las condiciones de equilibrio entre sistemas y los procesos
espontáneos.

PRIMERA LEY DE LA TERMODINÁMICA

También conocida como principio de conservación de la energía para la termodinámica,


establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con
otro, la energía interna del sistema cambiará.
Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe
intercambiar el sistema para compensar las diferencias entre trabajo y energía interna.
Fue propuesta por NicolasLéonardSadi Carnot en 1824, en su obra Reflexiones sobre
la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta
potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra
fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf
Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la
termodinámica.
La ecuación general de la conservación de la energía es la siguiente:

Que aplicada a la termodinámica teniendo en cuenta el criterio de signos


termodinámico, queda de la forma:

Donde U es la energía interna del sistema (aislado), Q es la cantidad de calor aportado


al sistema y W es el trabajo realizado por el sistema.
Esta última expresión es igual de frecuente encontrarla en la forma ∆U = Q + W. Ambas
expresiones, aparentemente contradictorias, son correctas y su diferencia está en que
se aplique el convenio de signos IUPAC o el Tradicional (véase criterio de signos
termodinámico).

24
Jefferson Loor García Biofísica Grupo # 15
SEGUNDA LEY DE LA TERMODINÁMICA

Esta ley marca la dirección en la que deben llevarse a cabo los procesos
termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario
(por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a
concentrarse en un pequeño volumen). También establece, en algunos casos, la
imposibilidad de convertir completamente toda la energía de un tipo a otro sin pérdidas.
De esta forma, la segunda ley impone restricciones para las transferencias de energía
que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el primer
principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud
física llamada entropía, de tal manera que, para un sistema aislado (que no intercambia
materia ni energía con su entorno), la variación de la entropía siempre debe ser mayor
que cero.
Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es
unidireccional, desde los cuerpos de mayor temperatura hacia los de menor
temperatura, hasta lograr un equilibrio térmico.
La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo
mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de
este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su
equivalente en el trabajo mecánico obtenido.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el
de Clausius y el de Kelvin.
Enunciado de Clausius

En palabras de Sears es: «No es posible ningún


proceso cuyo único resultado sea la extracción
de calor de un recipiente a una cierta
temperatura y la absorción de una cantidad
igual de calor por un recipiente a temperatura
más elevada».
Enunciado de Kelvin—Planck
Es imposible construir una máquina térmica
que, operando en un ciclo, no produzca otro efecto que la absorción de energía desde
un depósito, con la realización de una cantidad igual de trabajo.
Otra interpretación
Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin
aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que
el rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo,
siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor
25
Jefferson Loor García Biofísica Grupo # 15
sea el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento
energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.
TERCERA LEY DE LA TERMODINÁMICA

Algunas fuentes se refieren incorrectamente al postulado de Nernst como "la tercera de


las leyes de la termodinámica". Es importante reconocer que no es una noción exigida
por la termodinámica clásica por lo que resulta inapropiado tratarlo de «ley», siendo
incluso inconsistente con la mecánica estadística clásica y necesitando el
establecimiento previo de la estadística cuántica para ser valorado adecuadamente. La
mayor parte de la termodinámica no requiere la utilización de este postulado.13 El
postulado de Nernst, llamado así por ser propuesto por WaltherNernst, afirma que es
imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de
procesos físicos. Puede formularse también como que a medida que un sistema dado
se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La
entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas
iguales al cero absoluto.
Es importante remarcar que los principios o leyes de la termodinámica son válidas
siempre para los sistemas macroscópicos, pero inaplicables a nivel microscópico. La
idea deldemonio de Maxwell ayuda a comprender los límites de la segunda ley de la
termodinámica jugando con las propiedades microscópicas de las partículas que
componen un gas.
Sistema

Se puede definir un sistema como un conjunto de materia, que está limitado por una
superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale
materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay
intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un
sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer
aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto.
Ponemos unos ejemplos:

 Un sistema abierto: se da cuando existe un intercambio de masa y de energía


con los alrededores; es por ejemplo, un coche. Le echamos combustible y él
desprende diferentes gases y calor.
 Un sistema cerrado: se da cuando no existe un intercambio de masa con el
medio circundante, sólo se puede dar un intercambio de energía; un reloj de
cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de
energía que emplea para medir el tiempo.
 Un sistema aislado: se da cuando no existe el intercambio ni de masa y
energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar
26
Jefferson Loor García Biofísica Grupo # 15
con él? Sin embargo un termo lleno de comida caliente es una aproximación,
ya que el envase no permite el intercambio de materia e intenta impedir que
la energía (calor) salga de él. El universo es un sistema aislado, ya que la
variación de energía es cero

Medio externo

Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que
puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo
calentada por un mechero. Consideremos un sistema formado por la taza y el agua,
entonces el medio está formado por el mechero, el aire, etc.

REACCIÓN QUÍMICA

cambio químico o fenómeno químico, es todo proceso termodinámico en el cual una o


más sustancias (llamadas reactantes), por efecto de un factor energético, se
transforman, cambiando su estructura molecular y sus enlaces, en otras sustancias
llamadas productos. Los reactantes pueden ser elementos o compuestos. Un ejemplo
de reacción química es la formación de óxido de hierro producida al reaccionar
el oxígeno del aire con el hierro de forma natural, o una cinta de magnesio al colocarla
en una llama se convierte en óxido de magnesio, como un ejemplo de reacción
inducida.
A la representación simbólica de las reacciones se les llama ecuaciones químicas.
Los productos obtenidos a partir de ciertos tipos de reactivos dependen de las
condiciones bajo las que se da la reacción química. No obstante, tras un estudio
cuidadoso se comprueba que, aunque los productos pueden variar según cambien las
condiciones, determinadas cantidades permanecen constantes en cualquier reacción
química. Estas cantidades constantes, las magnitudes conservadas, incluyen el número
de cada tipo de átomo presente, la carga eléctrica y la masa total.

27
Jefferson Loor García Biofísica Grupo # 15
TIPOS DE REACCIONES

REACCIONES DE LA QUÍMICA INORGÁNICA

Desde un punto de vista de la química inorgánica se pueden postular dos grandes


modelos para las reacciones químicas de los compuestos inorgánicos:
reacciones ácido-base o de neutralización (sin cambios en los estados de oxidación)
y reacciones redox (con cambios en los estados de oxidación). Sin embargo, podemos
clasificarlas de acuerdo con el mecanismo de reacción y tipo de productos que resulta
de la reacción. En esta clasificación entran las reacciones de síntesis (combinación),

descomposición, de sustitución simple, de sustitución doble:

REACCIÓN ENDOTÉRMICA
Se denomina reacción endotérmica a cualquier reacción química que absorbe energía.
Si hablamos de entalpía (H), una reacción endotérmica es aquella que tiene un
incremento de entalpía o ΔH positivo. Es decir, la energía que poseen los productos es
mayor a la de los reactivos.
Las reacciones endotérmicas y especialmente las relacionadas con
el amoníaco impulsaron una próspera industria de generación de hielo a principios
del siglo XIX. Actualmente el frío industrial se genera con electricidad en máquinas
frigoríficas.
EJEMPLO DE REACCIÓN ENDOTÉRMICA
Un ejemplo de reacción endotérmica es la producción del ozono (O3). Esta reacción
ocurre en las capas altas de la atmósfera, gracias a la radiación

28
Jefferson Loor García Biofísica Grupo # 15
ultravioleta proporcionada por la energía del Sol. También se produce esta reacción en
las tormentas, en las proximidades de las descargas eléctricas.

REACCIÓN EXOTÉRMICA
Se denomina reacción exotérmica a cualquier reacción química que desprenda energía,
ya sea como luz o calor,1 o lo que es lo mismo: con una variación negativa de la
entalpía; es decir: -ΔH. El prefijo exo significa «hacia fuera». Por lo tanto se entiende
que las reacciones exotérmicas liberan energía. Considerando que A, B,
C y D representen sustancias genéricas, el esquema general de una reacción
exotérmica se puede escribir de la siguiente manera:

A + B → C + D + calor

Ocurre principalmente en las reacciones de oxidación. Cuando éstas son intensas


pueden generar fuego. Si dos átomos de hidrógeno reaccionan entre sí e integran una
molécula, el proceso es exotérmico.
H + H = H2

ΔH = -104 kcal/mol

Son cambios exotérmicos las transiciones de gas a líquido (condensación) y de líquido


a sólido (solidificación).
Un ejemplo de reacción exotérmica es la combustión.
La reacción contraria, que consume energía, se denomina endotérmica.

TEMPERATURA

En física, se define como una magnitud escalar relacionada con la energía interna de
un sistema termodinámico, definida por el principio cero de la termodinámica. Más
específicamente, está relacionada directamente con la parte de la energía interna
conocida como «energía cinética», que es la energía asociada a los movimientos de las
partículas del sistema, sea en un sentido traslacional, rotacional, o en forma
de vibraciones. A medida de que sea mayor la energía cinética de un sistema, se
observa que éste se encuentra más «caliente»; es decir, que su temperatura es mayor.
En el caso de un sólido, los movimientos en cuestión resultan ser las vibraciones de las
partículas en sus sitios dentro del sólido. En el caso de un gas ideal monoatómico se
trata de los movimientos traslacionales de sus partículas (para los gases multiatómicos
los movimientos rotacional y vibracional deben tomarse en cuenta también).
El desarrollo de técnicas para la medición de la temperatura ha pasado por un largo
proceso histórico, ya que es necesario darle un valor numérico a una idea intuitiva como
es lo frío o lo caliente.

29
Jefferson Loor García Biofísica Grupo # 15
Multitud de propiedades fisicoquímicas de los materiales o las sustancias varían en
función de la temperatura a la que se encuentren, como por ejemplo
su estado (sólido, líquido, gaseoso, plasma), su volumen, la solubilidad, la presión de
vapor, su color o la conductividad eléctrica. Así mismo es uno de los factores que
influyen en la velocidad a la que tienen lugar lasreacciones químicas.
La temperatura se mide con termómetros, los cuales pueden ser calibrados de acuerdo
a una multitud de escalas que dan lugar a unidades de medición de la temperatura. En
el Sistema Internacional de Unidades, la unidad de temperatura es elkelvin (K), y la
escala correspondiente es la escala Kelvin o escala absoluta, que asocia el valor «cero
kelvin» (0 K) al «cero absoluto», y se gradúa con un tamaño de grado igual al del grado
Celsius. Sin embargo, fuera del ámbito científico el uso de otras escalas de temperatura
es común. La escala más extendida es la escala Celsius, llamada «centígrada»; y, en
mucha menor medida, y prácticamente solo en los Estados Unidos, la
escala Fahrenheit. También se usa a veces la escalaRankine (°R) que establece su
punto de referencia en el mismo punto de la escala Kelvin, el cero absoluto, pero con un
tamaño de grado igual al de la Fahrenheit, y es usada únicamente en Estados Unidos, y
solo en algunos campos de laingeniería.

RADIACIÓN

El fenómeno de la radiación consiste en la propagación de energía en forma de ondas


electromagnéticas o partículas subatómicas a través del vacío o de un medio material.
La radiación propagada en forma de ondas electromagnéticas (rayos UV, rayos
gamma, rayos X, etc.) se llama radiación electromagnética, mientras que la
llamada radiación corpuscular es la radiación transmitida en forma de partículas
subatómicas (partículas α, partículas β, neutrones, etc.) que se mueven a gran
velocidad, con apreciable transporte de energía.
Si la radiación transporta energía suficiente como para provocar ionización en el medio
que atraviesa, se dice que es una radiación ionizante. En caso contrario se habla
deradiación no ionizante. El carácter ionizante o no ionizante de la radiación es
independiente de su naturaleza corpuscular u ondulatoria.
Son radiaciones ionizantes los rayos X, rayos γ, partículas α y parte del espectro de la
radiación UV entre otros. Por otro lado, radiaciones como los rayos UV y las ondas de
radio, TV o de telefonía móvil, son algunos ejemplos de radiaciones no ionizantes.

ELEMENTOS RADIACTIVOS

Algunas substancias químicas están formadas por elementos químicos cuyos núcleos
atómicos son inestables. Como consecuencia de esa inestabilidad, sus átomos emiten
partículas subatómicas de forma intermitente y aleatoria.En general son radiactivas las
sustancias que presentan un exceso de protones o neutrones. Cuando el número de
neutrones difiere del número de protones, se hace más difícil que la fuerza nuclear
fuerte debida al efecto del intercambio de piones pueda mantenerlos

30
Jefferson Loor García Biofísica Grupo # 15
unidos.Eventualmente el desequilibrio se corrige mediante la liberación del exceso de
neutrones o protones, en forma de partículas α que son realmente núcleos de helio,
partículas β que pueden ser electrones o positrones. Estas emisiones llevan a dos tipos
de radiactividad:

 Radiación α, que aligera los núcleos atómicos en 4 unidades básicas, y cambia el


número atómico en dos unidades
 Radiación β, que no cambia la masa del núcleo, ya que implica la conversión de un
protón en un neutrón o viceversa, y cambia el número atómico en una sola unidad
(positiva o negativa, según la partícula emitida sea un electrón o un positrón).
Además existe un tercer tipo de radiación en que simplemente se emiten fotones de alta
frecuencia, llamada radiación γ. En este tipo de radicación lo que sucede es que el
núcleo pasa de un estado excitado de mayor energía a otro de menor energía, que
puede seguir siendo inestable y dar lugar a la emisión de más radiación de tipo α, β o γ.
La radiación γ es un tipo de radiación electromagnética muy penetrante debido a que
los fotones no tienen carga eléctrica, así como ser inestables dentro de su capacidad
molecular dentro del calor que efectuasen entre sí.
RADIACIÓN TÉRMICA
Cuando un cuerpo está más caliente que su entorno, pierde calor hasta que su
temperatura se equilibra con la de dicho entorno. Este proceso de pérdida de calor se
puede producir por tres tipos de procesos: conducción, convección y radiación térmica.
De hecho, la emisión de radiación puede llegar a ser el proceso dominante cuando los
cuerpos están relativamente aislados del entorno o cuando están a temperaturas muy
elevadas. Así, un cuerpo muy caliente emitirá, por norma general, gran cantidad
de ondas electromagnéticas. La cantidad de energía radiante emitida o calor radiado
viene dada por la Ley de Stefan-Boltzmann. De acuerdo con esta ley, dicho calor
radiado es proporcional a su temperatura absoluta elevada a la cuarta potencia:

Donde

 P es la potencia radiada.
 α es un coeficiente que depende de la naturaleza del cuerpo; α = 1 para un cuerpo
negro perfecto.
 S es el área de la superficie que radia.
 σ es la constante de Stefan-Boltzmann, que tiene un valor de 5,67 × 10−8 W/m²K4
 T es la temperatura absoluta.

31
Jefferson Loor García Biofísica Grupo # 15
TERMODINAMICA APLICADA EN EL CUERPO HUMANO

El cuerpo humano puede ser considerado como un sistema termodinámico abierto, que
debe mantener su temperatura constante de 37ºC, a pesar de encontrarse en un
entorno de temperatura generalmente inferior que se pude tomar como una media de
15ºC. Por otra parte esta continuamente intercambiando material y energía con sus
alrededores (metabolismo), consumiendo energía para desarrollar los trabajos internos
y externos, y para fabricar moléculas estables (anabolismo) para lo cual necesita
alimentarse ingiriendo moléculas de gran energía libre (nutrición) que a partir de
determinadas reacciones de combustión dan lugar a productos de menor energía
(catabolismo).

Tiene la peculiaridad de que su entropía es mínima, por eso es un sistema


termodinámico inestable lo que provoca su evolución permanente, o sea la vida misma.
Precisamente la muerte implicaría un estado de máxima entropía. Para que el
organismo vivo pueda mantenerse en dicho estado es necesario que elimine el exceso
de entropía que se produce continuamente inherente a los procesos vitales: circulación
de la sangre, respiración, etc.

La primera ley de la termodinámica nos dice que la energía no se crea ni se destruye


solo se trasforma , en organismos vivientes las reacciones más frecuentes son
irreversibles y no son hechas en condiciones adiabática y es por eso que la aplicación
de las leyes de la termodinámica se limita bastante , en sistemas biológicos el proceso
de clasificación de las propiedades de sistemas es más complicado pero en general
podemos decir que los seres vivos no son sistemas en equilibrio , estos organismos son
organismos abiertos que intercambian energía y materia con el entorno.

Los seres vivos cumplen con la segunda ley de la termodinámica, como cualquier otro
sistema físico, a veces se piensa que los seres vivos, finalmente mueren "en
cumplimiento" de la segunda ley, porque la creciente entropía acaba con ellos.

En la definición de vida, desde el punto de vista de la termodinámica los sistemas vivos


son regiones localizadas donde se produce un continuo incremento de orden sin
intervención externa. Esta definición se basa en el segundo principio de la
termodinámica, el cual dice que la entropía o desorden, del universo siempre aumenta.

Aplicado al estudio de la célula, pues tiene que ver desde el proceso de alimentación y
respiración celular, desde el punto de vista de la cadena alimenticia, que desde este
punto de vista es la cadena de energía; muchas veces se compara a la célula con una
fábrica con materia prima, proceso de producción y consumo de energía.

Cuando los sistemas físicos biológicos recuperan la energía como información, no


"crean" la información, sino tan sólo la tornan disponible para el sistema.

32
Jefferson Loor García Biofísica Grupo # 15
En otras palabras, la segunda ley no puede explicar por qué la recuperación de energía
como información crece (cuando el sistema se auto organiza), o decae (cuando el
sistema declina o envejece). Luego, ¿por qué envejecen los seres vivos?, ¿por qué se
originan y auto organizan?

Los seres vivos intercambiamos energía y materia con el medio ambiente. Aquí nos
encontramos lejos de un equilibrio termodinámico. Los procesos son irreversibles y no
reproducibles. La flecha del tiempo es infranqueable en nuestro organismo así como en
la naturaleza. Nunca los sistemas regresan a su antiguo estado de orden. Aquí rigen las
leyes de la teoría del caos y la no-linealidad.

Composición química del cuerpo humano

Conocer cómo y de qué elementos se compone el cuerpo humano es algo fundamental


para comprender su funcionamiento, sus mecanismos fisiológicos y la forma en que sus
estructuras interactúan. Se estima que un 96% de nuestro organismo se compone por 4
elementos en particular: oxígeno, carbono, hidrógeno y nitrógeno, mayoritariamente en
forma de agua.

El 4% restante se compone por otros pocos elementos y bien podríamos decir que el
99% del cuerpo está compuesto por 6 elementos: oxígeno, carbono, hidrógeno,
nitrógeno, calcio, y fósforo.

Oxígeno (65%)

El 60% del peso del cuerpo se constituye por agua. El oxígeno (O,8) ocupa el primer
lugar de la lista y compone el 65% del organismo.

Carbono (18%)

El carbono (C,6) es uno de los elementos más importantes para la vida. Mediante los
enlaces carbono, que pueden formarse y romperse con una mínima cantidad de
energía, se posibilita la química orgánica dinámica que se produce a nivel celular.

Hidrógeno (10%)

El hidrógeno (H,1) es el elemento químico que más abunda en todo el universo. En


nuestro organismo sucede algo muy similar y junto al oxígeno en forma de agua.

Nitrógeno (3%)

Presente en muchísimas moléculas orgánicas, el nitrógeno (N,7) constituye el 3% del


cuerpo humano. Se encuentra, por ejemplo, en los aminoácidos que forman las
proteínas y en los ácidos nucleicos de nuestro ADN.

Calcio (1.5%)

33
Jefferson Loor García Biofísica Grupo # 15
De los minerales que componen el organismo, el calcio (Ca,20) es el más abundante y
es vital para nuestro desarrollo. Se encuentra prácticamente a lo largo de todo el
cuerpo, en los huesos y por ejemplo en los dientes. Además, son muy importantes en la
regulación de proteínas.

Fósforo (1%)

El fósforo (P,15) también es muy importante para las estructuras óseas del cuerpo en
donde abunda. No obstante, igualmente predominan en las moléculas de ATP
proporcionándole energía a las células.

Proceso de alimentación. Estrategia metabólica de los seres vivos

En el sistema digestivo ocurre una serie de procesos que modifican el alimento que
ingresa al organismo. Mediante esos procesos, el alimento se transforma física y
químicamente.

Los alimentos, en su mayoría formados por moléculas complejas, se transforman o


degradan en otras más sencillas y pequeñas, condición de importancia para su
absorción.

Dentro del sistema digestivo, la secuencia de procesos que transforman los alimentos
es la siguiente:

INGESTIÓN: proceso de incorporación de alimentos a través de la boca.

DIGESTIÓN: serie de procesos que ocurre en diversos órganos del sistema digestivo y
que transforman los alimentos.Comprende dos tipos de transformaciones:

Tansformación física: fragmenta los alimentos en porciones más pequeñas a través de


la masticación en la boca y de los movimientos peristálticos a lo largo del tubo
digestivo.

Transformación química:En la boca, estómago e intestino delgado las enzimas


digestivas desdoblan el alimento transformándolo en moléculas más sencillas.

ABSORCIÓN: los nutrientes representados por moléculas sencillas pasan del sistema
digestivo a la sangre para ser distribuídos a todo el cuerpo.

EGESTIÓN: es el proceso a través del cual se expulsan los desechos de la digestión


como materia fecal hacia el exterior.

34
Jefferson Loor García Biofísica Grupo # 15
Regulación de calor en los animales

Los mamíferos son animales endotérmicos, esto es, son capaces de producir por sí
mismos el calor necesario para que las funciones orgánicas puedan llevarse a cabo sin
depender de las condiciones ambientales como ocurre con los reptiles, que han de
obtener esta energía de fuentes externas como el sol (ectotermia).

Pero además, junto con las aves, son los únicos animales capaces de regular la
temperatura de su organismo. El mecanismo de regulación de temperatura corporal,
conocido como homeotermia, está mucho más desarrollado en los mamíferos,
especialmente en aquellas órdenes que han sido sometidas a una mayor presión
evolutiva. Así los monotremas, como la mayor parte de las aves, sólo son capaces de
conseguirlo relativamente.

La temperatura normal de cada especie se mantiene dentro de un rango más o menos


estable y que por norma general se halla entre los 36 y 41 ºC. Y para conseguir esta
estabilidad, los mamíferos se sirven de dos complejos mecanismos: - la regulación de
los movimientos musculares involuntarios. - la activación y desactivación de los distintos
procesos metabólicos en la medida que lo necesitan.

Los mamíferos tienen la capacidad de producir movimientos involuntarios de los


músculos que elevan la temperatura corporal desencadenando además procesos
metabólicos que contribuyen a tal ascenso.

En el hipotálamo existe un centro termorregulador que da las órdenes oportunas al


organismo, no sólo para elevar la temperatura ante condiciones ambientales frías, sino
para descenderla si en el medio las temperaturas son excesivas. Así, además de
desencadenar los mecanismos de temblor muscular o de erección del pelo que
incrementa la capacidad aislante del mismo, y regular los niveles de actividad
metabólica oportunos en cada momento, regula otros mecanismos que tienen como fin
los efectos contrarios.

La respiración tiene lugar con el consiguiente intercambio de gases, incluido vapor de


agua que desciende la temperatura interna del organismo. Es por esto que a medida
que aumenta la temperatura la respiración se hace más rápida, permitiendo el mayor
intercambio de gases y descendiendo la temperatura al mismo tiempo que se ventila la
sangre.

Este mismo efecto tiene la vasodilatación de los capilares periféricos que tiene lugar
cuando aumenta la temperatura ambiental. Estos mecanismos se ven reforzados con la
sudoración que elimina agua del organismo depositándola en su superficie a la misma
temperatura que el organismo. Esta agua acabará evaporándose con el consecuente
enfriamiento de la piel y la sangre abundante que circula por los capilares dérmicos.

35
Jefferson Loor García Biofísica Grupo # 15
En los casos extremos en los que estos mecanismos no son suficientes, determinadas
especies animales recurren a procesos fisiológicos complejos que conducen al
aletargamiento del animal. El metabolismo se ralentiza y los fenómenos de respiración,
pulso y ritmo cardíaco disminuyen hasta casi desaparecer. Estos fenómenos letárgicos
se producen en condiciones climatológicas extremadamente adversas como los
inviernos polares o los veranos en determinadas zonas desérticas del planeta y se
conocen respectivamente como hibernación y estivación. Cuando las temperaturas
ambientales se van volviendo tolerables, los animales recuperan lentamente su estado
habitual y se normalizan todas las funciones animales.

Las especies de menor envergadura tienen mayores problemas para conseguir


mantener la temperatura constante, ya que la relación entre la superficie corporal y el
volumen es mucho mayor que en animales de mayor tamaño, por lo que la pérdida de
calor será considerablemente mayor. Este problema es contrarrestado, por un lado con
una hiperactividad capaz de generar calor abundante, y por otro aumentando el aporte
energético por medio de los alimentos, tanto en cantidad como en calidad de los
mismos. Pero la alimentación rica y copiosa no sería suficiente si estos animales no
fuesen capaces de digerirla y absorber los nutrientes de forma urgente, por lo que a
diferencia de los animales grandes, que tienen lentas digestiones, los pequeños
mamíferos son capaces de asimilar de forma casi inmediata los nutrientes aportados
por los alimentos.

Los animales que habitan aguas frías corren el riesgo de perder rápidamente la
temperatura corporal. La densa capa de grasa subcutánea de todos ellos y el tupido y
denso pelaje de muchas de las especies actúan de aislante térmico de manera muy
efectiva. También la morfología corporal de estos animales tiende a reducir la superficie
total, de tal manera que disminuye la pérdida de calor.

Nutrientes principales, clasificación

Los nutrientes principales son proteínas, grasas, hidratos de carbono, vitaminas y


minerales.

Nutrientes plásticos:
El primer grupo, substancias formadoras de tejidos, lo constituye lo que denominamos
nutrientes plásticos, es decir, aquellos que forman la estructura de nuestro organismo,
es decir, los músculos, los huesos, las vísceras,...
36
Jefferson Loor García Biofísica Grupo # 15
Equivalen, en el complejo edificio que es nuestro cuerpo, a los ladrillos que, uno junto a
otro, lo van formando dándole solidez y permitiendo su crecimiento.

Son nutrientes plásticos las proteínas, sobre todo, aunque también necesitamos
pequeñas cantidades de otras substancias plásticas: ácidos grasos, hidratos de
carbono, minerales.

Nutrientes energéticos
El segundo grupo, lo constituyen aquellos nutrientes que en nuestro organismo cumplen
un papel preferentemente energético. Al ingerirlos, permiten que podamos realizar
todas nuestras actividades diarias (trabajar, comer, estudiar, correr, defendernos del
frío, etc). Equivalen a la gasolina que permite el movimiento de un automóvil y el
funcionamiento de sus mecanismos

Son nutrientes eminentemente energéticos las grasas y los hidratos de carbono. Las
proteínas, aún siendo plásticos, pueden usarse también como energéticos sí se
ingieren más de la cantidad que necesitamos, lo cual no cabe duda que es un
"despilfarro".

Nutrientes Reguladores
El tercer grupo, lo forman aquellas substancias que permitirán a nuestro organismo
utilizar correctamente las otras ya citadas y desarrollar por tanto sus funciones de modo
adecuado. Se trata de substancias sin valor energético a las cuales denominamos
reguladoras: son las vitaminas y determinados minerales, necesarios en cantidades
muy pequeñas pero imprescindibles para el correcto funcionamiento del metabolismo
en general, como sí de semáforos para el tráfico de la ciudad se tratara.

Las cantidades de nutrientes y de energía que cada persona necesita ingerir difieren
según las condiciones personales (edad, sexo, tamaño, actividad física, lactancia,
embarazo, etc) y ambientales (temperatura ambiente, insolación, etc) existentes,
debiendo adaptarse las ingestas a estas condiciones para evitar desequilibrios.

RADIACIÓN

El fenómeno de la radiación consiste en la propagación de energía en forma de ondas


electromagnéticas o partículas subatómicas a través del vacío o de un medio material.

Introducción
La radiación propagada en forma de ondas electromagnéticas (rayos UV, rayos gamma,
rayos X, etc.) se llama radiación electromagnética, mientras que la llamada radiación
corpuscular es la radiación transmitida en forma de partículas subatómicas (partículas
α, partículas β, neutrones, etc.) que se mueven a gran velocidad, con apreciable
transporte de energía.

37
Jefferson Loor García Biofísica Grupo # 15
Si la radiación transporta energía suficiente como para provocar ionización en el medio
que atraviesa, se dice que es una radiación ionizante. En caso contrario se habla de
radiación no ionizante. El carácter ionizante o no ionizante de la radiación es
independiente de su naturaleza corpuscular u ondulatoria.

Son radiaciones ionizantes los rayos X, rayos γ, partículas α y parte del espectro de la
radiación UV entre otros. Por otro lado, radiaciones como los rayos UV y las ondas de
radio, TV o de telefonía móvil, son algunos ejemplos de radiaciones no ionizantes.

Evaporación
La evaporación es un proceso físico que consiste en el paso lento y gradual de un
estado líquido hacia un estado gaseoso, tras haber adquirido suficiente energía para
vencer la tensión superficial. A diferencia de la ebullición, la evaporación se puede
producir a cualquier temperatura, siendo más rápido cuanto más elevada sea esta. No
es necesario que toda la masa alcance el punto de ebullición. Cuando existe un espacio
libre encima de un líquido, una parte de sus moléculas está en forma gaseosa, al
equilibrase, la cantidad de materia gaseosa define la presión de vapor saturante, la cual
no depende del volumen, pero varía según la naturaleza del líquido y la temperatura. Si
la cantidad de gas es inferior a la presión de vapor saturante, una parte de las
moléculas pasan de la fase líquida a la gaseosa: eso es la evaporación. Cuando la
presión de vapor iguala a la atmosférica, se produce la ebullición.1 En hidrología, la
evaporación es una de las variables hidrológicas importantes al momento de establecer
el balance hídrico de una determinada cuenca hidrográfica o parte de esta. En este
caso, se debe distinguir entre la evaporación desde superficies libres y la evaporación
desde el suelo. La evaporación de agua es importante e indispensable en la vida, ya
que el vapor de agua, al condensarse se transforma en nubes y vuelve en forma de
lluvia, nieve, niebla o rocío.

Vista como una operación unitaria, la evaporación es utilizada para eliminar el vapor
formado por ebullición de una solución o suspensión líquida.

Sudor
El sudor es producido generalmente como un medio de refrigeración corporal conocido
como transpiración. El sudor también puede ser causado por una respuesta física a la
estimulación y el miedo, ya que estos estímulos aumentan la excitación que el sistema
nervioso simpático ejerce sobre las glándulas sudoríparas.

Trastornos
La hiperhidrosis es un trastorno que consiste en un exceso de sudor que se produce
por fallo de nuestro sistema nervioso autónomo (simpático), originando que nuestro
organismo produzca más sudor del que necesita para regular la temperatura corporal.
Muchas personas que presentan esta enfermedad ven afectada su calidad de vida y
sienten pérdida de control sobre ella, ya que la transpiración se presenta
independientemente de la temperatura y del estado emocional. Esta alteración suele

38
Jefferson Loor García Biofísica Grupo # 15
iniciarse en la infancia o la pubertad y normalmente dura toda la vida. Se dice también
que es hereditaria y ciertos alimentos y olores pueden afectar más a este trastorno.

Según las regiones afectadas por exceso de transpiración, se distinguen: sudoración


palmar, sudoración axilar y sudoración facial (un fenómeno asociado a la sudoración
facial es el rubor facial, que consiste en el enrojecimiento del rostro).

Además, se puede distinguir hiperhidrosis primaria e hiperhidrosis secundaria: la


primera puede iniciarse en cualquier momento de la vida; la segunda, puede deberse a
trastornos de la glándula tiroidea o pituitaria, diabetes mellitus, tumores, menopausia o
ciertos fármacos.

Se estima que el 1 % de la población padece hiperhidrosis primaria; afecta de igual


manera a hombres y mujeres.

39
Jefferson Loor García Biofísica Grupo # 15
SEGUNDA UNIDAD

MAGNITUDES Y MEDIDA.

MAGNITUD, CANTIDAD Y UNIDAD.

La noción de magnitud está inevitablemente relacionada con la de medida. Se


denominan magnitudes ciertas propiedades o aspectos observables de un sistema
físico que pueden ser expresados en forma numérica. En otros términos, las
magnitudes son propiedades o atributos medibles.
La longitud, la masa, el volumen, la fuerza, la velocidad, la cantidad de sustancia son
ejemplos de magnitudes físicas. La belleza, sin embargo, no es una magnitud, entre
otras razones porque no es posible elaborar una escala y mucho menos un aparato que
permita determinar cuántas veces una persona o un objeto es más bello que otro.
La sinceridad o la amabilidad tampoco lo son. Se trata de aspectos cualitativos porque
indican cualidad y no cantidad.
En el lenguaje de la física la noción de cantidad se refiere al valor que toma una
magnitud dada en un cuerpo o sistema concreto; la longitud de esta mesa, la masa de
aquella moneda, el volumen de ese lapicero, son ejemplos de cantidades.
Una cantidad de referencia se denomina unidad y el sistema físico que encarna la
cantidad considerada como una unidad se denomina patrón.
La medida como comparación.
La medida de una magnitud física supone, en último extremo, la comparación del objeto
que encarna dicha propiedad con otro de la misma naturaleza que se toma como
referencia y que constituye el patrón.
La medida de longitudes se efectuaba en la antigüedad empleando una vara como
patrón, es decir, determinando cuántas veces la longitud del objeto a medir contenía a
la de patrón. La vara, como predecesora del metro de sastre, ha pasado a la historia
como una unidad de medida equivalente a 835,9 mm. Este tipo de comparación
inmediata de objetos corresponde a las llamadas medidas directas.
Con frecuencia, la comparación se efectúa entre atributos que, aun cuando está
relacionado con lo que se desea medir, son de diferente naturaleza. Tal es el caso de
las medidas térmicas, en las que comparando longitudes sobre la escala graduada de

40
Jefferson Loor García Biofísica Grupo # 15
un termómetro se determinan temperaturas. Esta otra clase de medidas se denominan
indirectas.
Tipos de magnitudes.
Entre las distintas propiedades medibles puede establecerse una clasificación básica.
Un grupo importante de ellas quedan perfectamente determinadas cuando se expresa
su cantidad mediante un número seguido de la unidad correspondiente. Este tipo de
magnitudes reciben el nombre de magnitudes escalares. La longitud, el volumen, la
masa, la temperatura, la energía, son sólo algunos ejemplos.
Algunas Operaciones Con Vectores.
La suma de dos vectores a y b con un origen común 0 se define mediante la llamada
regla del paralelogramo, según la cual el vector suma s es igual a la diagonal del
paralelogramo -considerada como segmento orientado- formado por a, b y sus
respectivas paralelas trazadas por los extremos de ambos vectores. Una de las
características de la suma vectorial es que el módulo o longitud del vector suma no es
igual, en general, a la suma de los módulos de los vectores sumando.
Como sucede con los números, la diferencia de dos vectores debe entenderse como la
suma de uno de ellos con el opuesto del otro:
d = a - b = a + (-b)
Dado un vector v se define el opuesto de v como otro vector de igual módulo y
dirección, pero de sentido contrario. Se representa como -v. Utilizando el anterior
esquema del paralelogramo, el vector diferencia coincide en longitud y dirección con la
otra diagonal del paralelogramo y su sentido es tal que apunta hacia el vector minuendo
o primer término de la suma.
Es decir, como n veces el vector inicial. Este procedimiento se puede extender a
cualquier otro número real, de modo que el producto de un vector por un número es
otro vector que tiene por módulo el producto del número por el módulo del vector
original, por dirección la misma y por sentido el mismo o el opuesto según el número n
en cuestión sea positivo o negativo.
SISTEMAS DE UNIDADES.
¿Qué es un sistema de unidades?
En las ciencias físicas tanto las leyes como las definiciones relacionan
matemáticamente entre sí grupos, por lo general amplios, de magnitudes. Por ello es
posible seleccionar un conjunto reducido pero completo de ellas de tal modo que
cualquier otra magnitud pueda ser expresada en función de dicho conjunto.
Esas pocas magnitudes relacionadas se denominan magnitudes fundamentales,
mientras que el resto que pueden expresarse en función de las fundamentales recibe el
nombre de magnitudes derivadas.
Cuando se ha elegido ese conjunto reducido y completo de magnitudes fundamentales
y se han definido correctamente sus unidades correspondientes, se dispone entonces
de un sistema de unidades.

41
Jefferson Loor García Biofísica Grupo # 15
La definición de unidades dentro de un sistema se atiene a diferentes criterios. Así la
unidad ha de ser constante como corresponde a su función de cantidad de referencia
equivalente para las diferentes mediciones, pero también ha de ser reproducible con
relativa facilidad en un laboratorio.
Así, por ejemplo, la definición de amperio como unidad de intensidad de corriente ha
evolucionado sobre la base de este criterio.
Debido a que las fuerzas se saben medir con bastante precisión y facilidad, en la
actualidad se define el amperio a partir de un fenómeno electromagnético en el que
aparecen fuerzas entre conductores cuya magnitud depende de la intensidad de
corriente.
EL SISTEMA INTERNACIONAL DE UNIDADES (SI).
Las condiciones de definición de un sistema de unidades permitirían el establecimiento
de una considerable variedad de ellos. Así, es posible elegir conjuntos de magnitudes
fundamentales diferentes o incluso, aun aceptando el mismo conjunto, elegir y definir
unidades distintas de un sistema a otro.
Desde un punto de vista formal, cada científico o cada país podría operar con su propio
sistema de unidades, sin embargo, y aunque en el pasado tal situación se ha dado con
cierta frecuencia (recuérdense los países anglosajones con sus millas, pies, libras,
grados Fahrenheit, etc.), existe una tendencia generalizada a adoptar un mismo
sistema de unidades con el fin de facilitar la cooperación y comunicación en el terreno
científico y técnico.
El Sistema Internacional de Unidades (abreviadamente SI) distingue y establece,
además de las magnitudes básicas y de las magnitudes derivadas, un tercer tipo
formado por aquellas que aún no están incluidas en ninguno de los dos anteriores, son
denominadas magnitudes suplementarias.
El SI toma como magnitudes fundamentales la longitud, la masa, el tiempo, la
intensidad de corriente eléctrica, la temperatura absoluta, la intensidad luminosa y la
cantidad de sustancia, y fija las correspondientes unidades para cada una de ellas.
A estas siete magnitudes fundamentales hay que añadir dos suplementarias asociadas
a medidas angulares, el ángulo plano y el ángulo sólido.
La definición de las diferentes unidades fundamentales ha evolucionado con el tiempo
al mismo ritmo que las propias ciencias físicas. Así, el segundo se definió inicialmente
como 1/86 400 la duración del día solar medio, esto es, promediado a lo largo de un
año.
Un día normal tiene 24 horas aproximadamente, es decir 24 · 60 = 1 400 · 60 = 86 400
segundos; no obstante, esto tan sólo es aproximado, pues la duración del día varía a lo
largo del año en algunos segundos, de ahí que se tome como referencia la duración
promediada del día solar.
Pero debido a que el periodo de rotación de la Tierra puede variar, y de hecho varía, se
ha acudido al átomo para buscar en él un periodo de tiempo fijo al cual referir la
definición de su unidad fundamental.

42
Jefferson Loor García Biofísica Grupo # 15
El Sistema Internacional.
A lo largo de la historia el hombre ha venido empleando diversos tipos de sistemas de
unidades. Estos están íntimamente relacionados con la condición histórica de los
pueblos que las crearon, las adaptaron o las impusieron a otras culturas. Su
permanencia y extensión en el tiempo lógicamente también ha quedado ligada al
destino de esos pueblos y a la aparición de otros sistemas más coherentes y
generalizados. El sistema anglosajón de medidas -millas, pies, libras, Grados
Fahrenheit- todavía en vigor en determinadas áreas geográficas, es, no obstante, un
ejemplo evidente de un sistema de unidades en recesión. Otros sistemas son el
cegesimal -centímetro, gramo, segundo-, el terrestre o técnico -metro-kilogramo, fuerza-
segundo-, el Giorgi o MKS -metro, kilogramo, segundo- y el sistema métrico decimal,
muy extendido en ciencia, industria y comercio, y que constituyó la base de elaboración
del Sistema Internacional.
Unidades Fundamentales.
Metro (m) Es la longitud del trayecto recorrido en el vacío por la luz durante un tiempo
de 1/299 792 458 de segundo.
Kilogramo (kg) Es la masa del prototipo internacional de platino iridiado que se
conserva en la Oficina de Pesas y Medidas de París.
Segundo (s) Unidad de tiempo que se define como la duración de 9 192 631 770
periodos de la radiación correspondiente a la transición entre dos niveles hiperfinos del
estado fundamental del átomo de cesio 133.
Ampere (A) Es la intensidad de corriente constante que, mantenida en dos conductores
rectilíneos, paralelos, de longitud infinita, de sección circular despreciable y colocados a
una distancia de un metro el uno del otro, en el vacío, produce entre estos conductores
una fuerza igual a 2 10-7 N por cada metro de longitud.
Kelvin (K) Unidad de temperatura termodinámica correspondiente a la fracción 1/273,
16 de la temperatura termodinámica del punto triple del agua.
Candela (cd) Unidad de intensidad luminosa, correspondiente a la fuente que emite una
radiación monocromática de frecuencia 540 l0l2 Hz y cuya intensidad energética en esa
dirección es 1/683 W sr-1.
Mol (mol) Cantidad de sustancia de un sistema que contiene tantas entidades
elementales como átomos hay en 0,012 kg de carbono 12.
Unidades Derivadas.
Coulomb (C) Cantidad de electricidad transportada en un segundo por una corriente de
un amperio.
Joule (J) Trabajo producido por una fuerza de un newton cuando su punto de
aplicación se desplaza la distancia de un metro en la dirección de la fuerza.
Newton (N) Es la fuerza que, aplicada a un cuerpo que tiene una masa de 1 kilogramo,
le comunica una aceleración de 1 metro por segundo, cada segundo.

43
Jefferson Loor García Biofísica Grupo # 15
Pascal (Pa) Unidad de presión. Es la presión uniforme que, actuando sobre una
superficie plana de 1 metro cuadrado, ejerce perpendicularmente a esta superficie una
fuerza total de 1 newton.
Volt (V) Unidad de tensión eléctrica, potencial eléctrico, fuerza electromotriz. Es la
diferencia de potencial eléctrico que existe entre dos puntos de un hilo conductor que
transporta una corriente de intensidad constante de 1 ampere cuando la potencia
disipada entre esos puntos es igual a 1 watt.
Watt (W) Potencia que da lugar a una producción de energía igual a 1 joule por
segundo.
Ohm (ð) Unidad de resistencia eléctrica. Es la resistencia eléctrica que existe entre dos
puntos de un conductor cuando una diferencia de potencial constante de 1 volt aplicada
entre estos dos puntos produce, en dicho conductor, una corriente de intensidad 1
ampere, cuando no haya fuerza electromotriz en el conductor.
Weber (Wb) Unidad de flujo magnético, flujo de inducción magnética. Es el flujo
magnético que, al atravesar un circuito de una sola espira produce en la misma una
fuerza electromotriz de 1 volt si se anula dicho flujo en 1 segundo por decrecimiento
uniforme.
Fuerza
En física, la fuerza es una magnitud vectorial que mide la Intensidad del intercambio de
momento lineal entre dos partículas o sistemas de partículas. Según una definición
clásica, fuerza es todo agente capaz de modificar la cantidad de movimiento o la forma
de los materiales. No debe confundirse con los conceptos de esfuerzo o de energía.
En el Sistema Internacional de Unidades, la unidad de medida de fuerza es el newton
que se representa con el símbolo: N , nombrada así en reconocimiento a Isaac Newton
por su aportación a la física, especialmente a la mecánica clásica. El newton es una
unidad derivada que se define como la fuerza necesaria para proporcionar una
aceleración de 1 m/s² a un objeto de 1 kg de masa.
La fuerza es una magnitud física de carácter vectorial capaz de deformar los cuerpos
(efecto estático), modificar su velocidad o vencer su inercia y ponerlos en movimiento si
estaban inmóviles (efecto dinámico). En este sentido la fuerza puede definirse como
toda acción o influencia capaz de modificar el estado de movimiento o de reposo de un
cuerpo (imprimiéndole una aceleración que modifica el módulo o la dirección de su
velocidad).
Energía
El término energía tiene diversas acepciones y definiciones, relacionadas con la idea de
una capacidad para obrar, transformar o poner en movimiento.
En física, «energía» se define como la capacidad para realizar un trabajo. En tecnología
y economía, «energía» se refiere a un recurso natural (incluyendo a su tecnología
asociada) para extraerla, transformarla y darle un uso industrial o económico.

44
Jefferson Loor García Biofísica Grupo # 15
El concepto de energía en física.
Mecánica clásica.
En física clásica, la ley universal de conservación de la energía —que es el fundamento
del primer principio de la termodinámica—, indica que la energía ligada a un sistema
aislado permanece constante en el tiempo. Eso significa que para multitud de sistemas
físicos clásicos la suma de la energía mecánica, la energía calorífica, la energía
electromagnética, y otros tipos de energía potencial es un número constante. Por
ejemplo, la energía cinética se cuantifica en función del movimiento de la materia, la
energía potencial según propiedades como el estado de deformación o a la posición de
la materia en relación con las fuerzas que actúan sobre ella, la energía térmica según
su capacidad calorífica, y la energía química según la composición química.
Mecánica relativista
En teoría de la relatividad el principio de conservación de la energía se cumple, aunque
debe redefinirse la medida de la energía para incorporar la energía asociada a la masa,
ya que en mecánica relativista, si se considerara la energía definida al modo de la
mecánica clásica entonces resultaría una cantidad que no conserva constante. Así
pues, la teoría de la relatividad especial establece una equivalencia entre masa y
energía por la cual todos los cuerpos, por el hecho de estar formados de materia,
poseen una energía adicional equivalente a \scriptstyle E = mc^2, y si se considera el
principio de conservación de la energía esta energía debe ser tomada en cuenta para
obtener una ley de conservación (naturalmente en contrapartida la masa no se
conserva en relatividad, sino que la única posibilidad para una ley de conservación es
contabilizar juntas la energía asociada a la masa y el resto de formas de energía).
Mecánica cuántica
En mecánica cuántica el resultado de la medida de una magnitud en el caso general no
da un resultado determinista, por lo que sólo puede hablarse del valor de la energía de
una medida no de la energía del sistema. El valor de la energía en general es una
variable aleatoria, aunque su distribución si puede ser calculada, si bien no el resultado
particular de una medida. En mecánica cuántica el valor esperado de la energía de un
sistema estacionario se mantiene constante. Sin embargo, existen estados que no son
propios del hamiltoniano para los cuales la energía esperada del estado fluctúa, por lo
que no es constante. La varianza de la energía medida además puede depender del
intervalo de tiempo, de acuerdo con el principio de indeterminación de Heisenberg.
Expresión matemática
La energía es una propiedad de los sistemas físicos, no es un estado físico real, ni una
"sustancia intangible". En mecánica clásica se representa como una magnitud escalar.
La energía es una abstracción matemática de una propiedad de los sistemas físicos.
Por ejemplo, se puede decir que un sistema con energía cinética nula está en reposo.
En problemas relativistas la energía de una partícula no puede ser representada por un
escalar invariante, sino por la componente temporal de un cuadrivector energía-
momento (cuadrimomento), ya que diferentes observadores no miden la misma energía
si no se mueven a la misma velocidad con respecto a la partícula. Si se consideran
distribuciones de materia continuas, la descripción resulta todavía más complicada y la
correcta descripción de la cantidad de movimiento y la energía requiere el uso del
tensor de energía-impulso.

45
Jefferson Loor García Biofísica Grupo # 15
Energía en diversos tipos de sistemas físicos
La energía también es una magnitud física que se presenta bajo diversas formas, está
involucrada en todos los procesos de cambio de estado físico, se transforma y se
transmite, depende del sistema de referencia y fijado éste se conserva.1 Por lo tanto,
todo cuerpo es capaz de poseer energía en función de su movimiento, posición,
temperatura, masa, composición química, y otras propiedades.
Física clásica.
En la mecánica se encuentran:
Energía mecánica: Que es la combinación o suma de los siguientes tipos:
Energía cinética: Relativa al movimiento.
Energía potencial: La asociada a la posición dentro de un campo de fuerzas
conservativo. Por ejemplo, está la energía potencial gravitatoria y la energía potencial
elástica (o energía de deformación, llamada así debido a las deformaciones elásticas).
Una onda también es capaz de transmitir energía al desplazarse por un medio elástico.
En electromagnetismo se tiene a la:
Energía electromagnética, que se compone de:
Energía radiante: la energía que poseen las ondas electromagnéticas.
Energía calórica: la cantidad de energía que la unidad de masa de materia puede
desprender al producirse una reacción química de oxidación.
Energía potencial eléctrica (véase potencial eléctrico)
Energía eléctrica: resultado de la existencia de una diferencia de potencial entre dos
puntos.
En la termodinámica están:
Energía interna, que es la suma de la energía mecánica de las partículas constituyentes
de un sistema.
Energía térmica, que es la energía liberada en forma de calor.
Potencial termodinámico, la energía relacionada con las variables de estado.
Física relativista.
En la relatividad están:
Energía en reposo, que es la energía debida a la masa según la conocida fórmula de
Einstein, E=mc2, que establece la equivalencia entre masa y energía.
Energía de desintegración, que es la diferencia de energía en reposo entre las
partículas iniciales y finales de una desintegración.

46
Jefferson Loor García Biofísica Grupo # 15
Al redefinir el concepto de masa, también se modifica el de energía cinética (véase
relación de energía-momento).
Física cuántica
En física cuántica, la energía es una magnitud ligada al operador hamiltoniano. La
energía total de un sistema no aislado de hecho puede no estar definida: en un instante
dado la medida de la energía puede arrojar diferentes valores con probabilidades
definidas. En cambio, para los sistemas aislados en los que el hamiltoniano no depende
explícitamente del tiempo, los estados estacionarios sí tienen una energía bien definida.
Además de la energía asociada a la materia ordinaria o campos de materia, en física
cuántica aparece la:
Energía del vacío: un tipo de energía existente en el espacio, incluso en ausencia de
materia.
Química.
En química aparecen algunas formas específicas no mencionadas anteriormente:
Energía de ionización, una forma de energía potencial, es la energía que hace falta
para ionizar una molécula o átomo.
Energía de enlace, es la energía potencial almacenada en los enlaces químicos de un
compuesto. Las reacciones químicas liberan o absorben esta clase de energía, en
función de la entalpía y energía calórica.
Si estas formas de energía son consecuencia de interacciones biológicas, la energía
resultante es bioquímica, pues necesita de las mismas leyes físicas que aplican a la
química, pero los procesos por los cuales se obtienen son biológicos, como norma
general resultante del metabolismo celular (véase Ruta metabólica).
Podemos encontrar ejemplos de energía química en la vida de los seres vivos, es decir,
en la vida biológica. Dos de los procesos más importantes que necesitan de este tipo de
energía es el proceso de fotosíntesis en vegetales y la respiración en los animales. En
la fotosíntesis, los vegetales utilizan clorofila para separar el agua y así convertirla
después en hidrógeno y oxígeno: el hidrógeno, combinado con el carbono del ambiente,
producirá carbohidratos. En la respiración sucede lo contrario: el oxígeno es utilizado
para quemar moléculas de carbohidratos.

LEYES DE NEWTON.

Las leyes de Newton, también conocidas como leyes del


movimiento de Newton,1 son tres principios a partir de los
cuales se explican la mayor parte de los problemas
planteados por la mecánica, en particular, aquellos relativos al
movimiento de los cuerpos. Revolucionaron los conceptos
básicos de la física y el movimiento de los cuerpos en el
universo.
Constituyen los cimientos no solo de la dinámica clásica sino
también de la física clásica en general. Aunque incluyen ciertas definiciones y en cierto
47
Jefferson Loor García Biofísica Grupo # 15
sentido pueden verse como axiomas, Newton afirmó que estaban basadas en
observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir
de otras relaciones más básicas. La demostración de su validez radica en sus
predicciones... La validez de esas predicciones fue verificada en todos y cada uno de
los casos durante más de dos siglos.
Fundamentos teóricos de las leyes.
La base teórica que permitió a Newton establecer sus leyes está también precisada en
sus Philosophiaenaturalis principia mathematica.
El primer concepto que maneja es el de masa, que identifica con «cantidad de materia».
La importancia de esta precisión está en que permite prescindir de toda cualidad que no
sea física-matemática a la hora de tratar la dinámica de los cuerpos. Con todo, utiliza la
idea de éter para poder mecanizar todo aquello no reducible a su concepto de masa.
Newton no asume a continuación que la cantidad de movimiento es el resultado del
producto de la masa por la velocidad, y define dos tipos de fuerzas: la vis insita, que es
proporcional a la masa y que refleja la inercia de la materia, y la vis impressa (momento
de fuerza), que es la acción que cambia el estado de un cuerpo, sea cual sea ese
estado; la vis impressa, además de producirse por choque o presión, puede deberse a
la vis centrípeta (fuerza centrípeta), una fuerza que lleva al cuerpo hacia algún punto
determinado. A diferencia de las otras causas, que son acciones de contacto, la vis
centrípeta es una acción a distancia. En esta distingue Newton tres tipos de cantidades
de fuerza: una absoluta, otra aceleradora y, finalmente, la motora, que es la que
interviene en la ley fundamental del movimiento.
En tercer lugar, precisa la importancia de distinguir entre lo absoluto y relativo siempre
que se hable de tiempo, espacio, lugar o movimiento.
En este sentido, Newton, que entiende el movimiento como una traslación de un cuerpo
de un lugar a otro, para llegar al movimiento absoluto y verdadero de un cuerpo.
Compone el movimiento (relativo) de ese cuerpo en el lugar (relativo) en que se lo
considera, con el movimiento (relativo) del lugar mismo en otro lugar en el que esté
situado, y así sucesivamente, paso a paso, hasta llegar a un lugar inmóvil, es decir, al
sistema de referencias de los movimientos absolutos.3
De acuerdo con esto, Newton establece que los movimientos aparentes son las
diferencias de los movimientos verdaderos y que las fuerzas son causas y efectos de
estos. Consecuentemente, la fuerza en Newton tiene un carácter absoluto, no relativo.
PRIMERA LEY DE NEWTON O LEY DE LA INERCIA.
La primera ley del movimiento rebate la idea aristotélica de que un cuerpo solo puede
mantenerse en movimiento si se le aplica una fuerza. Newton expone que:
Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no
ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.
Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado
inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique
una fuerza o una serie de fuerzas cuyo resultante no sea nulo sobre él. Newton toma en

48
Jefferson Loor García Biofísica Grupo # 15
cuenta, así, el que los cuerpos en movimiento están sometidos constantemente a
fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto
de concepciones anteriores que entendían que el movimiento o la detención de un
cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca
entendiendo como está a la fricción.
En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe
ninguna fuerza externa neta o, dicho de otra forma; un objeto en movimiento no se
detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos
en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque
sobre ese cuerpo se ha ejercido una fuerza neta.
La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia
conocidos como Sistemas de referencia inerciales, que son aquellos sistemas de
referencia desde los que se observa que un cuerpo sobre el que no actúa ninguna
fuerza neta se mueve con velocidad constante.
SEGUNDA LEY DE NEWTON O LEY DE FUERZA.
La segunda ley del movimiento de Newton dice:
El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la
línea recta a lo largo de la cual aquella fuerza se imprime.
Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por
qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento,
cambiando la velocidad en módulo o dirección. En concreto, los cambios
experimentados en el momento lineal de un cuerpo son proporcionales a la fuerza
motriz y se desarrollan en la dirección de esta; las fuerzas son causas que producen
aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el
efecto, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se
define simplemente en función del momento que se aplica a un objeto, con lo que dos
fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.
En la mayoría de las ocasiones hay más de una fuerza actuando sobre un objeto, en
este caso es necesario determinar una sola fuerza equivalente ya que de ésta depende
la aceleración resultante. Dicha fuerza equivalente se determina al sumar todas las
fuerzas que actúan sobre el objeto y se le da el nombre de fuerza neta.
En términos matemáticos esta ley se expresa mediante la relación:

Dónde:
es el momento lineal

la fuerza total o fuerza resultante.


Suponiendo que la masa es constante y que la velocidad es muy inferior a la velocidad
de la luzb la ecuación anterior se puede reescribir de la siguiente manera:

49
Jefferson Loor García Biofísica Grupo # 15
Sabemos que \mathbf{p} es el momento lineal, que se puede escribir m.V donde m es
la masa del cuerpo y V su velocidad.

Consideramos a la masa constante y podemos aplicando estas


modificaciones a la ecuación anterior:

La fuerza es el producto de la masa por la aceleración, que es la ecuación fundamental


de la dinámica, donde la constante de proporcionalidad, distinta para cada cuerpo, es
su masa de inercia. Veamos lo siguiente, si despejamos m de la ecuación anterior
obtenemos que m es la relación que existe entre \mathbf{F} y \mathbf{a}. Es decir la
relación que hay entre la fuerza aplicada al cuerpo y la aceleración obtenida. Cuando
un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa) se dice
que tiene mucha inercia. Es por esta razón por la que la masa se define como una
medida de la inercia del cuerpo.
Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula
tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de
ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica
como para la mecánica relativista, a pesar de que la definición de momento lineal es
diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un
cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve,
la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la
velocidad con la que se mueve dicho cuerpo.
De la ecuación fundamental se deriva también la definición de la unidad de fuerza o
newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el
newton es la fuerza que aplicada a una masa de un kilogramo le produce una
aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma
dirección y sentido.
La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la
dinámica de determinar la clase de fuerza que se necesita para producir los diferentes
tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y
uniformemente acelerado (m.r.u.a).
Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector
suma de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la
tierra con una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría
una aceleración descendente igual a la de la gravedad.

50
Jefferson Loor García Biofísica Grupo # 15
TERCERA LEY DE NEWTON O PRINCIPIO DE ACCIÓN Y REACCIÓN.

Con toda acción ocurre siempre una reacción igual y contraria: quiere decir que las
acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.
La tercera ley de Newton es completamente original (pues las dos primeras ya habían
sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes
de la mecánica un conjunto lógico y completo.8 Expone que por cada fuerza que actúa
sobre un cuerpo (empuje), este realiza una fuerza de igual intensidad, pero de sentido
contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas
sobre la misma recta, siempre se presentan en pares de igual magnitud y de dirección,
pero con sentido opuesto.
Este principio presupone que la interacción entre dos partículas se propaga
instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su
formulación original no es válido para fuerzas electromagnéticas puesto que estas no se
propagan por el espacio de modo instantáneo sino que lo hacen a velocidad finita "c".

ELASTICIDAD Y RESISTENCIA DE LOS MATERIALES.

En física el término elasticidad designa la propiedad mecánica de ciertos materiales de


sufrir deformaciones reversibles cuando se encuentran sujetos a la acción de fuerzas
exteriores y de recuperar la forma original si estas fuerzas exteriores se eliminan.
La elasticidad es estudiada por la teoría de la elasticidad, que a su vez es parte de
la mecánica de sólidos deformables. La teoría de la elasticidad (TE) como la mecánica
de sólidos (MS) deformables describe cómo un sólido (o fluido totalmente confinado) se
mueve y deforma como respuesta a fuerzas exteriores. La diferencia entre la TE y la
MS es que la primera solo trata sólidos en que las deformaciones son
termodinámicamente reversibles y en los que el estado tensiones en un punto en
un instante dado dependen solo de las deformaciones en el mismo punto y no de las
deformaciones anteriores (ni el valor de otras magnitudes en un instante anterior). Para
un sólido elástico la ecuación constitutiva funcionalmente es de la forma:

Donde denota el conjunto de tensores simétricos de segundo orden del espacio


euclídeo. Si el sólido es homogéneo el valor de la función anterior no dependerá del
segundo argumento.
La propiedad elástica de los materiales está relacionada, como se ha mencionado, con
la capacidad de un sólido de sufrir transformaciones termodinámicas reversibles e
independencia de la velocidad de deformación (los sólidos viscoelásticos y los fluidos,
por ejemplo, presentan tensiones dependientes de la velocidad de deformación).
Cuando sobre un sólido deformable actúan fuerzas exteriores y éste se deforma se
produce un trabajo de estas fuerzas que se almacena en el cuerpo en forma de energía
potencial elástica y por tanto se producirá un aumento de la energía interna. El sólido se
comportará elásticamente si este incremento de energía puede realizarse de forma
reversible, en este caso se dice que el sólido es elástico.
51
Jefferson Loor García Biofísica Grupo # 15
Resistencia.
La resistencia de materiales clásica es una disciplina de la ingeniería mecánica, la
ingeniería estructural y la ingeniería industrial que estudia los sólidos deformables
mediante modelos simplificados. La resistencia de un elemento se define como su
capacidad para resistir esfuerzos y fuerzas aplicadas sin romperse, adquirir
deformaciones permanentes o deteriorarse de algún modo.
Enfoque de la resistencia de materiales.
La teoría de sólidos deformables requiere generalmente trabajar con tensiones y
deformaciones. Estas magnitudes vienen dadas por campos tensoriales definidos sobre
dominios tridimensionales que satisfacen complicadas ecuaciones diferenciales.
Sin embargo, para ciertas geometrías aproximadamente unidimensionales
(vigas, pilares, celosías, arcos, etc.) o bidimensionales (placas y láminas, membranas,
etc.) el estudio puede simplificarse y se pueden analizar mediante el cálculo
de esfuerzos internos definidos sobre una línea o una superficie en lugar de tensiones
definidas sobre un dominio tridimensional. Además las deformaciones pueden
determinarse con los esfuerzos internos a través de cierta hipótesis cinemática. En
resumen, para esas geometrías todo el estudio puede reducirse al estudio de
magnitudes alternativas a deformaciones y tensiones.
El esquema teórico de un análisis de resistencia de materiales comprende:
 La hipótesis cinemática establece cómo serán las deformaciones o el campo de
desplazamientos para un determinado tipo de elementos bajo cierto tipo de
solicitudes. Para piezas prismáticas las hipótesis más comunes son la hipótesis
de Bernouilli-Navier para la flexión y la hipótesis de Saint-Venant para la torsión.
 La ecuación constitutiva, que establece una relación entre las deformaciones o
desplazamientos deducibles de la hipótesis cinemática y las tensiones
asociadas. Estas ecuaciones son casos particulares de lasecuaciones de Lamé-
Hooke.
 Las ecuaciones de equivalencia son ecuaciones en forma de integral que
relacionan las tensiones con los esfuerzos internos.
 Las ecuaciones de equilibrio relacionan los esfuerzos internos con las fuerzas
exteriores.
En las aplicaciones prácticas el análisis es sencillo. Se construye un esquema ideal de
cálculo formado por elementos unidimensionales o bidimensionales, y se aplican
fórmulas preestablecidas en base al tipo de solicitación que presentan los elementos.
Esas fórmulas preestablecidas que no necesitan ser deducidas para cada caso, se
basan en el esquema de cuatro puntos anterior. Más concretamente la resolución
práctica de un problema de resistencia de materiales sigue los siguientes pasos:
1. Cálculo de esfuerzos, se plantean las ecuaciones de equilibrio y ecuaciones de
compatibilidad que sean necesarias para encontrar los esfuerzos internos en
función de las fuerzas aplicadas.

52
Jefferson Loor García Biofísica Grupo # 15
2. Análisis resistente, se calculan las tensiones a partir de los esfuerzos internos.
La relación entre tensiones y deformaciones depende del tipo de solicitación y de
la hipótesis cinemática asociada: flexión de Bernouilli, flexión de
Timoshenko, flexión esviada, tracción, pandeo, torsión de Coulomb, teoría de
Collignon para tensiones cortantes, etc.
3. Análisis de rigidez, se calculan los desplazamientos máximos a partir de las
fuerzas aplicadas o los esfuerzos internos. Para ello puede recurrirse
directamente a la forma de la hipótesis cinemática o bien a la ecuación de
la curva elástica, las fórmulas vectoriales de Navier-Bresse o los teoremas de
Castigliano.
Hipótesis cinemática.
La hipótesis cinemática es una especificación matemática de los desplazamientos de
un sólido deformable que permite calcular las deformaciones en función de un conjunto
de parámetros incógnita.
El concepto se usa especialmente en el cálculo de elementos lineales (por
ejemplo, vigas) y elementos bidimensionales, donde gracias a la hipótesis cinemática
se pueden obtener relaciones funcionales más simples. Así pues, gracias a la hipótesis
cinemática se pueden relacionar los desplazamientos en cualquier punto del sólido
deformable de un dominio tridimensional con los desplazamientos especificados sobre
un conjunto unidimensional o bidimensional.
Hipótesis cinemática en elementos lineales.
La resistencia de materiales propone para elementos lineales o prismas mecánicos,
como las vigas y pilares, en las que el desplazamiento de cualquier punto se puede
calcular a partir de desplazamientos y giros especificados sobre el eje baricéntrico. Eso
significa que por ejemplo para calcular una viga en lugar de espeficar los
desplazamientos de cualquier punto en función de tres coordenadas, podemos
expresarlos como función de una sola coordenada sobre el eje baricéntrico, lo cual
conduce a sistemas de ecuaciones diferenciales relativamente simples. Existen
diversos tipos de hipótesis cinemáticas según el tipo de solicitación de la viga o
elemento unidimensional:
 La hipótesis de Navier-Bernouilli, que se usa para elementos lineales alargados
sometidos a flexión cuando las deformaciones por cortante resultan pequeñas.
 La hipótesis de Timoshenko, que se usa para los elementos lineales sometidos a
flexión en un caso totalmente general ya que no se desprecia la deformación por
cortante.
 La hipótesis de Saint-Venant para la extensión, usada en piezas con esfuerzo
normal para zonas de la viga alejadas de la zona de aplicación de las cargas.
 La hipótesis de Saint-Venant para la torsión se usa para piezas
prismáticas sometidas a torsión y en piezas con rigidez torsional grande.
 La hipótesis de Coulomb se usa para piezas prismáticas sometidas a torsión y en
piezas con rigidez torsional grande y sección circular o tubular. Esta hipótesis
constituye una especialización del caso anterior.
53
Jefferson Loor García Biofísica Grupo # 15
Hipótesis cinemática en elementos superficiales
Para placas y láminas sometidas a flexión se usan dos hipótesis, que se pueden poner
en correspondencia con las hipótesis de vigas:
Hipótesis de Love-Kirchhoff
Hipótesis de Reissner-Mindlin

RESISTENCIA Y ESTRUCTURA DE LOS HUESOS.

Composición y estructura de los huesos:

Los huesos son estructuras resistentes de color blando


amarillento compuestos de sustancias minerales y
orgánicas.
Las sales minerales le dan dureza y resistencia a los
huesos y son:
Fosfato de calcio 85 por 100.
Carbonato de calcio 9 por 100
Fluoruro de calcio 4 por 100
Fosfato de magnesio 2 por 100
La oseína es la sustancia orgánica y constituye más de 1/3
del material que forma los huesos y ella confiere a los huesos elasticidad y resistencia.
Los minerales de los huesos no son componentes inertes ni permanecen fijos sino que
son constantemente intercambiados y reemplazados junto con los componentes
orgánicos en un proceso que se conoce como remodelación ósea.
Su formación y mantenimiento está regulada por las hormonas y los alimentos
ingeridos, que aportan vitaminas de vital importancia para su correcto funcionamiento.
Estructura de los huesos:
Si se hace un corte longitudinal en el hueso largo podemos observar las siguientes
estructuras:
El periostio o membrana fina conjuntiva que recubre todo el hueso.
El tejido compacto, que parte desde los extremos o epífisis y se engruesa en el centro o
diáfisis,
El tejido esponjoso, que se ubica en la epífisis y constituye la médula ósea
El canal medular, que se encuentra ocupado por la médula ósea. En la médula ósea
roja se encuentran los eritoblastos, de los cuales se originan los eritrocitos o glóbulos
rojos, por tanto esta estructura constituye el principal órgano hematopoyético.
En cuanto a su estructura microscópica el tejido óseo está constituido por células óseas
u osteoblastos y sustancia fundamental. En un corte transversal se observan los
canales de Havers, alrededor de los cuales se disponen en capas concéntricas las
laminillas.
La resistencia de los huesos humanos depende esencialmente de tres factores:
La forma del hueso.
Las propiedades mecánicas del material óseo, es decir, el comportamiento individual de
tensión y extensión y la resistencia a la presión.
La magnitud de las fuerzas que actúan sobre el hueso.

54
Jefferson Loor García Biofísica Grupo # 15
LA CONTRACCIÓN MUSCULAR.

Es el proceso fisiológico en el que los músculos desarrollan tensión y se acortan o


estiran (o bien pueden permanecer de la misma longitud) por razón de un previo
estímulo de extensión. Estas contracciones producen la fuerza motora de casi todos los
músculos superiores, por ejemplo, para desplazar el contenido de la cavidad a la que
recubren (músculo liso) o mueven el organismo a través del medio o para mover otros
objetos (músculo estriado).
Las contracciones involuntarias son controladas por el sistema nervioso central,
mientras que el cerebro controla las contracciones voluntarias, y la médula espinal
controla los reflejos involuntarios.
Las contracciones como la locomoción, la respiración, y la masticación pueden iniciarse
tanto consciente como inconscientemente, pero se continúan por medio de un reflejo
inconsciente.
La contracción muscular se puede explicar como un desplazamiento de los
miofilamentos, es decir la cabeza de la miosina se ancla a la actina produciéndose así
el dicho desplazamiento. Cabe decir que la contracción muscular está regulada por el
calcio, el ATP y el Magnesio, aunque se desconoce porque el Magnesio causa
contracción en músculos post mortem y esto está bajo investigación.
Para que la contracción esté sincronizada entre las células, se necesita que existan
uniones tipo gap que permitan el paso de los iones y pasen el estímulo eléctrico.
Biomecánica de la marcha.
La locomoción humana es una serie de movimientos alternantes, rítmicos, de las
extremidades y del tronco hacia el centro de la gravedad. La marcha comienza cuando
un pie hace contacto con el suelo y termina con el siguiente contacto del mismo pie; a la
distancia entre estos dos puntos de contacto con el suelo se le llama un paso completo.

55
Jefferson Loor García Biofísica Grupo # 15
Biomecánica de la fase de apoyo de la marcha.

La fase de apoyo comienza cuando el talón contacta con el suelo y termina con el
despegue de los dedos. La división en dos fases del contacto del metatarsiano del pie y
de la punta de los dedos, constituye un período de doble apoyo que caracteriza la
marcha y que no ocurre en la carrera. Esta fase de apoyo influye de la siguiente

manera en las distintas partes del cuerpo:

1. Columna vertebral y pelvis: Rotación de la pelvis hacia el mismo lado del apoyo y
la columna hacia el lado contrario, Inclinación lateral de la pierna de apoyo.

2. Cadera: Los movimientos que se producen son la reducción de la rotación externa,


después de una inclinación interna, impide la aducción del muslo y descenso de la
pelvis hacia el lado contrario. Los músculos que actúan durante la primera parte de la
fase de apoyo son los tres glúteos que se contraen con intensidad moderada, pero en la
parte media disminuyen las contracciones del glúteo mayor y del medio. En la última
parte de esta fase se contraen los abductores.

3. Rodilla: Los movimientos que se producen son ligera flexión durante el contacto, que
continúa hacia la fase media, seguida por la extensión hasta que el talón despega
cuando se flexiona la rodilla para comenzar con el impulso. La flexión baja la
trayectoria vertical del centro de gravedad del cuerpo, incrementándose la eficacia
de la marcha. La musculatura actuante son los extensores de los cuádriceps que se
contraen moderadamente en la primera parte de la fase de apoyo, siguiendo una
relajación gradual. Cuando la pierna llega a la posición vertical la rodilla aparentemente
se cierra y produce una contracción de los extensores. Los isquiotibiales se activan al
final de la fase de apoyo.

4. Tobillo y pie: Los movimientos producidos en esta fase son la ligera flexión plantar
seguida de una ligera flexión dorsal. Por ello los músculos que actúan son el tibial
anterior en la primera fase de apoyo, y el extensor largo de los dedos y del dedo gordo
que alcanzan su contracción máxima cerca del momento de la transición de la fase de
impulso y apoyo. Sin embargo, la fuerza relativa de estos músculos está influenciada
por la forma de caminar cada sujeto.

56
Jefferson Loor García Biofísica Grupo # 15
LOS FLUIDOS.

La mecánica de fluidos es la rama de la mecánica de medios continuos que estudia el


movimiento de los fluidos (gases y líquidos). La característica fundamental que define a
los fluidos es su incapacidad para resistir esfuerzos cortantes. También estudia las
interacciones entre el fluido y el contorno que lo limita.

Se definen como aquellas sustancias que son incapaces de resistir esfuerzos cortantes.
Cuando sometemos un cuerpo sólido a la acción de un sistema de esfuerzos cortantes,
experimenta una deformación bien definida; por el contrario, los fluidos se deforman
continuamente bajo la acción de los esfuerzos cortantes. De una forma muy general,
podemos clasificar los fluidos de acuerdo con la relación existente entre el esfuerzo
cortante aplicado y la velocidad de deformación que se produce en el fluido en:
newtonianos y no newtonianos.

LA LEY DE STOKES.

Se refiere a la fuerza de fricción experimentada por objetos esféricos moviéndose en el


seno de un fluido viscoso en un régimen laminar de bajos números de Reynolds. Fue
derivada en 1851 por George Gabriel Stokes tras resolver un caso particular de las
ecuaciones de Navier-Stokes. En general la ley de Stokes es válida en el movimiento
de partículas esféricas pequeñas moviéndose a velocidades bajas. La ley de Stokes
puede escribirse como:

F_r=6\pi R\eta v \,

Donde R es el radio de la esfera, v su velocidad y η la viscosidad del fluido.

La condición de bajos números de Reynolds implica un flujo laminar lo cual puede


traducirse por una velocidad relativa entre la esfera y el medio inferior a un cierto valor
crítico. En estas condiciones la resistencia que ofrece el medio es debida casi
exclusivamente a las fuerzas de rozamiento que se oponen al deslizamiento de unas
capas de fluido sobre otras a partir de la capa límite adherida al cuerpo. La ley de
Stokes se ha comprobado experimentalmente en multitud de fluidos y condiciones.

57
Jefferson Loor García Biofísica Grupo # 15
Si las partículas están cayendo verticalmente en un fluido viscoso debido a su propio
peso puede calcularse su velocidad de caída o sedimentación igualando la fuerza de
fricción con el peso aparente de la partícula en el fluido.

V_s =\frac{2}{9}\frac{r^2 g (\rho_p - \rho_f)}{\eta}

Dónde:

Vs es la velocidad de caída de las partículas (velocidad límite)

g es la aceleración de la gravedad,

ρp es la densidad de las partículas y

ρf es la densidad del fluido.

η es la viscosidad del fluido.

r es el radio equivalente de la partícula.

LA ESTÁTICA DE FLUIDOS.
Estudia el equilibrio de gases y líquidos. A partir de los conceptos de densidad y de
presión se obtiene la ecuación fundamental de la hidrostática, de la cual el principio de
Pascal y el de Arquímedes pueden considerarse consecuencias. El hecho de que los
gases, a diferencia de los líquidos, puedan comprimirse hace que el estudio de ambos
tipos de fluidos tenga algunas características diferentes. En la atmósfera se dan los
fenómenos de presión y de empuje que pueden ser estudiados de acuerdo con los
principios de la estática de gases.
Se entiende por fluido un estado de la materia en el que la forma de los cuerpos no es
constante, sino que se adapta a la del recipiente que los contiene. La materia fluida
puede ser trasvasada de un recipiente a otro, es decir, tiene la capacidad de fluir. Los
líquidos y los gases corresponden a dos tipos diferentes de fluidos. Los primeros tienen
un volumen constante que no puede mortificarse apreciablemente por compresión. Se
dice por ello que son fluidos incompresibles. Los segundos no tienen un volumen
propio, sino que ocupan el del recipiente que los contiene; son fluidos compresibles
porque, a diferencia de los líquidos, sí pueden ser comprimidos.
El estudio de los fluidos en equilibrio constituye el objeto de la estática de fluidos, una
parte de la física que comprende la hidrostática o estudio de los líquidos en equilibrio, y
la aerostática o estudio de los gases en equilibrio y en particular del aire.

PRINCIPIO DE PASCAL.

El funcionamiento de la prensa hidráulica ilustra el principio de Pascal

58
Jefferson Loor García Biofísica Grupo # 15
En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y
matemático francés Blaise Pascal (1623–1662) que se resume en la frase: la presión
ejercida sobre un fluido poco compresible y en equilibrio dentro de un recipiente de
paredes indeformables se transmite con igual intensidad en todas las direcciones y en
todos los puntos del fluido.
PRINCIPIO DE ARQUÍMEDES
El principio de Arquímedes es un principio físico que afirma que: «Un cuerpo total o
parcialmente sumergido en un fluido en reposo, recibe un empuje de abajo hacia arriba
igual al peso del volumen del fluido que desaloja». Esta fuerza1 recibe el nombre de
empuje hidrostático o de Arquímedes, y se mide en newtons (en el SI). El principio de
Arquímedes se formula así:
E = m\;g = \rho_\text{f}\;g\;V\;
O bien
\mathbf E = - m\;\mathbf g = - \rho_\text{f}\;\mathbf g\;V\;
Donde E es el empuje, ρf es la densidad del fluido, V el «volumen de fluido desplazado»
por algún cuerpo sumergido parcial o totalmente en el mismo, g la aceleración de la
gravedad y m la masa, de este modo, el empuje depende de la densidad del fluido, del
volumen del cuerpo y de la gravedad existente en ese lugar. El empuje (en condiciones
normales2 y descrito de modo simplificado3) actúa verticalmente hacia arriba y está
aplicado en el centro de gravedad del cuerpo; este punto recibe el nombre de centro de
carena.

VISCOSIDAD SANGUÍNEA Y PERFILES DE FLUJO.

FLUJO SANGUÍNEO.

El flujo sanguíneo es la cantidad de sangre que atraviesa la sección de un punto dado


de la circulación en un período determinado. Normalmente se expresa en mililitros por
minuto o litros por minuto, se abrevia Q.
El análisis de los factores que determinan el flujo sanguíneo es relativamente complejo
ya que es un flujo pulsátil, que discurre por un circuito cerrado de tubos distensibles con
múltiples ramificaciones y de calibre variable. Además el fluido circulante, la sangre, es
un fluido pseudoplástico con propiedades no lineales y compuesto de líquido (plasma) y
elementos formes (hematíes, leucocitos, plaquetas y otros). Esto explica que se recurra
a modelos y simplificaciones que no siempre se pueden aplicar de manera directa.

VALORES NORMALES EN EL HUMANO.


El flujo sanguíneo global de la circulación de un adulto en reposo es de unos 5000 ml
min-1, cantidad que se considera igual al gasto cardíaco porque es la cantidad que
bombea el corazón en la aorta en cada minuto. Corresponde al resultado de multiplicar
el volumen de eyección que el ventrículo expulsa en cada latido (unos 70 ml) por la
frecuencia cardíaca (unos 75 latidos por minuto). El gasto cardíaco disminuye en
posición sentado y de pie frente a su valor en decúbito, por el contrario, aumenta de
59
Jefferson Loor García Biofísica Grupo # 15
manera importante con el ejercicio, con el aumento de la temperatura corporal y en los
estados de ansiedad. Este aumento se produce sobre todo por el aumento de la
frecuencia cardíaca más que por el del volumen sistólico.
Índice cardíaco.
El gasto cardíaco depende de la talla y peso del individuo y para tener valores
comparables entre distintos sujetos se utiliza el índice cardíaco que se calcula
dividiendo el gasto cardíaco por el área de superficie corporal. El índice cardíaco en
reposo es muy similar en el hombre y la mujer. El índice cardíaco disminuye con la
edad desde valores de 4,4 l min-1 m-3 en los adolescentes, hasta 3.5 l min-1 m-2 en el
adulto a los 40 años y 2,4 l min-1 m-2 en los octogenarios.
Función fisiológica.
El flujo sanguíneo es el parámetro más relevante de la función cardiovascular ya que
ésta consiste, esencialmente, en aportar un flujo de sangre a los tejidos que permita:
El transporte de los nutrientes (principios inmediatos y oxígeno) y la recogida de los
productos del metabolismo celular (metabolitos y dióxido de carbono).
El transporte de los compuestos químicos que actúan como mensajeros y elementos de
control del organismo (hormonas, enzimas, precursores, elementos de la coagulación,
etc.) a sus lugares de actuación.
El transporte y distribución del calor que participa en los mecanismos de control de la
temperatura corporal.
El transporte de elementos celulares generalmente relacionados con las funciones
inmunológicas (pero también, en algunos casos, el transporte de elementos patógenos
como bacterias, virus y células cancerosas).
De manera artificial lo utilizamos para transportar sustancias o para extraer sangre
mediante el cateterismo de un vaso arterial o venoso lo que permite realizar diversos
tipos de medidas (entre otras las del propio flujo sanguíneo) y la administración de
fármacos y fluidos.
Medición.
Históricamente la medida del flujo sanguíneo no fue cosa fácil y esto explica que el flujo
sanguíneo se utilice menos que otros parámetros cardiovasculares, como la presión
arterial, más fáciles de medir. Clásicamente, el flujo se ha medido aplicando el principio
de Fick a la dilucción de un indicador químico o térmico. Esta situación está cambiando
con la introducción de los medidores electromagnéticos y los de ultrasonidos mediante
efecto Doppler que permiten medir el flujo sin abrir el vaso sanguíneo y con las técnicas
de imagen con marcadores para medir el flujo en un determinado territorio.
Flujo, presión y resistencia.
Si se simplifica el árbol circulatorio a un tubo de paredes lisas y rígidas, de longitud L y
de radio R el flujo dependerá, entre otras cosas, de algunas propiedades de la sangre.

60
Jefferson Loor García Biofísica Grupo # 15
Fluido ideal.
Si la sangre se comportase como un fluido ideal, es decir sin viscosidad, se podría
utilizar el teorema de Bernouilli y considerar que en cualquier punto del fluido situado a
una altura h, con velocidad v y con presión absoluta p se cumplirá:
p/ρg + v2/2g + h = constante = carga del fluido
Donde ρ es la densidad del fluido y g es la aceleración de la gravedad
p/ρg es la altura piezométrica es decir la altura necesaria para producir la presión p. En
el sistema circulatorio esta presión es producida por la sístole ventricular y resulta de la
contracción de las fibras musculares sobre el fluido incompresible que es el volumen de
sangre existente en el ventrículo al final del periodo de llenado ventricular.
v2/2g es la altura cinética es decir la altura necesaria para producir en caída libre la
velocidad v a la que se mueven las partículas de fluido
h es la altura geométrica, este término es importante en el organismo ya que, mientras
que en la posición de decúbito todo el sistema circulatorio está a una altura similar, en
la posición de pie los miembros inferiores añaden a la presión intramural la que
corresponde a una columna de más de un metro de altura y en los vasos pulmonares,
cercanos a los vértices, hay que restar la presión que corresponde a una altura del
orden de 30 cm lo cual es importante en un sistema de baja presión como el pulmonar.
LEY DE POISEUILLE.

La ley de Poiseuille (también conocida como ley de Hagen-Poiseuille) después de los


experimentos llevados a cabo en 1839 por Gotthilf Heinrich Ludwig Hagen (1797-1884)
es una ley que permite determinar el flujo laminar estacionario ΦV de un líquido
incompresible y uniformemente viscoso (también denominado fluido newtoniano) a
través de un tubo cilíndrico de sección circular constante. Esta ecuación fue derivada
experimentalmente en 1838, formulada y publicada en 1840 y 1846 por Jean Louis
Marie Poiseuille (1797-1869). La ley queda formulada del siguiente modo:
\Phi _{V} = {dV\overdt} = v_{media}\pi r^{2} = {\pi r^{4}\over 8 \eta} \left( - { d P
\overdz}\right) = {\pi r^{4}\over 8 \eta} { \Delta P \over L} \; ,
Donde V es el volumen del líquido que circula en la unidad de tiempo t, vmedia la
velocidad media del fluido a lo largo del eje z del sistema de coordenadas cilíndrico, r es
el radio interno del tubo, ΔP es la caída de presión entre los dos extremos, η es la
61
Jefferson Loor García Biofísica Grupo # 15
viscosidad dinámica y L la longitud característica a lo largo del eje z. La ley se puede
derivar de la ecuación de Darcy-Weisbach, desarrollada en el campo de la hidráulica y
que por lo demás es válida para todos los tipos de flujo. La ley de Hagen-Poiseuille se
puede expresar también del siguiente modo:
\lambda = {64\over {\it Re}} \; , \quad\quad Re = {2\rho v_{s} R\over \eta} \; ,
Donde Re es el número de Reynolds y ρ es la densidad del fluido. En esta forma la ley
aproxima el valor del factor de fricción, la energía disipada por la pérdida de
carga'RTYERY', el factor de pérdida por fricción o el factor de fricción de Darcy λ en
flujo laminar a muy bajas velocidades en un tubo cilíndrico. La derivación teórica de la
fórmula original de Poiseuille fue realizada independientemente por Wiedman en 1856 y
Neumann y E. Hagenbach en 1858 (1859, 1860). Hagenbach fue el primero que la
denominó como ley de Poiseuille.
La ley es también muy importante en hemodinámica.
La ley de Poiseuille fue extendida en 1891 para flujo turbulento por L. R. Wilberforce,
basándose en el trabajo de Hagenbach.

HEMODINÁMICA.

La hemodinámica es aquella parte de la biofísica que se encarga del estudio de la


dinámica de la sangre en el interior de las estructuras sanguíneas como arterias, venas,
vénulas, arteriolas y capilares así como también la mecánica del corazón propiamente
dicha mediante la introducción de catéteres finos a través de las arterias de la ingle o
del brazo. Esta técnica conocida como cateterismo cardíaco permite conocer con
exactitud el estado de los vasos sanguíneos de todo el cuerpo y del corazón.
Participantes de la circulación sanguínea.

• Arterias: Las arterias están hechas de tres capas de tejido, uno muscular en el medio
y una capa interna de tejido epitelial.
• Capilares: Los capilares irrigan los tejidos, permitiendo además el intercambio de
gases dentro del tejido. Los capilares son muy delgados y frágiles, teniendo solo el
espesor de una capa epitelial.
• Venas: Las venas transportan sangre a más baja presión que las arterias, no siendo
tan fuerte como ellas. La sangre es entregada a las venas por los capilares después
que el intercambio entre el oxígeno y el dióxido de carbono ha tenido lugar. Las venas
62
Jefferson Loor García Biofísica Grupo # 15
transportan sangre rica en residuos de vuelta al corazón y a los pulmones. Las venas
tienen en su interior válvulas que aseguran que la sangre con baja presión se mueva
siempre en la dirección correcta, hacia el corazón, sin permitir que retroceda. La sangre
rica en residuos retorna al corazón y luego todo el proceso se repite.
• Corazón: Es el órgano principal del aparato circulatorio. Es un músculo estriado
hueco que actúa como una bomba aspirante e impelente, que aspira hacia las aurículas
la sangre que circula por las venas, y la impulsa desde los ventrículos hacia las arterias.
Tiene 4 cavidades, 2 aurículas y 2 ventrículos.
Producción de la circulación sanguínea.
En primer lugar, la circulación sanguínea realiza dos circuitos a partir del corazón:
Circulación mayor o circulación somática o sistémica.
El recorrido de la sangre comienza en el ventrículo izquierdo del corazón, cargada de
oxígeno, y se extiende por la arteria aorta y sus ramas arteriales hasta el sistema
capilar, donde se forman las venas que contienen sangre pobre en oxígeno. Estas
desembocan en las dos venas cavas (superior e inferior) que drenan en la aurícula
derecha del corazón.
Circulación menor o circulación pulmonar o central.
La sangre pobre en oxígeno parte desde el ventrículo derecho del corazón por la arteria
pulmonar que se bifurca en sendos troncos para cada uno de ambos pulmones. En los
capilares alveolares pulmonares la sangre se oxigena a través de un proceso conocido
como hematosis y se reconduce por las cuatro venas pulmonares que drenan la sangre
rica en oxígeno, en la aurícula izquierda del corazón. La actividad del corazón es cíclica
y continua. El ciclo cardíaco es el conjunto de acontecimientos eléctricos,
hemodinámicas, mecanismos, acústicos y volumétricos que ocurren en las aurículas,
ventrículos y grandes vasos, durante las fases de actividad y de reposo del corazón.
El ciclo cardíaco comprende el período entre el final de una contracción, hasta el final
de la siguiente contracción. Tiene como finalidad producir una serie de cambios de
presión para que la sangre circule.
Principal importancia: pasa por las venas de nuestro cuerpo.
Fases del ciclo cardiaco.

63
Jefferson Loor García Biofísica Grupo # 15
1. Fase de llenado: tenemos válvulas sigmoideas aórtica y pulmonar (cerradas), y
válvulas auriculoventriculares denominadas tricúspide y mitral (abiertas). Durante esta
fase la sangre pasa desde la aurícula al ventrículo, es el principio de la diástole
(relajación de los ventrículos).
2. Fase de contracción isométrica ventricular: en esta fase comienza la sístole
(contracción ventricular) va a cerrar las válvulas auriculoventriculares.
3. Fase de expulsión: es la sístole propiamente dicha, en donde hay una contracción
ventricular (cerrados) abriéndose las válvulas sigmoideas, existe una salida de sangre a
la aorta y a la pulmonar.
4. Fase de relajación ventricular: los ventrículos se relajan, las válvulas sigmoideas se
cierran y las válvulas auriculoventriculares se abren. El ciclo completo dura unos 0,8 s
(Reposo).
Las presiones intracardiacas.
La presión intracardiaca o intravascular es la presión hidrostática ejercida por la sangre
contra la pared de las cavidades cardíacas o de los vasos. En nuestro sistema
cardiovascular las presiones son resultado de varios factores, entre los que se incluyen:
El flujo sanguíneo o débito, las resistencias al flujo, la distensibilidad de los ventrículos y
de los vasos, la fuerza de contracción de los ventrículos, la capacitancia del sistema, y
la volemia.
En condiciones fisiológicas, los ventrículos generan una presión sistólica que expulsa la
sangre hacia las grandes arterias, con una mínima resistencia intracardiaca a la
expulsión. Este bolo (o volumen) de sangre entra al sistema vascular arterial
produciendo un aumento de la presión, que dependerá del volumen expulsivo y de la
distensibilidad y capacitancia de las arterias. Luego la sangre fluye hacia los distintos
órganos por medio de arterias y arteríolas, que ofrecen una importante resistencia al
flujo, determinando un descenso significativo de las presiones entre las arterias y los
capilares. Finalmente la sangre atraviesa el sistema capilar y entra al sistema venoso,
donde su presión está determinada fundamentalmente por la relación entre la volemia y
la capacitancia del sistema.
A continuación presentamos el rango de valores normales de las presiones de uso
habitual, expresadas en mm de Hg:
Cavidad Presión sistólica/diastólica Presión media
Aurícula derecha (AD):
0á8
Ventrículo derecho (VD): 15 - 30 / 0 - 8
Arteria Pulmonar (AP): 15 - 30 / 4 - 12 10 á 22
Aurícula izquierda (AI):
1 á 10
64
Jefferson Loor García Biofísica Grupo # 15
Ventrículo izquierda (VI): 90 - 140 / 3 - 12
Aorta 90- 140 / 60 - 80 70 a 100
Cálculo del Gasto o Débito Cardíaco.
En un mismo individuo, el Gasto Cardíaco (= volumen de eyección x frecuencia
cardíaca) puede variar en forma muy importante, dependiendo tanto de variables
fisiológicas (ejercicio físico, emociones, digestión, etc.) como patológicas (fiebre,
hipotiroidismo, anemia, etc.) Las enfermedades cardíacas normalmente sólo afectan el
Gasto Cardiaco cuando se acompañan de una Insuficiencia Cardiaca avanzada.
En condiciones fisiológicas, el gasto cardíaco guarda una relación muy estrecha con la
superficie corporal, por lo que habitualmente nos referimos al Índice cardíaco, que
equivale a :
Los valores normales de Índice Cardíaco fluctúan entre 2,6 y 3,4 L/min/m2.
Existen muchas maneras de medir el gasto cardíaco. Las de uso habitual se basan en
el Principio de Fick o en las Curvas de Dilución.
1. Principio de Fick.
Establece que la diferencia de contenido de Oxígeno entre la sangre arterial y la sangre
venosa central es directamente proporcional al consumo de Oxígeno e inversamente
proporcional al gasto cardíaco (nota: el principio de Fick es aplicable a cualquier
órgano)
Para aplicar este método debemos, por lo tanto, conocer el Consumo de Oxígeno y el
contenido de Oxígeno de la sangre arterial y de la sangre venosa mezclada.
El consumo de Oxígeno es un valor relativamente complejo de medir, por lo que
habitualmente se utilizan tablas por edad, sexo y superficie corporal. Estos valores son
adecuados para el cálculo del gasto en condiciones basales, pero inapropiados cuando
existen situaciones que afecten significativamente la actividad metabólica (infecciones,
ansiedad, hipertiroidismo, shock, etc.).
El contenido de oxígeno de sangre venosa mezclada se debe obtener de muestras de
sangre de arteria pulmonar o aurícula derecha, para asegurar una adecuada mezcla de
la sangre venosa, debido a su diferente saturación de O2 de ambas venas cavas. Este
contenido se puede medir directamente en mL/L o calcularlo en base a la saturación de
oxígeno en sangre venosa mezclada y la a cantidad de hemoglobina de la sangre,
teniendo presente que cada gramo de hemoglobina oxigenada es capaz de trasportar
1,36 ml de O2.
2) Métodos de dilución.
La concentración que alcanza un determinado marcador en el sistema circulatorio es
directamente proporcional a la cantidad de marcador inyectado e inversamente
proporcional al flujo sanguíneo. El marcador más utilizado en la actualidad es un bolo
de suero frío, inyectado en el territorio venoso central. La inyección produce un
descenso en la temperatura de la sangre que se puede medir mediante un termistor,
incorporado en un catéter que se ubica distal al sitio de inyección, habitualmente en el
tronco de la arteria pulmonar.
65
Jefferson Loor García Biofísica Grupo # 15
El registro de la temperatura nos mostrará una curva, en donde el área de la curva es
equivalente a la concentración alcanzada por el marcador en un período determinado.
El gasto cardiaco se obtiene relacionando la cantidad de "frío" inyectado (volumen y
temperatura del bolo) con el área de la curva: entre mayor el descenso de temperatura,
menor es el gasto cardíaco y viceversa.
Presión en el sistema circulatorio. Presión sanguínea
Presión y tensión arterial

La presión arterial es la fuerza que ejerce la sangre al circular por las arterias, mientras
que tensión arterial es la forma en que las arterias reaccionan a esta presión, lo cual
logran gracias a la elasticidad de sus paredes. Si bien ambos términos se suelen
emplear como sinónimos, es preferible emplear el de presión arterial. De hecho, su
medida se describe en unidades de presión (por ejemplo, mm de Hg).
La relación entre ambas se puede expresar mediante la ley de Laplace:

Donde T es la tensión, P es la presión y r el radio de un vaso sanguíneo.


Una presión arterial normal ronda entre los 120/80 mm de Hg,1 mientras que para
un atleta puede ser menor y rondar entre 100/60 mm de Hg
Tensión arterial y flujo sanguíneo
Tensión arterial

La tensión (opresión) arterial es la medida de la presión que la sangre ejerce sobre las
paredes de las arterias como consecuencia del bombeo del corazón y la contracción de
las paredes arteriales.
Al contraerse el corazón, esta presión arterial es la tensión arterial sistólica (también
llamada alta o máxima). Cuando se relaja (para que entre sangre de nuevo en sus
cavidades), la presión arterial es la tensión arterial diastólica (también llamada baja o
mínima).
La tensión arterial normal varía según la edad y el momento concreto del día en que se
mide. Por ello, es recomendable realizar una serie regular de mediciones para saber los
niveles medios de tensión arterial
Se deben tomar tres determinaciones de tensión arterial, en tres días diferentes, y en
condiciones de reposo.
Los niveles aconsejados de una tensión normal son intentar no superar los 120 mmHg
para la máxima o sistólica, y 80 mmHg para la mínima o diastólica, pero para considerar
que una persona mayor de 18 años es hipertensa como enfermedad, deberá tener una
tensión máxima mayor de 140, o una mínima mayor de 90, en cada una de las tres
tomas mencionadas.

66
Jefferson Loor García Biofísica Grupo # 15
Flujo sanguíneo

El flujo sanguíneo es la cantidad de sangre que atraviesa la sección de un punto dado


de la circulación en un período determinado. Normalmente se expresa en mililitros por
minuto o litros por minuto, se abrevia Q.

El análisis de los factores que determinan el flujo sanguíneo es relativamente complejo


ya que es un flujo pulsátil, que discurre por un circuito cerrado de tubos distensibles con
múltiples ramificaciones y de calibre variable. Además el fluido circulante, la sangre, es
un fluido pseudoplástico con propiedades no lineales y compuesto de líquido (plasma) y
elementos formes (hematíes, leucocitos, plaquetas y otros). Esto explica que se recurra
a modelos y simplificaciones que no siempre se pueden aplicar de manera directa.
Valores normales en el humano

El flujo sanguíneo global de la circulación de un adulto en reposo es de unos 5000 ml


min-1, cantidad que se considera igual al gasto cardíaco porque es la cantidad que
bombea el corazón en la aorta en cada minuto. Corresponde al resultado de multiplicar
el volumen de eyección que el ventrículo expulsa en cada latido (unos 70 ml) por la
frecuencia cardíaca (unos 75 latidos por minuto). El gasto cardíaco disminuye en
posición sentado y de pie frente a su valor en decúbito, por el contrario, aumenta de
manera importante con el ejercicio, con el aumento de la temperatura corporal y en los
estados de ansiedad. Este aumento se produce sobre todo por el aumento de la
frecuencia cardíaca más que por el del volumen sistólico.

Índice cardíaco

El gasto cardíaco depende de la talla y peso del individuo y para tener valores
comparables entre distintos sujetos se utiliza el índice cardíaco que se calcula
dividiendo el gasto cardíaco por el área de superficie corporal. El índice cardíaco en
reposo es muy similar en el hombre y la mujer. El índice cardíaco disminuye con la
edad desde valores de 4,4 l min-1 m-3 en los adolescentes, hasta 3.5 l min-1 m-2 en el
adulto a los 40 años y 2,4 l min-1 m-2 en los octogenarios.

Función fisiológica

El flujo sanguíneo es el parámetro más relevante de la función cardiovascular ya que


ésta consiste, esencialmente, en aportar un flujo de sangre a los tejidos que permita:

El transporte de los nutrientes (principios inmediatos y oxígeno) y la recogida de los


productos del metabolismo celular (metabolitos y dióxido de carbono).

El transporte de los compuestos químicos que actúan como mensajeros y elementos de


control del organismo (hormonas, enzimas, precursores, elementos de la coagulación,
etc.) a sus lugares de actuación.

El transporte y distribución del calor que participa en los mecanismos de control de la


temperatura corporal.

67
Jefferson Loor García Biofísica Grupo # 15
El transporte de elementos celulares generalmente relacionados con las funciones
inmunológicas (pero también, en algunos casos, el transporte de elementos patógenos
como bacterias, virus y células cancerosas).

De manera artificial lo utilizamos para transportar sustancias o para extraer sangre


mediante el cateterismo de un vaso arterial o venoso lo que permite realizar diversos
tipos de medidas (entre otras las del propio flujo sanguíneo) y la administración de
fármacos y fluidos.

Medición

Históricamente la medida del flujo sanguíneo no fue cosa fácil y esto explica que el flujo
sanguíneo se utilice menos que otros parámetros cardiovasculares, como la presión
arterial, más fáciles de medir. Clásicamente, el flujo se ha medido aplicando el principio
de Fick a la dilucción de un indicador químico o térmico. Esta situación está cambiando
con la introducción de los medidores electromagnéticos y los de ultrasonidos mediante
efecto Doppler que permiten medir el flujo sin abrir el vaso sanguíneo y con las técnicas
de imagen con marcadores para medir el flujo en un determinado territorio.
MECÁNICA CIRCULATORIA.
Mecánica cardiaca. El ciclo cardiaco.

Las sucesivas y alternadas contracciones y relajaciones permiten que el corazón


funcione como una bomba, impulsando la sangre desde las venas hacia las arterias.
Este patrón mecánico se denomina ciclo cardíaco, y consta de dos fases principales: la
diástole o fase de relajación; y la sístole o fase de contracción.

Propiedades mecánicas de la fibra cardiaca

Para que las fibras cardíacas inicien el proceso mecánico de la contracción es


necesario que la información eléctrica localizada a nivel de la membrana se introduzca
al citoplasma celular, que es el lugar donde se encuentra la maquinaria contráctil; por
ello, el primer fenómeno que ha de estudiarse es el tránsito de esta información,
denominado acoplamiento excitación contracción.

Acoplamiento excitación-contracción

El acoplamiento, al igual que en el músculo esquelético, es un mecanismo dependiente


íntegramente del Ca++ presente en el sarcoplasma . La despolarización sostenida
durante la fase de meseta en el potencial de acción cardíaco garantiza la entrada de
Ca++ necesario para la liberación del almacenado en el retículo.

Respuesta contráctil del músculo cardíaco

La prolongada duración del potencial de acción tiene como consecuencia que la fase
contráctil coincida temporalmente con la membrana en situación de despolarización. El
pico de tensión se alcanza antes de la terminación del periodo refractario absoluto, y
68
Jefferson Loor García Biofísica Grupo # 15
cuando acaba el periodo refractario relativo, el músculo se encuentra en la mitad de su
relajación. Puede observarse, por lo tanto, que hay un estrecho solapamiento entre los
dos fenómenos.

Debido a esta característica no se puede generar un segundo potencial de acción


hasta que el primero no se haya acabado; y cuando esto sucede, también ha finalizado
prácticamente la actividad contráctil

Propiedades mecánicas

En la actividad normal del corazón, la distensión que presentan las fibras musculares
viene dada por el grado de llenado que tienen las cavidades cardíacas, es decir por la
cantidad de sangre que entra en el corazón procedente de las venas (retorno venoso).
A medida que se va cargando el corazón con volúmenes mayores de sangre, las fibras
presentarán un grado de distensión mayor y responderán con una fuerza contráctil más
alta, lo cual permitirá realizar el bombeo de mayores volúmenes con mayor eficacia.
Esta propiedad garantiza que el corazón, en condiciones normales, bombea toda la
sangre que recibe.

Las células cardíacas tienen un metabolismo fuertemente aerobio, que les garantiza un
adecuado soporte de ATP. Para ello contienen muchas mitocondrias y mioglobina, la
cual les proporciona el color rojo. Si se compromete por cualquier alteración el
suministro de sangre u oxígeno a las fibras, su capacidad de supervivencia es muy
reducida y mueren.

CICLO CARDIACO

La característica más relevante en el comportamiento contráctil del corazón es su


función cíclica de bombeo, por ello los parámetros que mejor miden esta actividad son
los valores de presión y volumen; de ahí que la descripción del ciclo cardíaco se realice
mediante las medidas mencionadas a nivel de las cavidades cardíacas y en los vasos
sanguíneos de entrada y salida del corazón.

El ciclo se desarrolla al mismo tiempo en las dos partes del corazón (derecha e
izquierda), aunque las presiones son mayores en el lado izquierdo. La observación al
mismo tiempo del

ECG permite correlacionar los cambios mecánicos con los acontecimientos eléctricos
que los preceden; y añadidamente demuestra la unidad de acción del músculo auricular
y ventricular.

El cierre y apertura de las válvulas cardiacas genera una serie de vibraciones y de


turbulencias en el flujo sanguíneo, que se propagan por los tejidos y originan una serie
de ruidos recogidos en un registro denominado fonocardiograma. De forma sencilla,

69
Jefferson Loor García Biofísica Grupo # 15
pueden ser percibidos con la ayuda de un fonendoscopio. El 1º ruido, es producido por
el cierre de las válvulas

aurículoventriculares, en el inicio de la sístole ventricular, y el 2º ruido, es originado por


el cierre de las válvulas semilunares, al inicio de la diastole ventricular. Este 2º ruido es
menos sonoro que el 1º (de forma onomatopéyica suelen describirse como "lub" el
primer ruido y "dub" el segundo).

Fases del ciclo cardíaco

1. Fase final de la diastole

2. Fase de sístole

3. Fase inicial y media de la diastole

En un adulto normal la frecuencia cardíaca es de 70 ciclos/ minuto, lo que supone


menos de 1 segundo por ciclo. La duración media es de 0,8 segundos, los cuales no se
distribuyen equitativamente entre sístole y diástole, ya que la diástole dura unas 0,5
segundos y la sístole 0,3 segundos.

En la gráfica de la figura pueden observarse las modificaciones de presión y volumen


que tienen lugar en el corazón izquierdo, aurícula y ventrículo izquierdo y aorta, además
del ECG y los ruidos cardíacos.

Curva presión-volumen o trabajo cardíaco

La función básica del corazón es su papel de bomba, y sus propiedades contráctiles


pueden apreciarse mejor en la relación existente entre la presión desarrollada al
contraerse y el volumen de sangre que proyecta al árbol circulatorio.

Puede observarse el recorrido o ciclo ABCDA, donde entre A y B se produce el


rellenado del ventrículo durante la diástole; de B a C se desarrolla la fase de
contracción ventricular isovolumétrica; de C a D se produce la fase sistólica de eyección
y, por último de D a A se realiza la fase diastólica de relajación isovolumétrica. Las
curvas para el ventrículo derecho e izquierdo son iguales, aunque los valores de
presión en el izquierdo son más elevadas.

70
Jefferson Loor García Biofísica Grupo # 15
LEYES DE LA VELOCIDAD Y DE LA PRESIÓN

LEY DE VELOCIDAD

Hemos visto que la velocidad de una reacción es proporcional a la concentración de los


reactivos. Sin embargo, no todos ellos influyen de la misma manera en la velocidad. La
expresión que nos permite calcular la velocidad a la que ocurre reacción y relacionar la
velocidad con las concentraciones de los reactivos se llama Ley de Velocidad.

Para una reacción hipotética: A + 2 B → C

Sabemos que la velocidad la podemos expresar así:

Sin embargo, la ley de velocidad nos permite calcular la velocidad, conociendo las
concentraciones iniciales de los reactivos. Así, la expresión de la ley de velocidad será:

v = k [A]m[B]n

Donde k (minúscula) es una constante de proporcionalidad denominada constante de


velocidad, y m y n son números enteros (mayores o iguales que cero), que NO
NECESARIAMENTE son los coeficientes estequiométricos. Es decir, yo no puedo decir
que m = 1 y n = 2, ya que estos valores hay que determinarlos experimentalmente. Los
números m y n se denominan ÓRDENES PARCIALES DE LA REACCIÓN: “m” con
respecto al reactivo A y “n” con respecto a B. La suma de“m+n” nos da el ORDEN
TOTAL DE LA REACCIÓN.

Volvamos a nuestra reacción A + 2 B → C

Sabemos que la expresión de la velocidad es: v = k [A]m[B]n

Supongamos ahora, que hemos encontrado experimentalmente los valores de los


exponentes: m=1 y n=1. Entonces, podemos decir que la ley de velocidad para la
reacción planteada es:

v = k [A][B]

Y, por tanto, afirmaremos que:

 La reacción es de primer orden con respecto a la sustancia A.


 La reacción es de primer orden con respecto a la sustancia B.
 La reacción es de segundo orden.

71
Jefferson Loor García Biofísica Grupo # 15
LEY DE LAS PRESIONES
Presión media arterial es la presión por la cual el corazón expulsaría o exectaria la
sangre si aumenta (presión) se mantuviese siempre constante en la práctica se sabe
que cada ciclo cardiaco la presión que ejerce el corazón para expulsar la sangre varía
desde una mínima llamada presión diastólica, hasta la máxima presión sistólica. La
sangre liquida es un líquido lo cual necesita una diferencia de presión para poder
circular la presión sanguínea varia disminuyendo desde el valor máximo en su orden del
lecho venoso, es decir la entrada a la aurícula derecha la presión es mínima.

FORMULAS DE PRESION
Determinación de la presión arterial en decúbito y de pie

p. cabeza = p. sang – p. hidrostática

39 cm de sangre

p. pies = p. sang + p. hidrostática

130 cm de sangre

PRESION ARTERIAL MEDIA


RAM = presión arterial media

PAD = presión arterial distolica

PAS = presión arterial sistólica

PRESION DEL PULSO


Pp= presión del pulso PP=PAS – PAD

Volumen minuto circulatorio y circulación sistémica.

Se define gasto cardíaco o volumen minuto como la cantidad de sangre bombeada


cada minuto por cada ventrículo. De esta forma el flujo que circula por el circuito mayor
o menor corresponde a lo proyectado por el sistema de bombeo. Se calcula mediante el
producto del volumen sistólico, (volumen impulsado en cada latido cardíaco) por la
frecuencia cardiaca (número de latidos o ciclos cardíacos por minuto). Para un individuo
adulto medio, el gasto cardíaco se encuentra entre 5-6 litros/min, aunque puede variar
dependiendo, por ejemplo, de la actividad que se esté realizando.
Regulación del gasto cardiaco
La regulación de la función de bombeo del corazón depende de forma directa de los
valores de la frecuencia cardiaca y del volumen sistólico. En el estudio de la regulación
se diferencian dos tipos: una regulación intrínseca, en la que intervienen factores

72
Jefferson Loor García Biofísica Grupo # 15
exclusivamente cardíacos, y una regulación extrínseca, determinada por la acción de
factores externos.
Regulación de la frecuencia (efectos cronotrópicos)
Aunque el corazón tiene una actividad rítmica intrínseca, existen factores externos a la
estructura cardiaca que pueden alterar esta frecuencia basal de contracción. Estos
factores son de naturaleza nerviosa y hormonal. El sistema nervioso autónomo, a través
de sus dos divisiones, simpático y parasimpático, modifica la frecuencia cardiaca.

En un adulto normal la frecuencia cardiaca es de unos 70 latidos/minuto, si ese mismo


corazón se le aísla separándole de sus conexiones nerviosas, pasa a realizar 100
latidos/minuto, que es la frecuencia intrínseca de las fibras del nodo sinusal. De esta
forma la frecuencia disminuye (bradicardia, o efecto cronotropo negativo), e incluso si la
estimulación parasimpática es muy fuerte puede llegar a pararse el corazón. La
bradicardia que se produce durante el sueño, se basa en el incremento de actividad
parasimpática y en la disminución de actividad simpática.

Regulación del volumen sistólico (efectos inotrópicos)


El volumen sistólico es el volumen de sangre impulsada por el ventrículo en cada latido,
su valor viene determinado fundamentalmente por la fuerza de contracción
(contractilidad) del músculo cardíaco. Los factores que afectan a esta propiedad se
denominan factores inotrópicos, y como en la frecuencia, se consideran positivos
cuando aumentan la contractilidad y negativos cuando la disminuyen.

A diferencia de la frecuencia que sólo estaba influida por factores extrínsecos, el


volumen sistólico dispone de dos tipos de mecanismos de regulación diferenciados por
su origen.

73
Jefferson Loor García Biofísica Grupo # 15
Existen dos factores importantes en la forma de regulación intrínseca que influencian la
respuesta contráctil del músculo cardíaco. Estosfactores son:

 a) La precarga. Definida como la tensión pasiva que determina, en el músculo


cardiaco, la longitud inicial de las fibras antes de la contracción; es decir, la
distensión de las fibras (o volumen diastólico final) que las coloca en su longitud
inicial previa a la contracción. Dentro de ciertos límites, existe una relación
proporcional entre el incremento de la precarga y la respuesta contráctil del músculo
cardiaco, representada por la curva de Starling. A mayor volumen diastólico final,
mayor volumen sistólico, lo cual garantiza que una mayor afluencia o entrada de
sangre al corazón se va a ver compensada por una contracción más enérgica y una
salida proporcionalmente también mayor; o, dicho en otros términos, el corazón
bombea toda la sangre que recibe sin permitir remansamientos y ajusta el retorno
venoso con el gasto cardíaco (la entrada y la salida dentro de un circuito cerrado).
Este comportamiento se conoce como "ley del corazón" o ley de Frank-Starling y
una de las funciones que explica es el equilibrio de gasto cardiaco de los ventrículos
derecho e izquierdo.

 b) La poscarga. Es la carga frente a la que deben acortarse las fibras miocárdicas


durante la sístole, dicho de otro modo, la carga que debe desplazar el músculo
después de iniciarse la contracción. Para el ventrículo izquierdo, la poscarga viene
dada por la presión en la aorta.

74
Jefferson Loor García Biofísica Grupo # 15
Regulación extrínseca del volumen sistólico
Existen una serie de factores extrínsecos que pueden modificar la contractilidad del
corazón. El sistema nervioso autónomo es uno los reguladores principales en la
contractilidad de las fibras miocárdicas. En condiciones basales la influencia
predominante es simpática, y su efecto es un aumento de la contractilidad (efecto
inotrópico positivo) aumentando el vaciado del ventrículo y el incremento de presión
sistólica.

Otros factores son las concentraciones iónicas de K+ , Ca++, un aumento de la [K+]


extracelular o una disminución de la [Ca++] tienen un efecto inotrópico negativo, al igual
que los descensos de pH sanguíneos.

CORAZONES ARTIFICIALES.

Un corazón artificial es una prótesis que se implanta en el cuerpo para reemplazar al


corazón biológico. Es distinto de una máquina de bypass cardiopulmonar (CPB), que es
un dispositivo externo utilizado para proveer las funciones del corazón y los pulmones.
El CPB oxigena la sangre, y por lo tanto no es preciso se encuentre conectado a ambos
circuitos sanguíneos.
¿CÓMO SE CLASIFICA UN CORAZÓN ARTIFICIAL?
La clasificación de los distintos tipos de corazones artificiales se designa mediante las
siguientes pautas.
II-C1. Funcionamiento: De acuerdo a la manera de funcionar el corazón artificial se
clasifica en:
Pulsátiles: aquellos que utilizan una membrana externa para el bombeo de sangre,
cada vez que esta se contrae.
No pulsátiles: Caracterizados por tener un flujo de sangre continuo, mediante una
bomba u otro medio.
II-C2. Periodo de uso: El dispositivo puede permanecer un periodo de corta, mediana
o de larga duración en el paciente, teniendo dos factores a considerar el primero el

75
Jefferson Loor García Biofísica Grupo # 15
fallecimiento del individuo, el segundo el reemplazo de un nuevo dispositivo. Un
paciente ha logrado sobrevivir mediante este sistema aproximadamente un año.
II-C3. Magnitud del trasplante: Hace referencia básicamente a que si el corazón
artificial se queda o no dentro del ser humano, por lo que se clasifican en:
Paracorpóreos: Cuando el dispositivo se encuentra fuera del cuerpo del paciente.
Implantables.
II-C4. Debido al reemplazo de la función biológica: Según el órgano que se vaya a
reemplazar por este sistema pueden clasificarse en:
Dispositivo de Asistencia Cardíaca: es un dispositivo encargado de reemplazar la
función de una parte del corazón como por ejemplo de un ventrículo.
Corazón artificial total: este dispositivo reemplaza todas las funciones del corazón
biológico, cuando este órgano fundamental presenta daños.
FUNCIONAMIENTO.
La función de un corazón artificial es la misma que la de un corazón bilógico, el AbioCor
posee las cavidades para bombear la sangre en sus mitades izquierda y derecha. La
sangre que oxigena los pulmones fluye hacia la cavidad izquierda, de donde sale a
recorrer todo el cuerpo; la sangre con una existencia de oxígeno agotado entra y sale
por la cavidad derecha.
Entre estas cavidades existe un mecanismo herméticamente sellado que desempeña la
función de las paredes cardíacas, que genera movimientos de bombeo de sangre, en
su interior un motor eléctrico hace girar una bomba centrífuga entre 5000 y 9000
rotaciones por minuto, esta bomba expulsa un líquido viscoso hidráulico, un segundo
motor gira la válvula de cierre o apertura. Cuando la sección izquierda se llena del fluido
su membrana se empuja hacia afuera expulsando así la cavidad izquierda a la sangre,
simultáneamente el líquido hidráulico sale de la sección derecha por lo cual su
membrana se desinfla dejando libre esta cavidad para que la sangre entre. [13], [10]
Estas válvulas cardiacas están fabricadas de plástico, los conductores de entrada están
conectados a las aurículas izquierda y derecha del corazón extirpado y los conductores
de salida a las arterias de aorta y pulmonar.
El corazón artificial pesa aproximadamente un kilogramo, más el peso de la batería
interna, bobina de inducción eléctrica y el módulo de control otro kilogramo más, unos
20 watt de energía eléctrica por lo que es necesario que se esté cargando
constantemente, por lo que se utiliza las baterías de litio el cinturón del paciente

SISTEMA NERVIOSO, SISTEMA BIOELÉCTRICO

El sistema nervioso puede considerarse como un sistema de comunicaciones que


transforma la energía ambiental en energía eléctrica. Esta función o proceso tiene lugar
en los receptores sensoriales. Posteriormente, las vías nerviosas transmitirán la
información codificada en impulsos eléctricos hasta el área de proyección
correspondiente del córtex cerebral.

76
Jefferson Loor García Biofísica Grupo # 15
Los seres vivos reciben información sobre el entorno en que se hallan en forma de
energía física (luminosa, mecánica, química), pero el cerebro sólo es capaz de utilizar la
energía eléctrica. Por esta razón, para poder percibir cualquier propiedad del ambiente,
la energía lumínica, mecánica o química, debe ser transformada en impulsos
bioeléctricos. Es a esta transformación a la que denominamos transducción, la cual
tiene lugar en los receptores de los órganos de los sentidos.
Los receptores de cada modalidad sensorial están especializados en responder,
preferentemente, a un tipo determinado de energía. Así, los receptores visuales
contienen pigmentos que modifican su estructura molecular al ser expuestos a la luz.
Este cambio en su estructura molecular activa un proceso que concluye con la
generación de una respuesta eléctrica en el receptor.
La transmisión del impulso será efectuada por una sucesión de multitud de neuronas,
enlazadas mediante sinapsis a través de neurotransmisores químicos, cuyos axones se
unen para formar fibras que constituyen los nervios.
Es importante resaltar que el cambio de intensidad estimular no afecta a la magnitud de
los impulsos nerviosos, pero si a la tasa de descarga, tasa de disparo o número de
impulsos por unidad de tiempo. Sin embargo, existe un límite superior en este número
de impulsos bioeléctricos/seg., ya que la neurona tiene un período refractario (requiere
1 msg para recobrarse de la transmisión de un impulso antes de comenzar otro).
Más concretamente, el número de impulsos bioeléctricos/tiempo es directamente
proporcional al logaritmo de la intensidad de la luz que incide sobre el fotorreceptor. Es
decir, mientras que la intensidad de la luz crece en progresión geométrica, el NÂş
impulsos/t sólo crece en progresión aritmética. En otras palabras, un gran incremento
en la intensidad de la luz se transduce en un moderado aumento del NÂş impulsos/t.
Sin embargo, la relación entre la intensidad de la luz exterior que incide sobre los
fotorreceptores retinianos y la tasa de disparo no es tan simple. Así, cuando al
despertar (adaptación a la luz) encendemos la lámpara, el NÂş impulsos/t llega a un
máximo y luego disminuye hasta alcanzar un valor estable. Tanto el valor máximo como
el valor estable están relacionados logarítmicamente con la intensidad de la luz. Ello
significa que una proporción alta de impulsos/t indica, tan sólo, un súbito incremento en
la intensidad de luz y no la presencia de una luz muy brillante. Es decir, el S.V.H.
responde a cambios relativos en la intensidad de luz y no a cambios absolutos.

Otra consecuencia de este proceso de transducción consiste en que los cambios lentos
(graduales) de intensidad de luz no llegan a ser conocidos, pero sí los cambios bruscos.
Ello tiene un alto valor adaptativo porque el individuo, por ejemplo, no obtiene
información de las fluctuaciones de la luz al atardecer, pero sí de la sombra de un
objeto que le pasa por encima (v.g. la que produce un depredador).

77
Jefferson Loor García Biofísica Grupo # 15
ELECTRODIAGNÓSTICO Y ELECTROTERAPIA.
El Electrodiagnóstico es un modelo de intervención fisioterápica que permite una
evaluación cualitativa de la placa neuromotora. Se observará la durabilidad contráctil,
localización del punto motor más allá de la anatomofisiología neurológica. Utilizaremos
corriente galvánica en sus formas de presentación cuadrangular y triangular para la
obtención de una gráfica denominada curva i/t, que nos informará sobre el estado
aproximado del músculo (denervado, parcialmente denervado, etc.).
Electroterapia.
Los estudios de neuroconducción y electromiografía
con aguja son aplicadas en el diagnóstico de
enfermedades comunes y enfermedades raras. Las
solicitudes de los estudios varían de acuerdo al
contexto clínico. En pediatría, los estudios
electrofisiológicos se solicitan como parte de la
evaluación del niño hipotónico, en la investigación de
la marcha anormal y en las lesiones del nervio
periférico (fractura supracondilea del codo con lesión
del nervio radial), para solo mencionar algunos casos.
En los servicios de urgencias y en cuidados intensivos los estudios de neuroconducción
ocasionalmente son solicitados para evaluar los casos de debilidad aguda (Síndrome
de Guillain-Barré). En la consulta de Neurología y Rehabilitación, los estudios
electrofisiológicos generalmente son solicitados en la evaluación de los pacientes con
debilidad crónica y fatigabilidad (por ejemplo distrofias musculares y Miastenia Gravis)
En la consulta rutinaria de medicina general la necesidad de un estudio
electrofisiológico es diferente. Se debe tener presente que en los niveles básicos de
atención son comunes las enfermedades musculoesqueléticas agudas y crónicas. En
este grupo se destacan el dolor lumbar, el dolor de hombro, el dolor cervical y el dolor
de rodilla. Otras enfermedades, de baja prevalencia, solo se observan ocasionalmente
en la consulta médica general. El dolor, (principalmente el dolor lumbar con síntomas
radiculares y la cervicobraquialgia), los síntomas sensitivos (en especial en el síndrome
de túnel del carpo y la neuropatía diabética) y la debilidad son los motivos de remisión
de la consulta médica general a un estudio electrofisiológico.
La electroterapia es una disciplina que se engloba dentro de la medicina fisica y
rehabilitación y se define como el arte y la ciencia del tratamiento de lesiones y
enfermedades por medio de la electricidad.
La Historia de la Electroterapia es muy antigua y se remonta a la aplicación de las
descargas del pez torpedo en la época griega y romana (véase, Historia, en
fisioterapia).
Actualmente, la tecnología ha desarrollado numerosos aparatos (productos sanitarios)
para la aplicación de la electroterapia sin correr riesgos de efectos secundarios, como
los TENS o los estimuladores de alta o baja frecuencia.
Los principales efectos de las distintas corrientes de electroterapia son:

78
Jefferson Loor García Biofísica Grupo # 15
 Anti-inflamatorio.

 Analgésico.

 Mejora del trofismo.

 Potenciación neuro-muscular.

 Térmico, en el caso de electroterapia de alta


frecuencia.

 Fortalecimiento muscular.

 Mejora transporte de medicamentos.

 Disminución de edema.

 Control de dolor.

 Mejora sanación de heridas.

Tipos de corriente y efectos de la electricidad en los seres vivos.

TIPOS DE CORRIENTE ELÉCTRICA

Existen dos tipos básicos de corriente eléctrica:

- Corriente Continua (c.c., en inglés d.c.): Es el tipo de corriente producido por


las pilas, baterías y células solares, en las que el valor de tensión permanece constante
a lo largo del tiempo, es decir, no va cambiando según el instante.

- Corriente Alterna (c.a., en inglés a.c.): Es el tipo de corriente producido por los
alternadores, en los que el voltaje va cambiando instante a instante y alternando valores
positivos con negativos según una forma de onda senoidal. Esto es debido a la manera
con que se produce la electricidad (girando el bobinado en el seno de un campo
magnético). El valor eficaz de la corriente alterna que llega a nuestras casas es de
220V (380V si es trifásica) y varía con una frecuencia de 50 Hz, siendo el valor máximo
o de pico de 311V.

Para observar la forma de estas corrientes recurriremos a un aparato llamado


osciloscopio (ORC) que puede medir las señales eléctricas en tiempo real.

Además, existe otro tipo de corriente llamada Corriente Pulsatoria, que es la producida
por las dinamos y en la que el voltaje va cambiando instante a instante, pero sin
alternar, ya que siempre son valores positivos. Es una especie de corriente alterna
rectificada que, a efectos de cálculo, suele considerarse más una corriente continua.

79
Jefferson Loor García Biofísica Grupo # 15
Y también mencionaremos otro tipo de corriente eléctrica, la señal eléctrica cuadrada,
muy usada en los sistemas de control electrónico y generado por osciladores o relojes
de cristal de cuarzo para sincronizar el funcionamiento de los elementos del sistema. Es
el caso de los ordenadores.

EFECTOS QUE PROVOCA LA ELECTRICIDAD Y PARA QUÉ LA USAMOS


Los efectos directos que provoca la corriente eléctrica a su paso por un cuerpo son dos:

- Calor, debido a la fricción en el movimiento de los electrones, y

- Un campo magnético, según lo explicado en el capítulo de electromagnetismo.

En general estos efectos son perjudiciales ya que ambos pueden afectar negativamente
a la salud de los seres vivos y dañar máquinas, aparatos y sistemas. Es peligroso el
calor, pero también los campos magnéticos provocados por los aparatos eléctricos,
unos más que otros. En general se aconseja usarlos lo menos posible (el tiempo
estrictamente necesario) y tenerlos a la mayor distancia que podamos; a menor tiempo
y a mayor distancia los efectos son menores. Las descargas eléctricas pueden producir
desde pequeños calambres a serias quemaduras y contracciones musculares que
pueden provocar la muerte.

Por otra parte, el hombre ha sabido aprovechar estos efectos para su propio beneficio,
inventando elementos y aparatos que han resuelto determinados problemas o que nos
han hecho la vida más cómoda (¿a qué precio?). En general, usamos la electricidad
para producir luz (bombillas, tubos fluorescentes, etc.), movimiento (motores), sonido
(timbres) y, por supuesto, calor (resistencias como las de los radiadores eléctricos,
vitrocerámicas, hornos, etc.) y magnetismo (electroimanes).

Pensemos, eso sí, que con tan sólo el calor o el magnetismo que provoca la electricidad
somos capaces de hacer funcionar todos esos aparatos. A modo de ejemplo citaremos
que una bombilla (lámpara de incandescencia) produce luz gracias a que un trozo de
metal (un filamento de Wolframio) se calienta hasta tal punto (unos 3000ºC) que emite
luz blanca, o que un motor se mueve gracias a las fuerzas de atracción o repulsión
magnéticas, al igual que el timbre, donde esas fuerzas de origen magnético se
aprovechan para golpear un metal y producir sonido. Todo esto sin mencionar la rama
de la electrónica, que explicamos en tema aparte. A continuación se explican con
detalle estos usos de la electricidad.

En efecto, se usa la electricidad en todos los sectores de nuestra sociedad. Dada su


adaptabilidad, no existe ninguna actividad económica que no utilice la electricidad.
Veamos algunos ejemplos:

En las fábricas: La industria utiliza aproximadamente la mitad de la energía eléctrica,


una cuarta parte de su consumo de energía. La electricidad tiene muchos usos en las
fábricas: se utiliza para mover motores, para obtener calor y frío, para procesos de

80
Jefferson Loor García Biofísica Grupo # 15
tratamiento de superficies mediante electrólisis, etc. Una circunstancia reciente es que
la industria no sólo es una gran consumidora de electricidad, sino que, gracias a la
cogeneración, también empieza a ser productora.

En el transporte: Tan sólo el transporte público (incluyendo el tren) emplea energía


eléctrica. No obstante, se lleva ya tiempo trabajando en versiones eléctricas de los
vehículos de gasolina, pues supondrían una buena solución para los problemas de
contaminación y ruido que genera el transporte en las ciudades. Incluso es posible
(aunque no habitual) emplear la electricidad para hacer volar un avión.

En la agricultura: Especialmente para los motores de riego, usados para elevar agua
desde los acuíferos, y para otros usos mecánicos.

En los hogares: La electricidad se utiliza en los hogares para usos térmicos


(calefacción, aire acondicionado, agua caliente y cocina), en competencia con otros
combustibles como el butano, el gasóleo, el carbón y el gas natural, siendo la única
energía empleada para la iluminación y los electrodomésticos.

En el comercio, la administración y los servicios públicos (como los centros


educativos): De manera similar a como se utiliza en el sector doméstico, con el
elemento añadido de un uso cada vez mayor de los sistemas de procesamiento de la
información y de telecomunicaciones, que necesitan electricidad para funcionar.

Efectos de los campos electromagnéticos sobre órganos y sistemas.

¿Qué ocurre cuando nos exponemos a campos electromagnéticos?


La exposición a campos electromagnéticos no es un fenómeno nuevo. Sin embargo, en
el siglo XX la exposición ambiental ha aumentado de forma continua conforme la
creciente demanda de electricidad, el constante avance de las tecnologías y los
cambios en los hábitos sociales han generado más y más fuentes artificiales de campos
electromagnéticos. Todos estamos expuestos a una combinación compleja de campos
eléctricos y magnéticos débiles, tanto en el hogar como en el trabajo, desde los que
producen la generación y transmisión de electricidad, los electrodomésticos y los
equipos industriales, a los producidos por las telecomunicaciones y la difusión de radio
y televisión.

81
Jefferson Loor García Biofísica Grupo # 15
En el organismo se producen corrientes eléctricas minúsculas debidas a las reacciones
químicas de las funciones corporales normales, incluso en ausencia de campos
eléctricos externos. Por ejemplo, los nervios emiten señales mediante la transmisión de
impulsos eléctricos. En la mayoría de las reacciones bioquímicas, desde la digestión a
las actividades cerebrales, se produce una reorganización de
partículas cargadas. Incluso el corazón presenta actividad
eléctrica, que los médicos pueden detectar mediante los
electrocardiogramas.
Los campos eléctricos de frecuencia baja influyen en el
organismo, como en cualquier otro material formado por
partículas cargadas. Cuando los campos eléctricos actúan
sobre materiales conductores, afectan a la distribución de las
cargas eléctricas en la superficie. Provocan una corriente que
atraviesa el organismo hasta el suelo.
Los campos magnéticos de frecuencia baja inducen
corrientes circulantes en el organismo. La intensidad de estas corrientes depende de la
intensidad del campo magnético exterior. Si es suficientemente intenso, las corrientes
podrían estimular los nervios y músculos o afectar a otros procesos biológicos.
Efectos sobre el embarazo.
La OMS y otros organismos han evaluado numerosas fuentes y exposiciones diferentes
a campos electromagnéticos en el entorno cotidiano y de trabajo, como las pantallas de
computadora, colchones de agua y mantas eléctricas, equipos de soldadura por
corrientes de radiofrecuencia, equipos de diatermia, y radares. El conjunto de los
resultados demuestra que la exposición a los niveles típicos de los campos del medio
no aumenta el riesgo de desenlaces adversos como abortos espontáneos,
malformaciones, peso reducido al nacer y enfermedades congénitas. Se han publicado
informes esporádicos de asociaciones entre problemas sanitarios y la presunta
exposición a campos electromagnéticos, como informes sobre partos prematuros y con
peso reducido de trabajadoras de la industria electrónica, pero la comunidad científica
no ha considerado que estos efectos estén necesariamente ocasionados por la
exposición a campos electromagnéticos (frente a la influencia de factores como la
exposición a disolventes).

Cataratas.
Se ha informado de casos de irritación ocular general y cataratas en trabajadores
expuestos a niveles altos de radiación de radiofrecuencia y microondas, pero estudios
realizados con animales no confirman la idea de que estos tipos de trastornos oculares
se puedan producir a niveles que no son peligrosos por su efecto térmico. No hay
pruebas de que se produzcan estos efectos a los niveles a los que está expuesta la
población general.

82
Jefferson Loor García Biofísica Grupo # 15
Campos electromagnéticos y cáncer.
A pesar de los numerosos estudios realizados, la existencia o no de efectos
cancerígenos es muy controvertida. En cualquier caso, es evidente que si los campos
electromagnéticos realmente producen algún efecto de aumento de riesgo de cáncer, el
efecto será extremadamente pequeño. Los resultados obtenidos hasta la fecha
presentan numerosas contradicciones, pero no se han encontrado incrementos grandes
del riesgo de ningún tipo de cáncer, ni en niños ni en adultos.
Algunos estudios epidemiológicos sugieren que existen pequeños incrementos del
riesgo de leucemia infantil asociados a la exposición a campos magnéticos de baja
frecuencia en el hogar. Sin embargo, los científicos no han deducido en general de
estos resultados la existencia de una relación causa-efecto entre la exposición a los
campos electromagnéticos y la enfermedad, sino que se ha planteado la presencia en
los estudios de efectos artificiosos o no relacionados con la exposición a campos
electromagnéticos. Esta conclusión se ha alcanzado, en parte, porque los estudios con
animales y de laboratorio no demuestran que existan efectos reproducibles coherentes
con la hipótesis de que los campos electromagnéticos causen o fomenten el cáncer. Se
están realizando actualmente estudios de gran escala en varios países que podrían
ayudar a esclarecer estas cuestiones.
Hipersensibilidad a los campos electromagnéticos y depresión.
Algunas personas afirman ser "hipersensibles" a los campos eléctricos o magnéticos.
Preguntan si los dolores, cefaleas, depresión, letargo, alteraciones del sueño e incluso
convulsiones y crisis epilépticas pueden estar asociados con la exposición a campos
electromagnéticos.
Hay escasa evidencia científica que apoye la posible existencia de casos de
hipersensibilidad a los campos electromagnéticos. Estudios recientes realizados en
países escandinavos han comprobado que, en condiciones adecuadamente
controladas de exposición a campos electromagnéticos, no se observan pautas de
reacción coherentes en los sujetos expuestos. Tampoco existe ningún mecanismo
biológico aceptado que explique la hipersensibilidad. La investigación en este campo es
difícil porque, además de los efectos directos de los propios campos electromagnéticos,
pueden intervenir muchas otras respuestas subjetivas. Están en curso más estudios
sobre esta cuestión.

Iones en repolarización de membrana. Fisiología de la membrana

REPOLARIZACIÓN:
En las células vivientes existen dos fases vitales, actividad y reposo, que se alternan a
lo largo de toda la vida.
La repolarización representa la vuelta al estado de reposo de la célula; es ésta la fase
en la que se efectúa la producción de energía. Cuanto más se prolonga la fase de
repolarización, más se reposa la célula. Una dieta rica en potasio y magnesio
proporciona los cationes indispensables para la producción de ATP, el combustible de
la célula. De hecho, el potasio y el magnesio son indispensables para la síntesis de
energía suministrando las coenzimas necesarias para la glicolisis y para la fosforilación

83
Jefferson Loor García Biofísica Grupo # 15
oxidativa. Una dieta rica en potasio y magnesio favorece la síntesis de energía y
produce una óptima función de las bombas celulares del sodio y del calcio.

La dieta repolarizadora combate la intoxicación crónica de sal tan frecuente en nuestra


sociedad, ya que el potasio provoca la eliminación de sodio con la orina.

Si un electrodo está situado en la superficie de una célula muscular en reposo y se


introduce otro electrodo capilar, en la célula habrá un potencial negativo de -90 mv
(milivoltios ). El principal factor que determina este potencial es la diferencia entre la
concentración de potasio intracelular (150 mEq/ litro) y la concentración de potasio
extracelular (5 mEq /litro ). Este gradiente de potasio 30 es suficiente para explicar el
potencial de membrana en reposo.

Con el sodio sucede lo contrario, ya que presenta altas concentraciones extracelulares


(144 Meq aprox.) y bajas concentraciones intracelulares (5 mEq aprox.). La célula en
reposo contiene cargas eléctricas negativas en su interior y cargas positivas en el
exterior; cuando la célula se excita (despolarización), a través de los canales de la
célula entra primero el sodio y después el calcio y sale el potasio, de esta manera se
obtiene una inversión de las cargas eléctricas, la superficie externa de la membrana se
vuelve negativa y la superficie interna se vuelve positiva. En la fase de repolarización se
produce la vuelta al estado eléctrico precedente.

En la membrana celular hay proteínas especializadas, llamadas canales del sodio, del
calcio y del potasio a través de las cuales pasan los iones y están también la bombas
del sodio y del calcio que trabajan contra gradiente, debido a la diferencia de
concentraciones de iones, a través de las membranas, consumiendo energía; es
evidente que cuanto más aumentan las concentraciones del sodio y del calcio en la
sangre más aumenta el consumo de energía. La bomba sodio/potasio facilita los
desplazamientos de estos iones a través de la membrana y tiene una gran importancia
porque mantiene altas las concentraciones de potasio y bajas las del sodio dentro la
célula.

Concentraciones altas de potasio dentro de la célula son necesarias para numerosos


procesos: uno es la síntesis proteica en los ribosomas; además, numerosas enzimas de
la glicolisis requieren potasio, por ejemplo la piruvato quinasa. La bomba del sodio
induce el intercambio de 3 iones de sodio que salen de la célula contra 2 iones de
potasio que entran en la célula; dicha bomba está formada por 1318 aminoácidos y está
ubicada a lo largo de la membrana celular; así mismo la bomba del calcio (compuesta
por una sola proteína de 1220 aminoácidos) expulsa iones calcio de la célula contra el
gradiente de concentración, consumiendo energía.

Se ha calculado que las células de los riñones y del cerebro.

84
Jefferson Loor García Biofísica Grupo # 15
FISIOLOGIA DE LA MEMBRANA
La función de la membrana es la de proteger el interior de la célula al líquido
extracelular que tiene una composición diferente y de permitir la entrada de nutrientes,
iones o otros materiales especificos. También se intercomunica con otras células a
través de las hormonas, neurotransmisores, enzimas, anticuerpos, etc.

GRADIENTE ELECTROQUIMICO
El gradiente electroquímico es debido a que el número de iones (partículas cargadas)
del líquido extracelular es muy diferente del delcitosol (*). En el líquido extracelular los
iones más importantes son el Na+ y el Cl-, mientras que en el interior de la célula
predomina el K+ y fosfatos orgánicos aniónicos. Como resultado de esto, existe una
diferencia de potencial eléctrico a través de la membrama (potencial de membrana) que
se mide en voltios. El voltaje en las células vivas es de -20 a -200 mV (milivoltios),
representando el signo negativo que el interior es más negativo que el exterior. En
algunas condiciones especiales, algunas células pueden tener un potencial
de membrana positivo.

PERMEABILIDAD SELECTIVA
La membrana plasmática regula la entrada y salida de materiales, permitiendo la
entrada de unos y restringiendo el paso de otros. Esta propiedad se
llama permeabilidad selectiva

La membrana es permeable cuando permite el paso, más o menos fácil, de una


sustancia. La permeabilidad de la membrana depende de varios factores relacionados
con las propiedades físico-químicas de la sustancia:

Solubilidad en los lípidos: Las sustancias que se disuelven en los lípidos (moléculas
hidrófobas, no polares) penetran con facilidad en la membrana dado que esta está
compuesta en su mayor parte por fosfolípidos.

Tamaño: la mayor parte de las moléculas de gran tamaño no pasan a través de la


membrana. Sólo un pequeño número de moleculas no polares de pequeño tamaño
pueden atravesar la capa de fosfolípidos

Carga: Las moleculas cargadas y los iones no pueden pasar, en condiciones normales,
a través de la membrana. Sin embargo, algunas sustancias cargadas pueden pasar por
los canales proteícos o con la ayuda de una proteína transportadora.

También depende la permeabilidad de una membrana de la naturaleza de las proteínas


de membrana existentes:

Canales: algunas proteínas forman canales llenos de agua por donde pueden pasar
sustancias polares o cargadas eléctricamente que no atraviesan la capa de fosfolípidos.

Transportadoras: otras proteínas se unen a la sustancia de un lado de la membrana y


la llevan del otro lado donde la liberan.
85
Jefferson Loor García Biofísica Grupo # 15
En general, estos canales y proteínas transportadoras muy altamente selectivas
permitiendo el paso a una única sustancia

TERCERA UNIDAD

EL APARATO RESPIRATORIO

Es el encargado de captar oxígeno (O2) y eliminar el dióxido de carbono(CO2)


procedente del anabolismo celular.
El aparato respiratorio generalmente incluye tubos, como los bronquios, las fosas
nasales usadas para cargar aire en lospulmones, donde ocurre el intercambio gaseoso.
El diafragma, como todo músculo, puede contraerse y relajarse. En la inhalación, el
diafragma se contrae y se allana, y la cavidad torácica se amplía. Esta contracción crea
un vacío que succiona el aire hacia los pulmones. En la exhalación, el diafragma se
relaja y el aire es expulsado de los pulmones.
En humanos y otros mamíferos, el sistema respiratorio consiste en vías respiratorias,
pulmones y músculos respiratorios que median en el movimiento del aire tanto dentro
como fuera del cuerpo.
El intercambio de gases es el intercambio de oxígeno y dióxido de carbono, del ser vivo
con su medio. Dentro del sistema alveolar de los pulmones, las moléculas de oxígeno y
dióxido de carbono se intercambian pasivamente, por difusión, entre el entorno gaseoso
y la sangre. Así, el sistema respiratorio facilita la oxigenación con la remoción
contaminante del dióxido de carbono y otros gases que son desechos del metabolismo
y de la circulación.
El sistema respiratorio también ayuda a mantener el balance entre ácidos y bases en el
cuerpo a través de la eficiente eliminación de dióxido de carbono de la sangre.
EN EL SER HUMANO

En humanos, el sistema respiratorio consiste en las vías aéreas, pulmones y músculos


respiratorios, que provocan el movimiento del aire tanto hacia adentro como hacia
afuera del cuerpo. El intercambio de gases es el intercambio de oxígeno y dióxido de
carbono, del cuerpo con su medio. Dentro del sistema alveolar de los pulmones, las
moléculas de oxígeno y dióxido de carbono se intercambian pasivamente, por difusión,
entre el entorno gaseoso y la sangre. Así, el sistema respiratorio facilita la oxigenación
con la remoción contaminante del dióxido de carbono (y otros gases que son desechos
del metabolismo) de la circulación.
El sistema también ayuda a mantener el balance entre ácidos y bases en el cuerpo a
través de la eficiente remoción de dióxido de carbono de la sangre.
El hombre utiliza respiración pulmonar, su aparato respiratorio consta de:

86
Jefferson Loor García Biofísica Grupo # 15
Sistema de intercambio: conductos y los sacos alveolares. El espacio muerto
anatómico, o zona no respiratoria (no hay intercambios gaseosos) del árbol bronquial
incluye las 16 primeras generaciones bronquiales, siendo su volumen de unos 150 ml.
La función del aparato respiratorio consiste en desplazar volúmenes de aire desde la
atmósfera a los pulmones y viceversa. Lo anterior es posible gracias a un proceso
conocido como ventilación.
La ventilación es un proceso cíclico y consta de dos etapas: la inspiración, que es la
entrada de aire a los pulmones, y la espiración, que es la salida. La inspiración es un
fenómeno activo, caracterizado por el aumento del volumen torácico que provoca una
presión intrapulmonar negativa y determina el desplazamiento de aire desde el exterior
hacia los pulmones. La contracción de los músculos inspiratorios principales, diafragma
e intercostales externos, es la responsable de este proceso. Una vez que la presión
intrapulmonar iguala a la atmosférica, la inspiración se detiene y entonces, gracias a la
fuerza elástica de la caja torácica, esta se retrae, generando una presión positiva que
supera a la atmosférica y determinando la salida de aire desde los pulmones.
En condiciones normales la respiración es un proceso pasivo. Los músculos
respiratorios activos son capaces de disminuir aún más el volumen intratorácico y
aumentar la cantidad de aire que se desplaza al exterior, lo que ocurre en la espiración
forzada.
Mientras este ciclo ventilario ocurre, en los sacos alveolares, los gases contenidos en
el aire que participan en el intercambio gaseoso, oxígeno y dióxido de carbono,
difunden a favor de su gradiente de concentración, de lo que resulta la oxigenación y
detoxificación de la sangre.
El volumen de aire que entra y sale del pulmón por minuto, tiene cierta sincronía con
el sistema cardiovascular y el ritmo circadiano (como disminución de la frecuencia de
inhalación/exhalación durante la noche y en estado de vigilia/sueño). Variando entre 6 a
80 litros (dependiendo de la demanda).
Se debe tener cuidado con los peligros que implica la ventilación pulmonar ya que junto
con el aire también entran partículas sólidas que puede obstruir y/o intoxicar al
organismo. Las de mayor tamaño son atrapadas por los vellos y el material mucoso de
la nariz y del tracto respiratorio, que luego son extraídas por el movimiento ciliar hasta
que son tragadas, escupidas o estornudadas. A nivel bronquial, por carecer de cilios, se
emplean macrófagos y fagocitos para la limpieza de partículas.

87
Jefferson Loor García Biofísica Grupo # 15
CONTROL DE LA VENTILACIÓN

La ventilación es controlada de forma muy cuidadosa y permite la regulación del


intercambio gaseoso, es decir que los niveles normales de PaO 2 y PaCO2 arteriales se
mantengan dentro de límites estrechos a pesar de que las demandas de captación de
O2 y eliminación de CO2 varían mucho. El sistema respiratorio se puede considerar un
sistema de control de lazo cerrado ya que posee un grupo de componentes que regula
su propia conducta, estos componentes pueden ser clasificados como: sensores que
reúnen información y con ella alimentan al controlador central, en el encéfalo, que
coordina la información y a su vez envía impulsos hacia los músculos respiratorios
efectores, que causan la ventilación.
Sensores (entradas):

Los sensores protagonistas en el control de la respiración son los quimiorreceptores,


estos responden a los cambios en la composición química de la sangre u otro líquido.
Se han clasificado anatómicamente como centrales y periféricos.
Quimiorreceptores centrales cerca de la superficie ventral del bulbo raquideo están
rodeados por el líquido extracelular del cerebro y responden a los cambios de H+ en
ese líquido. El nivel de CO2 en la sangre regula la ventilación principalmente por su
efecto sobre el pH del LCR.
Quimiorreceptores periféricos se hallan dentro de los cuerpos carotídeos, en la
bifurcación de las arterias carótidas primitivas, y en los cuerpos aórticos por encima y
por debajo del cayado aórtico, estos responden al descenso de la PO 2 arterial y al
aumento de la pCO2 y de los H+, estos son los responsables de cualquier aumento de
la ventilación en el ser humano como respuesta de la hipoxemia arterial.
En los pulmones también existen receptores sensoriales que intervienen en el control
del calibre de las vías aéreas, la secreción bronquial, así como en la liberación de
mediadores por las células cebadas u otras células inflamatorias, esta información llega
a los centros superiores a través de las fibras sensoriales del nervio vago. Los
receptores asociados a la vía vagal son los siguientes:
Receptores de estiramiento pulmonar en el músculo liso de las vías aéreas, producen
impulsos cuando se distiende el pulmón, y su actividad persiste mientras el mismo se
encuentre insuflado.
Receptores de sustancias irritantes entre las células epiteliales de las vías aéreas y son
estimulados por gases nocivos y aire frío.2
Receptores J o yuxtacapilares las terminaciones nerviosas de estas fibras se
encuentran situadas en el parénquima pulmonar en la vecindad de las paredes
alveolares y los capilares pulmonares, son estimulados por el edema y la fibrosis

88
Jefferson Loor García Biofísica Grupo # 15
pulmonar intersticio y dan lugar a la sensación de disnea en estos pacientes, además
se señala que tiene un importante papel en la regulación de la secreción de surfactante
pulmonar.
Existen otros receptores correspondientes al sistema de control respiratorio o que de
alguna manera pueden modificar la frecuencia ventilatoria:
Receptores nasales y de las vías aéreas superiores la nariz, la nasofaringe, la laringe y
la tráquea poseen receptores que responden a la estimulación mecánica y química. Se
les atribuyen diversas respuestas reflejas, como estornudos, tos y broncoconstricción.
Barorreceptores arteriales los barorreceptores de la aorta y los senos carotídeos por el
aumento de la presión arterial puede causar hipoventilación o apnea reflejas. La
disminución de la presión arterial causará hiperventilación.
Dolor y temperatura La estimulación de muchos nervios aferentes puede generar
cambios en la ventilación. El dolor muchas veces causa un período de apnea seguido
de hiperventilación. El calentamiento de la piel puede causar hiperventilación.

Controlador central:

El control de la ventilación es una compleja interconexión de múltiples regiones en el


cerebro que inervan a los diferentes músculos encargados de la ventilación pulmonar.
El proceso automático normal de la respiración se origina en impulsos que provienen
del tallo cerebral, sin embargo, se puede tener cierto control voluntario dentro de
determinados límites ya que los estímulos de la corteza se pueden priorizar respecto a
los del tallo cerebral. 2
Tallo cerebral periodicidad de la inspiración y espiración es controlada por neuronas
ubicadas en la protuberancia y en el bulbo raquídeo, a estas se les denomina
losCentros respiratorios, es un conjunto algo indefinido de neuronas con diversos
componentes.
Centros respiratorios bulbares: la región dorsal del bulbo está asociada con la
inspiración, estas son las responsables del ritmo básico de la ventilación, y la región
ventral con la espiración.
Centro apneústico: se ubica en la parte inferior de la protuberancia. Los impulsos desde
este centro tienen un efecto excitador sobre el área inspiratoria del bulbo.
Centro neumotáxico: parte superior de la protuberancia en este centro se desactiva o
inhibe la inspiración y así se regula el volumen inspiratorio y consecuentemente la
frecuencia respiratoria.
Corteza: en cierta medida la ventilación tiene un carácter voluntario, la hiperventilación
voluntaria puede disminuir a la mitad la PCO2, si bien la alcalosis consiguiente puede
89
Jefferson Loor García Biofísica Grupo # 15
causar tetania con contracción de los músculos de las manos y los pies, sin embargo la
hipoventilación voluntaria es más difícil, el tiempo durante el cual se puede retener la
respiración es limitado, por diversos factores, incluyendo la PCO2 y la PO2 arteriales.
Otras partes del cerebro: sistema límbico y el hipotálamo, pueden afectar el patrón de la
respiración, por ejemplo en alteraciones emocionales.

Efectores (salidas):

Como actuadores del sistema respiratorio están el diafragma, los músculos


intercostales, abdominales y los músculos accesorios. En el contexto del control de la
ventilación es fundamental que estos diversos grupos trabajen conjuntamente en forma
coordinada. Hay evidencias de que en algunos neonatos, en particular los prematuros,
existe falta de coordinación en la actividad de los músculos respiratorios, en especial
durante el sueño. Por ejemplo, los músculos torácicos pueden realizar el trabajo
inspiratorio mientras los músculos abdominales efectúan el trabajo espiratorio.
ADAPTACIÓN A ALTURAS

El organismo siempre conserva una atracción inspirada de oxígeno de 21 % (FiO2)


porque la composición de la tierra es constante pero a medida que va aumentando la
altitud irá bajando la presión atmosférica y por lo tanto la concentración de oxígeno que
inspiramos también disminuirá.
Se da entonces el fenómeno de la hipoxia cuyas consecuencias son:
Inmediatas

Hay taquicardia y aumento del gasto cardíaco, aumento de la resistencia de la arteria


pulmonar, hiperventilación (que si es excesiva puede llevar a una alcalosis metabolica),
cambios psicóticos, el aumento de la frecuencia respiratoria y aumento de la presión
venosa es por aumento del tono enérgico.
Crónicas

Aumento de la masa de glóbulos rojos, aumento del p50, compensación renal de la


alcalosis respiratoria, aumento de la densidad de capilares musculares y aumento del
número de mitocondrias y sus enzimas oxidativas.
INTERCAMBIO DE GASES
El aire entra al cuerpo primero a través de la boca o la nariz, se desplaza rápidamente
por la faringe (garganta) pasa a través de la laringe, entra a la tráquea, que se divide en
bronquios derecho e izquierdo en los pulmones y luego se divide aún más en ramas
cada vez más pequeñas llamadas bronquiolos. Los bronquiolos más pequeños
terminan en pequeños sacos de aire llamados alvéolos, los cuales se inflan durante la
inhalación y se desinflan durante la exhalación.

90
Jefferson Loor García Biofísica Grupo # 15
El intercambio de gases es la provisión de oxigeno de los pulmones al torrente
sanguíneo y la eliminación de dióxido de carbono del torrente sanguíneo a los
pulmones. Esto tiene lugar en los pulmones entre los alvéolos y una red de pequeños
vasos sanguíneos llamados capilares, los cuales están localizados en las paredes de
los alvéolos.

Las paredes de los alvéolos en realidad comparten una membrana con los capilares en
la cual el oxígeno y el dióxido de carbono se pueden mover libremente entre el sistema
respiratorio y el torrente sanguíneo. Las moléculas de oxígeno se adhieren a los
glóbulos rojos, los cuales regresan al corazón. Al mismo tiempo, las moléculas de
dióxido de carbono en los alvéolos son expulsadas del cuerpo con la siguiente
exhalación.

La ventilación pulmonar

La inspiración, o entrada de aire a los pulmones. Este mecanismo es diferente en


distintos grupos de vertebrados:
 En anfibios es una deglución, como si se tragaran el aire.
 En aves por la compresión de los sacos aéreos por los músculos de las alas.
 En mamíferos, el aire entra activamente en los pulmones al dilatarse la caja
torácica.
 La expiración, o salida de aire, se realiza pasivamente.
El intercambio de gases en los pulmones

Se realiza debido a la diferente concentración de gases que hay entre el exterior y el


interior de los alvéolos; por ello, el O2 pasa al interior de los alvéolos y el CO2 pasa al
espacio muerto (conductos respiratorios).
A continuación se produce el intercambio de gases entre el aire alveolar y la sangre.
Cuando la sangre llega a los pulmones tiene un alto contenido en CO 2 y muy escaso en
O2. El O2 pasa por difusión a través de las paredes alveolares y capilares a la sangre.
Allí es transportada por la hemoglobina, localizada en los glóbulos rojos, que la llevará
hasta las células del cuerpo donde por el mismo proceso de difusión pasará al interior
para su posterior uso.

PRESIONES RESPIRATORIA.

La separación del aparato respiratorio del aparato circulatorio, sistema nervioso, tejidos
y sangre sólo se justifica por razones didácticas, y con esta misma justificación
abordaremos la función respiratoria como si fuera una sucesión de fenómenos o etapas
diferentes:

1. Ventilación pulmonar: fenómeno mecánico que asegura el recambio del aire


contenido dentro de los alvéolos.
91
Jefferson Loor García Biofísica Grupo # 15
2. Distribución y relación ventilación/perfusión: renovación proporcional del aire y de
la sangre a cada lado de la membrana de difusión.
3. Difusión o transferencia: intercambio de gases entre aire y sangre a través de la
membrana alveolocapilar.
4. Transporte de O2 y CO2 efectuado por la sangre entre el pulmón y las células.
5. Regulación de la respiración: conjunto de mecanismos de control de la
respiración y coordinación con la circulación, demandas metabólicas, equilibrio
acido-base, fonación, deglución, etc.
6. Hemodinámica de la circulación pulmonar.
7. Funciones del espacio pleural.
8. Mecanismos de defensa mecánico, celular y humoral, que tienen un importante
papel, dado el amplio contacto del pulmón con los contaminantes ambientales a
través de los más de 10.000 litros de aire que se ventilan diariamente. Además,
la entrada al aparato respiratorio está en la faringe y contigua a la boca,
cavidades de gran población microbiana.
9. Filtro de partículas que circulan por la sangre (coágulos, agregados plaquetarios,
trozos de tejidos, etc.), función para la cual tiene la ventaja ventaja de ser el
único órgano, aparte del corazón, por el cual pasa continuamente el total de la
sangre.
10. Actividad metabólica local: los neumocitos tipo II elaboran el surfactante,
sustancia que regula la tensión superficial en la interfase aire/liquido en las
paredes alveolares y, además, inactivan algunas sustancias circulantes.
11. Reservorio de sangre: por la amplitud y distensibilidad de su lecho vascular.
12. Equilibrio ácido base.
13. Balance hidrico : el aire inspirado es saturado de vapor de agua en la nariz y vías
aéreas y , al ser expirado es responsable de un 10-20% del total de la pérdida
de agua del organismo.
14. Balance calórico: por el mismo mecanismo la respiración causa el 5-10% de la
pérdida calórica total del organismo.

La normalidad de estas funciones está íntimamente ligada a la normalidad de su


sustrato morfológico. En el análisis de la función y clínica recurriremos repetidamente a
diferenciar, en este aspecto, tres compartimentos (Figura II) que, si bien son partes
inseparables de un todo, tienen ciertas particularidades que determinan su forma de
funcionar, de enfermar y de manifestar su patología.

92
Jefferson Loor García Biofísica Grupo # 15
Los compartimientos que convencionalmente se reconocen son:

 Vías aéreas: elementos de conducción entre el ambiente y los alvéolos.


 Espacios alveolares: área destinada al intercambio gaseoso que se realiza a
través de su contacto con el endotelio capilar
 Intersticio pulmonar: tejido de sostén que forma una vaina a los bronquios y
vasos intrapulmonares, contiene diversos tipos de células y la red capilar que
envuelve a los sacos alveolares.

A pesar de la separación en funciones y capítulos, en todo


momento debe tenerse presente que el aparato respiratorio es un
todo con múltiples interrelaciones, de manera que el daño de
cualquier eslabón puede constituir un problema de toda la cadena.

Nos referiremos múltiples veces a presiones de gases y líquidos en unidades de mmHg


(milímetros de mercurio) o en cmH2O (centímetros de agua). Dado que en otros textos y
revistas médicas pueden usarse la unidad de kPa (kilopascales) es conveniente tener
presentes las equivalencias entre estas unidades:

1 mmHg = 1,36 cmH2O =0,13 kPa

1KPa = 7,5mmHg =10,2CmmH2O

MECANICA VENTILATORIA

La ventilación es un fenómeno básicamente mecánico que renueva cíclicamente el aire


alveolar alternando la entrada de aire o inspiración y la salida del mismo o espiración.
En relación con este aspecto, el aparato respiratorio puede ser comparado con un
fuelle, en el que conviene diferenciar los siguientes componentes:

 Las vías aéreas, que son tubos de calibre regulable que comunican el ambiente
exterior con la superficie de intercambio.
 El tórax, que actúa como continente protector del pulmón y motor de la
ventilación.
 El pulmón, que es, en esencia, una extensa superficie de intercambio gaseoso
entre aire y sangre.

Las características estructurales y la función mecánica de este fuelle pueden


describirse a través de:

93
Jefferson Loor García Biofísica Grupo # 15
1. Dimensiones del fuelle.
2. Presiones que se generan.
3. Fuerzas que lo mueven.
4. Resistencias que se oponen a la ventilación
5. Flujos resultantes.
6. Rendimiento y eficiencia mecánica.

DIMENSIONES DEL FUELLE: VOLUMENES Y CAPACIDADES

Las dimensiones del fuelle toracopulmonar se miden a través de su contenido aéreo.


Esta medición se realiza usualmente con un espirómetro, cuya forma básica se ilustra
en la Figura 2-1, en el cual el individuo en estudio respira a través de una boquilla
dentro de una campana calibrada y sellada por agua. La maniobra se hace usualmente
sentado o de pies, ya que en decúbito el peso de las visceras empuja al diafragma en
dirección cefálica disminuyendo los volumenes hasta en un30%.

Los desplazamientos de esta campaña, producidos por la entrada y salida de aire, se


transmiten a un elemento inscriptor que traza una curva en un papel que corre a una
velocidad conocida y regulable. En la actualidad la mayoría de los espirómetros son
electrónicos y miden los volúmenes integrándolos a partir de los flujos respiratorios, que
se miden con un neumotacógrafo y entregan los valores calculados por un programa
computacional.

La curva obtenida en un espirómetro de agua durante la respiración espontánea, en


reposo y en maniobras de inspiración y espiración máximas, permite diferenciar varios
niveles y volúmenes (Fig. 2-2).

94
Jefferson Loor García Biofísica Grupo # 15
En primer lugar se diferencian 4 niveles:

a) Nivel de final de espiración normal.


b) Nivel de final de inspiración normal.
c) Nivel de inspiración máxima.
d) Nivel de espiración máxima.

Convencionalmente las cantidades de aire comprendidas entre dos niveles contiguos se


denominan volúmenes, y la suma de dos o más de estos, capacidades. Se distinguen 4
volúmenes:

1. Volumen corriente (VC): cantidad de aire que entra en una inspiración o sale en una
espiración, en las condiciones de actividad que se especifiquen (reposo, ejercicio).

2. Volumen de reserva inspiratoria (VRI): cantidad máxima de aire que se puede


inspirar por sobre el nivel de inspiración espontánea de reposo.

3. Volumen de reserva espiratoria (VRE): máxima cantidad de aire que se puede


expulsar a partir del nivel espiratorio espontáneo normal.

4. Volumen residual (VR): cantidad de aire que queda en el pulmón después de una
espiración forzada máxima. Este volumen no puede medirse con el espirómetro.

Las capacidades son también 4:

1. Capacidad pulmonar total (CPT): cantidad de gas contenido en el pulmón en


inspiración máxima. Corresponde a la suma de los cuatro volúmenes ya descritos.

2. Capacidad vital (CV): cantidad total de aire movilizado entre una inspiración y
espiración máximas. Incluye el volumen corriente y los volúmenes de reserva
inspiratoria y espiratoria.

95
Jefferson Loor García Biofísica Grupo # 15
3. Capacidad inspiratoria (CI): máximo volumen de gas que puede inspirarse a partir de
una espiración normal. Comprende los volúmenes corriente y de reserva inspiratoria.

4. Capacidad residual funcional (CRF): volumen de gas que permanece en el pulmón al


término de la espiración normal; representa la suma del volumen residual y volumen de
reserva espiratoria.

Estas subdivisiones tienen una significación fisiológica que pasaremos a analizar en sus
principales aspectos.

VOLUMEN CORRIENTE

En los adultos, en la respiración espontánea en reposo se inspiran y espiran en cada


ciclo respiratorio entre 400 y 600 ml, cantidad que se repite en forma bastante regular y
se denomina volumen corriente, por ser el que se mueve o corre. Esta cantidad es
aproximadamente sólo una décima parte de lo que el pulmón puede movilizar,
existiendo, por lo tanto, importantes reservas de inspiración y espiración, a las cuales
se recurre cuando aumentan las demandas por ejercicio físico, fonación, risa, llanto,
etc.

FACTORES QUE FAVORECEN O SE OPONEN AL COLAPSO PULMONAR

Los factores que se oponen al colapso pulmonar:

 La sustancia tensioactiva o surfactante.

 La presión negativa intrapleural.

Mientras que los que favorecen el colapso:

 La elasticidad de las estructuras tóracopulmonares.

 La tensión superficial de los líquidos que revisten la superficie alveolar

Para lograr expandir los pulmones venciendo la elasticidad del tórax y los pulmones, los
músculos inspiratorios deben ejercer una fuerza determinada lo que nos lleva al
concepto de trabajo respiratorio

TRABAJO RESPIRATORIO

O Trabajo (W) = Fuerza (F) x Desplazamiento.

De sus estudios de Física deben recordar que trabajo es igual a fuerza por
desplazamiento.

96
Jefferson Loor García Biofísica Grupo # 15
Para hacer que penetre el aire en los pulmones es necesario expandir el tórax, o sea
desplazar las estructuras tóracopulmonares aplicándoles una fuerza, por tanto se
realiza un trabajo, denominado trabajo para respirar o trabajo respiratorio.

El trabajo respiratorio consta de tres fracciones:

El trabajo de distensibilidad o trabajo elástico, que es el realizado para expandir los


pulmones venciendo las fuerzas elásticas de los mismos y del tórax.

El Trabajo de resistencia tisular, que es el necesario para vencer la viscosidad de los


pulmones y las estructuras de la pared torácica.

El trabajo de resistencia de la vía aérea, que es el que se debe realizar para vencer la
resistencia que ofrecen las vías aéreas al paso del aire

VOLÚMENES Y CAPACIDADES PULMONAR

Entre estos volúmenes y capacidades tenemos la Capacidad vital forzada, la que


resulta de registrar una espiración forzada o máxima a partir de una inspiración también
máxima, dicho de otro modo se le pide al paciente que llene al máximo sus pulmones y
luego expulse todo el aire lo más rápido que le sea posible, su valor en volumen es
igual al de la capacidad vital

Además es de interés el Volumen espiratorio forzado en el primer segundo, que es el


volumen de aire que se desplaza durante el primer segundo de la capacidad vital
forzada y normalmente tiene un valor mayor del 80% del volumen.

Tanto la Capacidad vital forzada, como el Volumen espiratorio forzado en el primer


segundo tienen gran utilidad práctica en el diagnóstico, pronóstico y evolución de los
trastornos ventilatorios, los que resumiremos a continuación

VOLUMEN RESIDUAL

En los adultos, en la respiración espontánea en reposo se inspiran y espiran en cada


ciclo respiratorio entre 400 y 600 ml, cantidad que se repite en forma bastante regular y
se denomina volumen corriente, por ser el que se mueve o corre. Esta cantidad es
aproximadamente sólo una décima parte de lo que el pulmón puede movilizar,
existiendo, por lo tanto, importantes reservas de inspiración y espiración, a las cuales
se recurre cuando aumentan las demandas por ejercicio físico, fonación, risa, llanto,
etc.

97
Jefferson Loor García Biofísica Grupo # 15
CAPACIDAD VITAL

Esta capacidad está constituida por la suma del volumen corriente y las reservas
inspiratoria y espiratoria. Representa el máximo de aire que se puede movilizar en una
sola maniobra respiratoria. En 1846, John Hutchinson desarrolló el método de medición
aún vigente y sentó las bases para su aplicación clínica. Por estimar que revelaba la
potencialidad de vida del individuo la denominó capacidad vital,

La capacidad vital se mide directamente en un espirómetro, y los valores encontrados


se expresan directamente en litros o mililitros y como porcentaje de un valor teórico
predeterminado o de referencia, que depende de la talla, edad y sexo del individuo.
Estos valores son promedios que se han calculado a partir de mediciones realizadas en
grupos de sujetos normales no expuestos a riesgos inhalatorios que pudieran alterar su
función ventilatoria. Debido las diferentes características de las poblaciones estudiadas
y los variables criterios de calificación de "normalidad" que se han usado, los valores de
referencia resultantes difieren y no se ha llegado a establecer una tabla de valores de
aplicabilidad universal. En Chile se han utilizado principalmente los valores
determinados por Knudson en población norteamericana, usados en Chile por ser los
mejor elaborados hasta ese momento. Posteriormente estudios nacionales demostraron
algunas diferencias importantes por lo que la Sociedad Chilena de Enfermedades
Respiratorias, tras un análisis de esta información, ha publicado tablas que se
recomienda aplicar a nuestra población

Es importante tener presente que el valor de referencia es un promedio con márgenes


de más/menos 20 a 25%, lo que puede conducir a serios errores de interpretación.
Supongamos el siguiente ejemplo: una persona normal que, de haber sido examinado
cuando estaba sano, hubiera tenido una CV de 120% del valor teórico promedio,
presenta una enfermedad pulmonar que reduce su CV a un 85% del mismo promedio
teórico. Este último valor deberá ser informado como "dentro de los límites normales",
aunque para el paciente significa una pérdida de un tercio de su capacidad vital. Por
esta razón es importante instruir a la persona sana que se hace una espirometría en un
examen de salud o en un examen pre-ocupacional, que guarde siempre sus resultados
, ya que así contará con un valor de referencia personal.

Los valores teóricos se expresan en las condiciones físicas que imperan dentro del
aparato respiratorio, o sea, a 37ºC, a la presión ambiental y saturados de vapor de
agua, condición que se denomina BTPS (bodytemperature, ambientpressure, saturated
= temperatura corporal, presión ambiental y saturado de vapor de agua). Como las
mediciones clínicas se realizan en un espirómetro a una temperatura muy inferior a
37ºC, el volumen de aire espirado se reduce a uno menor que el que ocupaba dentro
del pulmón, por lo que es necesario corregirlo. Para ello el volumen medido a la
temperatura y presión ambientales y saturado de vapor de agua (ATPS:
ambienttemperature and pressure, saturated) se multiplica por un factor de corrección,
que lo convierte a BTPS. Este valor es el que se compara con el valor teórico,
expresándose como porcentaje de éste. Los espirómetros actuales entregan los valores
corregidos a BTPS

La CV depende de la correcta integración entre la generación y la conducción de los


estímulos respiratorios, de la capacidad muscular respiratoria, de la mecánica
98
Jefferson Loor García Biofísica Grupo # 15
esquelética y del estado del pulmón. El nivel de inspiración máxima, límite superior de
la CV, no está determinado por impedimentos mecánicos sino por reflejos
propioceptivos generados en el pulmón distendido, que frenan la contracción muscular.
Esto explica que en el cadáver con el tórax abierto, éste pueda distenderse hasta un
mayor volumen.

Dada la amplia reserva del fuelle, las alteraciones funcionales leves suelen pasar
inadvertidas para el paciente, pero pueden ser captadas en la medición de la CV. Esta
puede disminuir por múltiples mecanismos, que pueden reducirse a dos tipos
fundamentales: los trastornos obstructivos que reducen la CV por aumento del volumen
residual atrapado en el pulmón y los trastornos restrictivos que, como su nombre lo
indica, restringen el volumen del pulmón utilizable, debido a ocupación o colapso de
alvéolos, infiltración del intersticio, ocupación del espacio pleural, restricciones a la
movilidad del tórax, debilidad muscular, etc. Al referirnos a la fisiopatología del aparato
respiratorio analizaremos estos aspectos con mayor detalle.

VOLUMEN RESIDUAL Y CAPACIDAD RESIDUAL FUNCIONAL

El volumen residual (VR) es el aire que queda en el pulmón después de una espiración
forzada máxima, por lo que no se puede medir en la espirometría, debiendo recurrirse a
métodos indirectos de mayor complejidad. Sumado al volumen de reserva espiratoria,
constituye la capacidad residual funcional (CRF), que es la cantidad de gas que se
mantiene en el pulmón al final de la espiración espontánea. Cumple diversas funciones:

 Permite que la composición del aire alveolar oscile muy levemente, ya que los 2
a 3 litros de gas que permanecen en el pulmón diluyen el aire inspirado,
impidiendo cambios bruscos en la composición del aire alveolar. Si el aire
alveolar se recambiara totalmente por aire atmosférico, el CO 2 de la sangre
venosa al llegar al alvéolo se liberaría explosivamente en forma de burbujas y se
producirían cambios bruscos y violentos en el equilibrio ácido base.
 Sirve como reservorio de oxígeno, lo que permite que la sangre siga removiendo
este gas del pulmón en forma continua durante la espiración y en períodos cortos
de apnea.
 Mantiene un volumen de aire en los alveolos que impide su colapso, situación
que exigiría generar grandes presiones para volver a expandirlos La capacidad
residual funcional está determinada por la interacción de las fuerzas elásticas del
pulmón, que tienden al colapso, y las del tórax, que tienden a la expansión. Su
posición de equilibrio corresponde al nivel de final de espiración en reposo.

Para llegar al volumen residual la espiración forzada tiene que vencer la elasticidad
torácica, siendo finalmente limitada por reflejos propioceptivos toracopulmonares y por
el cierre de las pequeñas vías aéreas. Este último fenómeno se debe a que la
disminución del volumen pulmonar reduce la tracción elástica que el parénquima
pulmonar ejerce sobre los bronquíolos, manteniéndolos abiertos. Por el envejecimiento
normal de los elementos elásticos del pulmón, este fenómeno de cierre se acentúa con

99
Jefferson Loor García Biofísica Grupo # 15
la edad, con lo que el VR aumenta, representando una fracción progresivamente mayor
de la capacidad pulmonar total (30% hasta los 35 años y 40% sobre los 50 años).

En cifras absolutas, el VR de un hombre de 20 años, 1,70 m de estatura, con una CPT


de 6 L, es de aproximadamente 1,8 L.

CAPACIDAD INSPIRATORIA

Cuando el volumen residual y la capacidad residual funcional, de compleja medición,


aumentan en forma aguda sin modificar la capacidad pulmonar total, lo hacen a
expensas de la capacidad inspiratoria, medible en la esprometria. Esto permite la
evaluación indirecta fácil de la capacidad residual funcional en el fenómeno de
hiperinflaciondinámica , de gran importancia en la obstrucción bronquial difusa (Capitulo
36)

PRESIONES EN EL APARATO RESPIRATORIO

En la compleja interrelación entre tórax, pulmón y ventilación, intervienen fuerzas y se


generan presiones oscilantes que analizaremos en relación con los fenómenos

mecánicos pertinentes .

100
Jefferson Loor García Biofísica Grupo # 15
Las presiones que encontramos son las siguientes:

a) Presión atmosférica. En fisiología respiratoria convencionalmente se la considera


como punto de referencia de valor cero, expresándose las demás presiones como
diferencias positivas o negativas

b) Presión en la boca o entrada del aparato respiratorio. En situación estática, sin


flujo de aire y con la boca y glotis abiertas, es de cero , o sea, igual a la atmosférica y a
la de las vías aéreas y alvéolos. Cuando hay movimientos respiratorios oscila
levemente por encima o por debajo de la presión atmosférica, según la fase de la
respiración.

c) Presión en las vías aéreas. Es la que impulsa el flujo aéreo , según la dirección de
éste, es decreciente hacia el alvéolo o hacia la boca.

d) Presión alveolar. En condiciones estáticas y con la glotis abierta es igual a la


presión atmosférica, pero, por efecto de los movimientos del tórax, se hace mayor o
menor que la de la boca, generando el flujo a través de las vías aéreas.

e) Presión pleural (Ppl). En la respiración espontánea es habitualmente


subatmosférica o negativa, porque el tamaño de reposo del pulmón es menor que el del
tórax. En la Figura 2-4 se ilustra la situación observada al final de espiración tranquila
(CRF), en que el conjunto tórax-pulmón está en equilibrio.

La posición de reposo del pulmón aislado se encuentra por debajo de la CRF, y la


posición de reposo del tórax por sobre la CRF en mayor grado. Por consiguiente, a este
volumen pulmonar, estando pulmón y torax adosados, el espacio pleural está sometido
a fuerzas opuestas que tienden a ampliarlo y, como este espacio es cerrado, en su
interior se desarrolla una presión negativa . La Ppl puede medirse directamente
insertando una aguja en el espacio pleural, pero en estudios fisiológicos habitualmente

101
Jefferson Loor García Biofísica Grupo # 15
se evalúa en forma indirecta a través de la presión intraesofágica, que la representa
adecuadamente y cuya medición es menos invasiva. Para ello, se introduce un catéter
plástico provisto de un balón de látex en su extremo hasta el tercio inferior del esófago.
Las presiones así registradas representan la presión pleural media.

e) Presiones transmurales: el volumen de órganos o estructuras huecas y


distensibles, como el pulmón y el tórax, es determinado en parte por la diferencia de
presiones en su interior y exterior o presión transmural.Si la presión interior es mas alta
que la exterior el volumen de la estructura aumenta y si es menor ,el volumen se
reduce.

f) Presión transpulmonar (Ptp): es la diferencia entre la presión en la boca y la


presión pleural. En condiciones estáticas determina el grado de distensión del pulmón y
en condiciones dinámicas debe, además, vencer las resistencias opuestas
al movimiento del aire

g) Presión tras-torácica: es la diferencia entre la presión pleural y la atmosférica.

Lo esencial de lo expuesto es que la ventilación es determinada por las


diferencias de presión entre la atmósfera y el alveolo que oscilan por
efecto de la actividad rítmica de los músculos respiratorios en interacción
con la elasticidad del pulmón y torax y las resistencias opuestas al flujo
aéreo

MUSCULOS RESPIRATORIOS:

Desde el punto de vista fisiológico, puede considerarse que la caja torácica y el


abdomen constituyen una unidad funcional. Esta unidad tiene dos componentes rígidos:
la columna vertebral y la pelvis, cuyas formsa no son modificadas por la respiracion . En
cambio, las paredes anterior y laterales se desplazan por acción muscular directa y por
los cambios de presión que ésta genera. En la Tabla 2-1 se indican los músculos
respiratorios más importantes.

TABLA 2-1. ROL DE LOS MUSCULOS


RESPIRATORIOS
INSPIRATORIOS
Utilizados durante respiración Diafragma
tranquila Escalenos
Paraesternales
Accesorios de la inspiración Esternocleidomastoideo
102
Jefferson Loor García Biofísica Grupo # 15
mas profunda Trapecio
Pectorales
Fijadores de la pared torácica Intercostales externos
ESPIRATORIOS
Utilizados en espiración Intercostales internos
forzada, Abdominales

La respiración en reposo es sostenida básicamente por el diafragma, pero, para que su


acción sea eficaz, es necesario que los músculos intercostales externos estabilicen el
tórax impidiendo que éste se hunda cuando se contrae el diafragma, lo que es
especialmente importante en recién nacidos, y que los escalenos eleven eñlesternon u
costillas superiors . Dado que la retracción elastica del pulmón genera pasivamente la
espiración y la expansión elastica del torax facilita la inspiración, el gasto energético de
los músculos respiratorios en reposo representa sólo un 4% del gasto total del
organismo, pudiendo aumenta 15 a 20 veces durante el ejercicio

Durante la espiración tranquila no hay actividad de los músculos espiratorios, ya que


esta fase es un fenómeno elástico pasivo. Sin embargo, el diafragma se mantiene en
contracción decreciente al comienzo de la espiración, evitando que el pulmón se
desinfle bruscamente por efecto de la retracción elástica del pulmón. Si la ventilación
aumenta sobre 20 litros por minuto se agrega la contracción activa de los músculos
espiratorios abdominales. Sobre los 40 litros por minuto, como ocurre durante un
ejercicio físico intenso, se suman los músculos accesorios de la inspiración, y si la
ventilación sobrepasa los 100 litros por minuto, como sucede en la ventilación máxima
voluntaria, se reclutan todos los músculos torácicos y abdominales que tienen alguna
acción respiratoria. Los músculos espiratorios también entran en acción al soplar
forzadamente, toser, cantar, tocar instrumentos de viento, etc.

DIAFRAGMA:

El diafragma es el principal músculo de la respiración y se contrae con una frecuencia


de por lo menos 10 veces por minuto durante toda la vida. Esta actividad continua es
posible debido a que, si bien es un músculo esquelético estriado, tiene características
bioquímicas y enzimáticas que lo asemejan al miocardio: su contenido de mitocondrias
y citocromo-oxidasas, su capacidad de metabolizar lactato y su flujo sanguíneo son
intermedios entre los músculos esqueléticos y el miocardio. Estas cualidades permiten
que el diafragma cumpla su papel de órgano esencial . Este carácter crucial del
diafragma se ve confirmado por el hecho de que en insuficiencias circulatorias graves,
como el shock, son el diafragma, el corazón y el cerebro los órganos que reciben
prácticamente todo el flujo sanguíneo disponible, quedando el resto del organismo con
una mínima irrigación.

El diafragma tiene una morfología única entre los músculos esqueléticos: forma una
estructura en forma de cúpula entre el tórax y el abdomen y sus fibras nacen de un
tendón central dispuesto en forma horizontal a nivel del apéndice xifoides y se dirigen
radial y caudalmente hacia sus inserciones periféricas. Una parte de ellas se inserta en
las 6 costillas inferiores y el esternón (diafragma costal), y la otra, en las primeras

103
Jefferson Loor García Biofísica Grupo # 15
vértebras lumbares (diafragma crural). Está inervado por los nervios frénicos cuyas
raíces se originan desde C3 a C5.

El flujo sanguíneo lo recibe de las arterias mamaria interna, intercostales y frénicas


inferiores, que presentan abundantes anastomosis entre ellas y forman una red
alrededor del tendón central. Esta buena perfusión del diafragma permite que su flujo
sanguíneo pueda aumentar 5 a 6 veces cuando trabaja contra una carga respiratoria
fisiológica o patológicamente aumentada.

Para comprender el efecto inspiratorio de la contracción diafragmática es necesario


tener presente la particular disposición anatómica de este músculo.

Las fibras del diafragma parten del tendón central en forma radiada y, en su primera
porción, forman las cúpulas diafragmáticas dispuestas horizontalmente con su
convexidad hacia el tórax. Hacia la periferia las fibras toman una dirección cráneo-
caudal, adosándose a la cara interna de la caja torácica, para finalmente insertarse en
las costillas inferiores. Se forma así una zona de aposición, que permite que la presión
intraabdominal actúe sobre la parrilla costal inferior. En posición de pies, la zona de
aposición representa 1/3 de la superficie endotorácica del músculo. Estas
características morfológicas determinan que la contracción del diafragma aumente el
tamaño del tórax en todos sus ejes a través de los siguientes mecanismos:

a) El acortamiento de las fibras diafragmáticas produce el aplanamiento de las cúpulas,


que se desplazan hacia el abdomen, aumentando el eje longitudinal del tórax y
subiendo la presión abdominal.

b) El acortamiento en sentido cráneo-caudal de las fibras de la zona de aposición


levanta las costillas y, por la forma en que éstas articulan con la columna vertebral, las
desplaza hacia afuera (movimiento en asa de balde). Para que esta acción ocurra, se
requiere que exista un mecanismo que impida que el tendón central del diafragma
descienda libremente hacia el abdomen. Esto se logra por la resistencia que oponen en
conjunto el contenido del abdomen y la tonicidad de sus músculos. La fijación de la

104
Jefferson Loor García Biofísica Grupo # 15
cúpula diafragmática así lograda provee a las fibras diafragmáticas del punto de apoyo
necesario para levantar las costillas.

c) El aumento de la presión intraabdominal durante la inspiración se transmite, a través


de la zona de aposición, a la caja torácica inferior contribuyendo también a su
expansión. La magnitud de este efecto depende del tamaño del área de aposición y del
grado en que aumenta la presión intraabdominal.

Un factor que afecta importantemente la acción del diafragma es el volumen pulmonar.


A medida que éste aumenta,como sucede en el enfisema, la elongación del músculo al
final de espiración es menor con la consiguiente reducción de eficacia en la inspiración
que sigue. Además, el área de aposición se reduce progresivamente para desaparecer
cuando el pulmón se acerca a su capacidad máxima (CPT). En ella las fibras
diafragmáticas se disponen perpendicularmente a la pared costal, y su contracción
puede traccionar hacia adentro el borde inferior de la caja torácica, en lugar de elevarlo.

La presión generada por el diafragma se estudia en fisiología y fisiopatología


registrando las presiones que se generan al nivel del tórax (presión intraesofágica) y del
abdomen (presión intragástrica) cuando el diafragma se contrae. A medida que
progresa la inspiración la presión pleural se hace más negativa y la abdominal más
positiva y la diferencia de presión que se produce entre el abdomen y el tórax como
consecuencia de la contracción del diafragma se denomina presión transdiafragmática
(Pdi). Durante la respiración tranquila el cambio de presión transdiafragmática es de
aproximadamente de 11 cm H2O .determinado por un aumento de 7 cm H2O en la
presión abdominal y una disminución de 4 cm H2O en la presión torácica.

EVALUACION DE LA FUNCION MUSCULAR RESPIRATORIA

Por la forma de inserción y tipo de efectos que tiene la musculatura respiratoria, resulta
imposible medir directamente las características que se miden fácilmente en un
músculo esquelético: fuerza generada, velocidad de contracción y grado de
acortamiento. Por ello se usan las presiones como índice de fuerza; el flujo aéreo
alcanzado, como índice de velocidad de contracción, y el cambio de volumen pulmonar
como expresión del acortamiento muscular.

Al igual que otros músculos esqueléticos, la fuerza de los músculos respiratorios


depende de su longitud inicial. In vitro, la relación tensión-longitud de estos músculos es
del tipo Frank-Starling e in vivo se puede obtener una curva similar, relacionando las
presiones transdiafragmáticas máximas (tensión) con los volúmenes pulmonares a que
fueron medidas ya que, como se dijo, estos últimos son índices de la longitud de los
músculos respiratorios

En esta curva, se puede apreciar que el diafragma genera la máxima tensión cuando se
encuentra elongado entre un 5 a 10% por encima de su longitud de reposo, o sea, al
final de una espiración forzada. Si en estas condiciones se le aplica un estímulo

105
Jefferson Loor García Biofísica Grupo # 15
máximo, ya sea voluntario o eléctrico, se obtiene la máxima presión que es capaz de
generar. Cuando el diafragma se encuentra acortado, la presión que puede generar
ante un mismo estímulo disminuye en forma considerable: al 75% de su longitud de
reposo, la presión corresponde sólo a un 20% de la máxima.

Esta cacracterística explica que los músculos inspiratorios generen su máxima presión
al nivel de volumen residual, condición en que se encuentran elongados. Por el
contrario, los músculos espiratorios tienen su máxima fuerza en el nivel de capacidad
pulmonar total.

El parámetro de fuerza muscular inspiratoria más usado en clínica es la presión


inspiratoria máxima (PIMax) que se mide realizando , al nivel de CRF, un esfuerzo
inspiratorio voluntario máximo, contra una válvula con la rama inspiratoria ocluida. En
esta maniobra se mide la fuerza de todos los músculos inspiratorios en conjunto y tiene
la ventaja de ser simple y no invasiva. Además de medir el nivel máximo de presión
inspiratoria alcanzada, debe determinarse el nivel que el paciente mantiene un segundo
después de alcanzado el máximo (Presión inspiratoria máxima sostenible).

La fuerza máxima que desarrollan los músculos inspiratorios depende de la edad del
individuo: el valor más alto se alcanza alrededor de los 20 años y decrece a razón de
0,5 cmH2O por año de edad. Las mujeres generan aproximadamente un 75% de las
presiones máximas que generan los hombres. Las cifras normales de PImax para un
sujeto pueden predecirse a partir de su sexo y edad, pero el rango de variación del
valor así calculado es muy amplio por diferencias individuales de contextura general,
estado nutricional y actividad física. En todo caso, se considera como reducido un valor
inferior a 70 cm H2O para los hombres y de 50 cm H2O para las mujeres.

Durante la respiración tranquila existe una importante reserva muscular, ya que


normalmente se utiliza menos del 10% de la presión transdiafragmática máxima
(Pdimax). En condiciones de mayor exigencia ventilatoria, este porcentaje aumenta,
pero mientras no se sobrepase el 40% de la Pdimax, la ventilación se puede mantener
indefinidamente, siempre que la duración de la espiración sea normal (60% de la
duración total del ciclo respiratorio), ya que es en esta fase cuando los músculos
inspiratorios descansan y se recuperan. El uso de presiones superiores al 40% de la
capacidad máxima conduce a fatiga muscular inspiratoria: un individuo normal usando
el 60-70% de su Pdimax no tolera más de 4 a 5 minutos. Por otra parte, la fatiga se
puede producir con porcentajes menores de Pdimax si se alarga el tiempo inspiratorio,
reduciéndose el tiempo de reposo espiratorio.

La musculatura espiratoria tiene un rol menos crítico porque la espiración normal es un


fenómeno pasivo que se produce gracias a la energía elástica acumulada durante la
inspiración. La musculatura espiratoria entra en actividad sólo cuando la ventilación
está muy aumentada, cuando existen obstáculos espiratorios o durante la tos. Las
alteraciones de la musculatura espiratoria revisten especial gravedad en los pacientes
con compromiso muscular o neurológico, en quienes la menor eficacia de la tos facilita
las infecciones respiratorias.

106
Jefferson Loor García Biofísica Grupo # 15
En suma lo básico es que durante la inspiración en reposo los músculos deben
vencer la fuerzas de retracción elásticas y las resistencias friccionales, mientras
que en la espiración lo músculos no intervienen, bastando la retracción elástica
como fuerza impulsora. Sólo en la espiración forzada contra algún obstáculo y
cuando la ventilación excede a 20 L/min se activan los músculos espiratorios.

RESISTENCIAS VENTILATORIAS

Para lograr la movilización del aire, los músculos respiratorios deben vencer dos tipos
de fuerzas que se oponen a ello:

1. La elasticidad de pulmón y tórax que tienden a mantener estas estructuras en su


posición de equilibrio de final de espiración. Este obstáculo, denominado elastancia,
tiene la particularidad de que la energía que se invierte en vencerlo se recupera al dejar
que el cuerpo deformado vuelva por sí mismo a su posición de partida. En el caso del
pulmón, esta se opone a la inspiración pero es propulsora de la espiración en cualquier
nivel de volumen pulmonar. La situación para el tórax es más compleja: en forma
simplificada puede decirse que esta estructura se expande fácilmente cuando el
volumen pulmonar está sobre la CRF, y que se resiste a reducir su volumen bajo este
nivel.

La elasticidad del sistema respiratorio en globo, pulmón y tórax acoplados, es el


balance entre la elasticidad de ambos componentes. El punto de reposo del sistema
corresponde al final de una espiración tranquila (CRF) . En suma: la elastancia del
pulmón es la principal fuerza elástica que se opone a la inspiración normal, mientras
que en la espiración forzada bajo CRF (tos), la elastancia del tórax es la principal fuerza
que deben vencer los músculos espiratorios.

2. Las resistencias friccionales que se deben principalmente al roce del aire en las
vías aéreas y, en menor grado, a la fricción interna de los tejidos del aparato
respiratorio. La energía invertida en vencer estas resistencias no es recuperable.

DETERMINANTES DE LA ELASTICIDAD PULMONAR Y TORACICA

Como se dijo, un cuerpo elástico se caracteriza por recuperar, sin nuevo gasto
energético, su posición o forma original cuando cesa la fuerza externa que lo deformó.
La elasticidad del pulmón es producto de diversos factores:

a) La estructura fibro-elástica del parénquima pulmonar.


b) La tensión superficial en la interfase aire-líquido alveolar.
c) El tejido elástico y conectivo de vasos y bronquios.
d) El contenido de sangre del lecho vascular pulmonar.

Sólo nos detendremos en los dos primeros factores - malla elástica y la tensión
superficial, pero antes veremos los métodos que permiten estudiar la elastancia global y
107
Jefferson Loor García Biofísica Grupo # 15
su resultante, la distensibilidad, con el solo objetivo de explicar mejor los conceptos ya
que su ejecución corresponde al área de la especialización.

MEDICION DE LA ELASTICIDAD Y DISTENSIBILIDAD

Existen varios métodos para estudiar las propiedades elásticas del pulmón, pero solo
consideraremos el ilustrado en la figura 2-9 que permite explicar algunos hechos
clínicos. En ella se muestran trazados de volumen pulmonar y Ptp simultáneos,
obtenidos en un sujeto normal que hace una inspiración máxima y luego espira
escalonadamente, deteniendo la respiración en volúmenes decrecientes. Se registra la
Ptp correspondiente a cada volumen y con estos datos se construye la curva P-V
ilustrada en la Figura 2-10.

La distensibilidad disminuye progresivamente al aumentar el volumen pulmonar y que


para lograr la capacidad pulmonar total se necesitan alrededor de 30 cm/H. . Las curvas
PV de individuos normales varían con la edad, ya que el pulmón se va haciendo más
distensible con el envejecimiento

.La curva también varía por alteraciones patológicas de las propiedades elásticas del
pulmón en estudio (Fig. 2-11):

En el enfisema el pulmón se hace más flácido por la destrucción de tabiques alveolares


elásticos, la curva es más vertical y está desplazada hacia la izquierda. Esto significa
que para un determinado cambio de presión el cambio de volumen producido es mayor
y que las presiones transpulmonares que es necesario desarrollar son bajas. Existe, por
lo tanto, una distensibilidad pulmonar aumentada, que si bien facilita la inspiración,
significa una disminución de la retracción elástica, necesaria para la espiración y para
evitar el colapso de las pequeñas vías aéreas que carecen de cartílago. En cambio, en
108
Jefferson Loor García Biofísica Grupo # 15
la fibrosis pulmonar, en que hay reemplazo del tejido pulmonar elástico por tejido
colágeno rígido, esta curva se hace más horizontal y se desplaza hacia la derecha, lo
que significa que para alcanzar un volumen determinado la magnitud de la presión
transpulmonar que se deberá generar será mucho mayor, o.sea, aumenta el trabajo
respiratorio

Medida en esta forma, la distensibilidad del pulmón aparece menor en niños y personas
pequeñas. Ello no se debe a que sus pulmones sean más rígidos, sino a que un
determinado cambio de volumen puede significar una distensión muy importante para
un pulmón pequeño, mientras que sólo representa una fracción de la distensión
potencial para un pulmón grande. Este factor de distorsión se corrige calculando el
cambio por litro de volumen pulmonar, o sea, dividiendo la distensibilidad absoluta por
la CRF del pulmón. Se obtiene así la distensibilidad específica, que es independiente
del tamaño pulmonar. Su valor, tanto en niños y adultos normales, es de 50 a 60 ml /
cm H2O por cada litro de CRF.

En clínica sólo excepcionalmente es necesario medir la distensibilidad, siendo suficiente


deducir su estado según la enfermedad del paciente y considerar las concrescencias
fisiopatlógicas correspondientes.

Hasta el momento sólo hemos considerado la distensibilidad y retracción elástica del


pulmón, pero los músculos respiratorios también tienen que vencer la elasticidad y la
resistencia friccional de los tejidos del tórax., que representan alrededor de un 40% de
las resistencias totales del aparato respiratorio.La figura 2-12 ilustra la inter-relación de
las resistencia pulmonares y torácicas

Puede apreciarse que la curva P-V del sistema respiratorio (tórax y pulmón en
conjunto) tiene forma de S itálica con su punto de reposo al nivel de capacidad residual
funcional y que, a volúmenes altos, el conjunto tórax-pulmón ejerce una presión positiva
tendiente a disminuir el volumen del sistema y volver a la posición de reposo. Al nivel de
inspiración máxima o capacidad pulmonar total, esta presión es de alrededor de 40 cm
H2O. Por el contrario, en volúmenes inferiores a la CRF el sistema ejerce una presión
negativa que tiende a aumentar el volumen pulmonar hasta volver a la posición de
reposo. Al nivel de volumen residual esta presión es de -40 cm H2O. La medición de la
curva P-V del sistema exige relajación muscular total, por lo cual, en clínica, sólo se usa
109
Jefferson Loor García Biofísica Grupo # 15
en pacientes en ventilación mecánica, durante la cual los músculos del paciente pueden
estar inactivos. En estos pacientes, se puede producir cambios determinados de
presion con el respirador y relacionarlos con el cambio de volumen que se produce.
Este índice es útil para seguir la evolución de enfermedades que aumentan en forma
aguda la rigidez pulmonar.

Del gráfico también puede deducirse que alteraciones que rigidizan el tórax , como la
cifoescoliosis, pueden llegar a ser un factor limitante importante de la función
ventilatoria del sistema respiratorio

Estructura fibroelástica del pulmón

Las fibras elásticas y colágenas del pulmón, aunque se encuentran acopladas,


responden en forma diferente al estiramiento producido por la inspiración. Las fibras
elásticas son elongadas realmente y están expuestas a romperse si el alargamiento es
excesivo; las fibras colágenas, en cambio,se encuentran plegadas o formando redes,
como un tejido de lana, que puede elongarse en globo sin que las fibras individuales lo
hagan. Una vez totalmente estiradas, las fibras colágenas, de mayor firmeza, limitan la
distensión del pulmón. En la Figura 2-13 se esquematiza la acción conjunta de estos
dos elementos.

TENSION SUPERFICIAL

La tensión superficial es un determinante importante de la elasticidad pulmonar, que no


está ligado a elementos estructurales sino que es una fuerza física presente en la
superficie o interfase de contacto líquido-aire. Actúa sobre las moléculas superficiales
del líquido, atrayéndolas entre sí y hacia su centro geométrico, lo que explica por qué
las gotas de agua o de mercurio tienden a la forma esférica.

Cada alvéolo está internamente cubierto de una película de agua, la cual se comporta
como una burbuja que, por acción de la tensión superficial en la interfase líquido-aire,
tiende a achicarse y colapsar. Según la ley de Laplace, la presión necesaria para
impedir el colapso de una burbuja se describe con la siguiente ecuación:

110
Jefferson Loor García Biofísica Grupo # 15
2TS
Presión = -------------
r

De ella se desprende que si aumenta la tensión superficial (TS), que favorece el


colapso, se necesita mayor presión para impedirlo, mientras que si aumenta el radio (r),
que tiene una relación inversa, disminuye la tendencia al colapso. Esto explica que, en
alvéolos bien inflados, se necesite una pequeña presión para impedir el colapso; en
cambio, en los alvéolos de radio reducido, como sucede normalmente en el recién
nacido y en los alvéolos basales del adulto o en algunas condiciones patológicas
(hipoventilación, edema alveolar), la presión positiva intraalveolar o negativa
perialveolar necesaria para distender esos alvéolos y mantenerlos distendidos es
considerablemente mayor (Fig. 2-14).

La tensión superficial del líquido pulmonar es menor que la del agua o la del plasma, lo
que obviamente facilita la distensión del pulmón. Esto se debe a la presencia de una
sustancia tensoactiva o surfactante que se dispone entre las moléculas del líquido en la
superficie alveolar ,disminuyendo la tensión superficial. Al disminuir el radio del alvéolo
estas moléculas se concentran, con lo que baja aun más la tensión superficial. De esta
manera, la presión necesaria para mantener distendidos los alvéolos resulta
relativamente constante dentro de una amplia gama de radios alveolares, con la
consiguiente estabilización alveolar. La acción del surfactante es similar a la del jabón
que se agrega al agua para el juego de hacer pompas o globos con un tubo y agua
jabonosa. El surfactante es producido por los neumocitos tipo II del epitelio alveolar y
sus principales elementos activos son fosfolípidos.

En el nivel corriente de ventilación la tensión superficial representa más del 50% de las
fuerzas elásticas y es aun más importante en las primeras respiraciones del recién
nacido. Cuando falta el surfactante por prematuridad, se produce una grave condición,
llamada distrés respiratorio del recién nacido, con colapso alveolar difuso.

Este efecto de la tensión superficial sobre la curva presión-volumen se ilustra en la


Figura 2-15: la curva A corresponde a un pulmón normal con suractante y distendido
con aire; la curva B es la del mismo pulmón pero lleno con suero, y la C a un pulmón
depletado de surfactante y lleno con aire.
111
Jefferson Loor García Biofísica Grupo # 15
Se puede observar que:

a) Las presiones necesarias para distender el pulmón con aire son muy superiores a las
que se necesitan para hacerlo con suero fisiológico. Esta diferencia se debe a la tensión
superficial, que se desarrolla en la interfase aire-líquido y no en la interfase líquido-
líquido.

b) La presión de colapso de la interfase aire-líquido se reduce considerablemente


cuando existe surfactante en el líquido alveolar.

Experimentalmente se ha observado que para iniciar la distensión de un pulmón


colapsado debe aplicarse cambios de presión considerables antes de obtener un
cambio de volumen notorio. Esto se debe a que se necesita una mayor presión para
abrir vías aéreas y alvéolos que están con sus paredes húmedas en contacto y
adheridas . Una vez sobrepasado un determinado nivel de presión, las paredes se
despegan y se obtienen cambios de volumen proporcionales a las variaciones de la
presión transpulmonar.

A volúmenes pulmonares altos la elasticidad pulmonar se va acercando a su límite, por


lo que se requieren presiones mayores para lograr un mismo cambio de volumen.

RESISTENCIA DE LA VIA AEREA (RVA)

La resistencia que opone la vía aérea al movimiento del aire se debe al roce de éste
con las paredes de los conductos. Se mide a través de la presión necesaria para
obtener un flujo aéreo de 1 litro por segundo. Representa el 80% o más de las
resistencias friccionales que se oponen a los movimientos ventilatorios. El otro 20%
corresponde a la resistencia friccional de los tejidos, que no analizaremos mayormente,
por su menor importancia y dificultades para su medición en clínica. Para medir la RVA
es necesario conocer la diferencia de presión entre alvéolo y boca, y el flujo aéreo
resultante:
112
Jefferson Loor García Biofísica Grupo # 15
Palv - P boca cm H2O
RVA = ------------------ = ------------
Flujo aéreo L/seg

De los tres factores que deben medirse en esta ecuación el único que constituye
problema es la presión alveolar, que sólo puede medirse en forma indirecta. Para ello
se utiliza una cámara hermética o pletismógrafo dentro de la cual se introduce al sujeto,
quien respira el aire exterior a través de un tubo. Los cambios de presión que se
producen en la cámara como consecuencia de los cambios de volumen del tórax son
registrados y son de la misma magnitud pero de sentido inverso alos ocurridos dentro
del alvéolo.

La resistencia que opone un tubo al flujo laminar de un fluido depende de varios


factores, que se ilustran en la ecuación de Poiseuille:

L es el largo del tubo; la viscosidad del gas y r, el radio del tubo. Aun cuando esta
ecuación no se aplica exactamente a un sistema con áreas de flujo turbulento como la
vía aérea, es válida para destacar que el radio es el determinante más importante de la
resistencia por estar elevado a la cuarta potencia : una reducción del radio a la mitad
significa que la resistencia aumenta 16 veces.

La resistencia de la vía aérea durante la respiración tranquila es normalmente inferior a


2 cm H2O/ L /seg.

DISTRIBUCION DE LA RESISTENCIA EN LA VIA AEREA

Estudios experimentales realizados en pulmones aislados han logrado establecer que la


contribución a la resistencia global es muy diferente para distintas zonas de la vía
aérea. En la Tabla 2-2 se resume la distribución en un individuo normal. Si se respira a
través de la nariz la resistencia se duplica.

TABLA 2-2 DISTRIBUCIÓN DE LA RESISTENCIA EN LA VÍA


AÉREA
Órgano Resistencia
Laringe y faringe 0,5
Bronquios mayores de 2 mm de diámetro 0,5
Bronquios menores de 2 mm 0,2
1,2 cm
Total
H2O/L/seg

113
Jefferson Loor García Biofísica Grupo # 15
La escasa participación de los bronquios menores de 2 mm, o vía periférica, en la
resistencia total se debe fundamentalmente a los siguientes hechos:

1. Como se destacó en el capítulo de morfología, cuando un bronquio se divide en dos


el área conjunta de los bronquios hijos es mayor que la del bronquio madre. Esto va
aumentando el área total de sección en forma muy significativa, aunque los bronquios
individuales vayan siendo cada vez más finos. El área de la tráquea es de 2,5 cm2,
mientras que el área conjunta de las vías periféricas llega a 10.000 cm 2, o sea, 4.000
veces más. Esta característica ha hecho homologar la sección total de la vía aérea a
una trompeta con un área muy pequeña cerca de de la boquilla (vías centrales) y una
muy grande en el extremo contrario o pabellón (vías periféricas).

2. Dado que la cantidad de aire que pasa por unidad de tiempo a través de la tráquea
es la misma que fluye por la sección progresivamente mayor de la periferia, la velocidad
del aire va disminuyendo cada vez más para llegar prácticamente a cero en las
unidades terminales, donde las moléculas se mueven por difusión gaseosa y no por
flujo. La menor velocidad significa menor resistencia, la cual disminuye aun más porque
a este nivel el flujo es laminar, lo que opone mucho menos obstáculo al flujo que las
turbulencias asociadas a la alta velocidad del aire en los bronquios de mayor diámetro.

3. Otro factor determinante es la ley física que indica que las resistencias acopladas en
serie se suman en su valor absoluto, mientras que si se acoplan en paralelo se suman
en su valor recíproco, lo que significa una resistencia total menor. Existen sólo 22 a 24
generaciones de bronquios colocados en serie que participan en la resistencia total a
través de la suma de sus valores absolutos, y 200 o más generaciones de bronquios
finos dispuestos en paralelo que participan en la resistencia total como la suma de sus
valores recíprocos. El efecto puede apreciarse a través del siguiente ejemplo, en que se
da un valor arbitrario de 2 a cada una de las resistencias: tráquea, laringe y cada uno
de los bronquios fuentes.

Resistencias en serie:
R. laringe + R. tráquea = R. total

2 + 2 = 4

Resistencia en paralelo:
R. bronquio + R. bronquio = R. total
der. izq.

1/2 + 1/2 = 1

Como se verá más adelante, esta característica significa que fenómenos obstructivos
de la región periférica pesan muy poco en la resistencia total y producen pocos
síntomas, salvo cuando ya son muy pronunciados y extensos. Por esta razón, la

114
Jefferson Loor García Biofísica Grupo # 15
pequeña vía aérea, constituida por ramas menores de 2 mm, ha sido llamada "zona
muda".

RESISTENCIA DE LA VIA AEREA Y VOLUMEN PULMONAR

La resistencia de la vía aérea varía inversamente en relación con el volumen pulmonar,


siguiendo una curva que no es lineal (Fig. 2-16).

A volúmenes pulmonares altos la resistencia es menor, debido a que la tracción del


tejido elástico pulmonar sobre las paredes de la vía aérea es mayor, por lo que
aumenta el calibre bronquial, sucediendo lo inverso a volúmenes pulmonares bajos.
Esta relación inversa explica la acentuación que suele observarse en los fenómenos
obstructivos de la vía aérea durante la espiración o en decúbito,en el cual disminuye el
volumen pulmonar por desplazamiento cefálico del diafragma por presión de las
vísceras abdominales.

RESISTENCIA DURANTE LA RESPIRACION TRANQUILA

Durante la respiración tranquila, la resistencia de la vía aérea es muy baja y la


diferencia observada entre inspiración y espiración es mínima, aun cuando la vía aérea
se encuentra algo más distendida en la inspiración.

RESISTENCIA DURANTE LA RESPIRACION FORZADA

Aun cuando la espiración forzada no es parte de la respiración espontánea normal, es


de uso corriente en pruebas funcionales para evaluar e la resistencia al flujo de las vías
aéreas.

115
Jefferson Loor García Biofísica Grupo # 15
Esto se puede explicar por la reduccion del diametro con aumento de la resistencia de
la vía aérea a medida que el volumen pulmonar se va reduciendo en la espiracion.
Dicho en otra forma, a volúmenes pulmonares bajos el flujo aéreo tiene un límite y
existe un flujo aéreo máximo que no puede ser sobrepasado por más que se aumente
el esfuerzo. La explicación de este fenómeno es compleja y tiene relación con los
cambios de calibre que experimenta la vía aérea durante la espiración forzada. Tanto
los alvéolos como la vía aérea se encuentran sometidos a la presión pleural; la presión
intraalveolar es la resultante de la suma algebraica de la presión pleural y la presión de
retracción elástica del pulmón. En la Figura 2-18 se esquematizan tres situaciones,
todas ellas con el mismo volumen pulmonar.

116
Jefferson Loor García Biofísica Grupo # 15
De la ilustración se desprende que:

a) En condiciones estáticas, sin flujo aéreo y con la glotis abierta, la presión alveolar y
en el interior de la vía aérea es cero, o sea, igual a la atmosférica. La presión de
retracción elástica, que al volumen de este ejemplo es de +5 cm H2O, se equilibra con
la presión pleural de -5, lo que mantiene los alvéolos y las vías aéreas en un grado de
distensión estable.

b) En un a inspiración forzada mantenida , la presión pleural es negativa (-12 cm H2O) y


la presión de retracción elástica es de +5 cm de agua, : la presión intraalveolar
resultante de la suma algebraica es negativa (-7 cm H2O). Esto significa una diferencia
con la presión atmosférica que hace entrar el aire. A pesar de que la presión
intraluminal se desgasta por el roce del aire a medida que penetra por la vía aérea, la

117
Jefferson Loor García Biofísica Grupo # 15
presión pleural es siempre más negativa que la de la vía aérea, por lo cual ésta se
mantiene distendida.

c) En la espiración forzada, la presión intrapleural se hace positiva (+12 cm H2O), y se


suma a la la presión de retracción elástica de +5 cm H2O y la presión alveolar resultante
es positiva, +17 cm H2O. Por el roce del aire que sale, esta presión cae a lo largo de la
vía aérea en proporción a la resistencia encontrada, hasta el punto en que la presión
intrabronquial se iguala a la pleural (punto de igual presión o PIP). Un poco más allá de
este punto la presión intraluminal es menor que la pleural y se produce el colapso de la
vía aérea; con ello cesa el flujo y, por lo tanto, la resistencia desaparece y el segmento
colapsado se reabre. De esta manera se establece una condición oscilatoria que
determina que el flujo alcanza un nivel máximo no sobrepasable en la espiración
forzada. Todo este fenómeno ha sido llamado compresión dinámica

De lo expuesto se deduce que durante la inspiración el esfuerzo desplegado es


determinante importante del flujo inspiratorio . Durante la espiración forzada, en cambio,
el aumento del esfuerzo espiratorio si bien incrementa la presión alveolar que impulsa el
flujo también aumenta la presión pleural que comprime la vía aérea, por lo que la
resistencia espiratoria aumenta. De esta manera, un mayor esfuerzo espiratorio crea su
propia mayor resistencia, fijándose un flujo máximo que es imposible de sobrepasar,
por más esfuerzo voluntario que se haga. Si la relación entre presión transpulmonar y
flujo espiratorio se mide a diversos niveles de volumen pulmonar, se observa que que el
flujo alcanzado dependa del esfuerzo voluntario mientras los volúmenes pulmonares
estén sobre el 70% de la capacidad vital.

En suma, lo fundamental es que los flujos máximos en espiración


forzada dependen del esfuerzo mientras el volumen pulmonar es alto y,
en cambio, con volúmenes pulmonares bajo el 70% de la CV el flujo
máximo es determinado por:

a) La magnitud de la presión de retracción elástica, que es la propulsora


del flujo y es independiente de la voluntad.

b) La resistencia que opone la vía aérea al paso del aire entre el alvéolo
y el sitio donde se produce la compresión dinámica.

CURVA FLUJO-VOLUMEN

La relación entre volumen pulmonar y flujos espiratorios e inspiratorios máximos puede


representarse gráficamente mediante la curva flujo-volumen (Fig. 2-19). Esta se obtiene
registrando en un gráfico de coordenadas el volumen pulmonar y el flujo aéreo durante
una espiración forzada desde CPT hasta VR, y desde allí una inspiración forzada hasta
CPT. Los cambios de volumen pulmonar se inscriben en el eje horizontal, y se expresan
118
Jefferson Loor García Biofísica Grupo # 15
como porcentaje de la CV, mientras que los flujos aéreos inspiratorio y espiratorio se
representan en el eje vertical. Algunos espirometrosmas recientes entregan esta curva,
pero su disponibilidad no es muy amplia por lo que su uso corresponde mas bien a
centros especializados

Se puede observar que la curva espiratoria es aproximadamente triangular y que el


máximo flujo espiratorio se alcanza a volúmenes pulmonares altos (entre 75 y 100% de
la CV). Este flujo espiratorio máximo (FEM) depende del esfuerzo efectuado y de la
resistencia de las vías aérea mayores y, como se verá más adelante, se mide
frecuentemente en clínica en forma simplificada con la denominación de PEF, sigla de
"peakexpiratoryflow". Después de alcanzado este máximo, los flujos espiratorios van
disminuyendo gradualmente a medida que se reduce el volumen pulmonar. Una vez
que se ha sobrepasado un esfuerzo mínimo, los flujos espiratorios máximos medidos al
50 y 25% de la CV (FEM50 y FEM25 ) son, independientes del esfuerzo desarrollado y
sólo dependen de la presión de retracción elástica , de la resistencia de la vía aérea
entre el alvéolo y el punto de igual presión.

La curva inspiratoria semicircular y el flujo inspiratorio máximo se produce cuando el


volumen pulmonar es aproximadamente del 50% de la CV (FIM50. ) Este índice
depende del esfuerzo y de la resistencia de la vía aérea central, especialmente de la
extratorácica que, como veremos, se estrecha durante la inspiración forzada. Esta parte
de la curva flujo-volumen se usa en clínica para el estudio de obstrucciones de la vía
aérea alta, pudiendo diferenciar si es intra o extratorácica.

VOLUMENES RESIDUALES

El resultado final de la interacción entre los volúmenes, las fuerzas y las resistencias
analizados es un flujo aéreo cuyas características interesa describir cualitativa y
cuantitativamente, tanto en el sujeto normal como en los enfermos. Usualmente se
registran los flujos en maniobras forzadas ya que así se determina la máxima
potencialidad ventilatoria del fuelle tóraco-pulmonar. Los índices más usados en clínica
son:

119
Jefferson Loor García Biofísica Grupo # 15
COMPARACIÓN CAPACIDAD VITAL LENTA Y FORZADA

En un individuo normal o con una limitación restrictiva pura sin obstrucción bronquial, la
capacidad vital realizada en forma lenta, a la velocidad espontáneamente elegida por el
sujeto (CV), no difiere significativamente de aquella realizada en forma forzada (CVF),
con la máxima velocidad espiratoria. En cambio, en los pacientes obstructivos, la
introducción de esta exigencia puede producir colapso espiratorio bronquial con
aumento del VR, y por lo tanto reducción importante de la CVF en comparación con la
CV lenta.

VOLUMEN ESPIRATORIO FORZADO DEL PRIMER SEGUNDO (VEF1)

El trazado espirométrico que muestra la curva 2-20 se obtuvo en un sujeto normal que
hizo una inspiración máxima y luego una espiración forzada máxima. El cambio de
volumen pulmonar fue registrado a velocidad rápida.

En este trazado espirométrico se puede medir el volumen de aire espirado en el primer


segundo, denominado volumen espiratorio forzado del primer segundo o VEF1.
Normalmente la espiración forzada total dura 5-6 segundos y durante el primer segundo
se espira aproximadamente un 70-80% de la CV.

Esta medición, de ejecución simple, es de significación fisiológica compleja debido a


que registra los flujos espiratorios máximos que se suceden a medida que el volumen
pulmonar va disminuyendo, con lo que van cambiando tanto los factores que generan el
flujo (presión de retracción elástica) como los que se oponen a él (calibre de las vías
aéreas).

En el 20-30% inicial de esta espiración forzada, el esfuerzo muscular voluntario es un


factor determinante fundamental, ya que a este nivel no se produce compresión
dinámica. A medida que continúa la espiración con reducción del volumen pulmonar, las
vías aéreas se estrechan, haciéndose susceptibles a la compresión dinámica. En esta
etapa queda como generador neto del flujo la presión de retracción elástica, por lo cual,
sobrepasado un esfuerzo voluntario crítico, los dos tercios finales de la espiración se
hacen independientes del esfuerzo y el flujo registrado traduce la interacción entre
elasticidad pulmonar y resistencia de la vía aérea. Debe tenerse presente que un buen
rendimiento en la porción esfuerzo-dependiente puede encubrir una limitación
120
Jefferson Loor García Biofísica Grupo # 15
moderada de los factores mecánicos recién analizados, por lo que la sensibilidad del
VEF1 es limitada para captar obstrucción de bronquios finos que pesan poco en la
resistencia global de la vía aérea.

El VEF1 se mide en litros y se expresa en dos formas: como porcentaje del valor teórico
normal determinado por la edad, talla y sexo, y como porcentaje de la capacidad vital
forzada (CVF) del mismo sujeto. A los 25 años, esta última relación es de 84%
promedio, con un límite inferior normal de 73%. Con la edad disminuye, llegando a 79%
como promedio con un límite inferior de 68% a los 70 años.

Esta doble forma de presentación para un mismo resultado deriva de que, si sólo se
conoce el valor absoluto, no se puede diferenciar si una reducción del VEF 1 se debe a
lentitud del flujo aéreo o a una reducción del volumen de aire disponible para ser
espirado, sin que exista reducción del flujo aéreo. En esta disyuntiva, la comparación
entre VEF1 y CVF permite diferenciar los mecanismos responsables: si el problema es
una disminución del flujo, el VEF1 se reduce proporcionalmente más que la CVF, por lo
que la relación VEF1 / CVF cae bajo el porcentaje normal; si la alteración primaria es
una reducción de volumen pulmonar funcionante, la CVF y el VEF 1 disminuyen en la
misma proporción y la relación VEF1 /CVF se mantiene normal. Unos ejemplos
permitirán comprender mejor estos indicadores, que son de muy amplia aplicación
clínica.

Sujeto 1
CVF = 4L = 78% del teórico
VEF1 = 1,82 L = 46,8% del teórico
VEF/CVF% = 45 % = limitación del flujo aéreo

Sujeto 2
CVF = 2L = 39% del teórico
VEF1 = 1,8 L = 46,8% del teórico
VEF1 /CVF% = 90 % = reducción de volumen con flujo normal

Debe tenerse presente que si el paciente presenta simultáneamente una alteración


obstructiva que reduce el VEF1 y otra restrictiva que reduce la CVF , la relación puede
aparecer como normal.

FLUJO ESPIRATORIO FORZADO ENTRE EL 25 Y 75% DE LA CAPACIDAD VITAL


FORZADA O FLUJO MAXIMO DE MEDIA ESPIRACION

Esta medición se realiza también a partir de la curva espirométrica de espiración


forzada (Fig. 2-20). El flujo espiratorio se mide entre el 25 y el 75% de la CVF, con lo
cual se desecha el primer 25%, que es esfuerzo-dependiente, y el último 25%, que
depende del tiempo que el sujeto sostenga el esfuerzo espiratorio, centrándose la
medición en el 50% central donde los factores determinantes del flujo máximo son las
propiedades mecánicas del pulmón. Este índice funcional es muy sensible a la
obstrucción de la vía aérea, pero sus valores teóricos normales tienen una dispersión
demasiado amplia, por lo que su empleo en clínica es limitado.

121
Jefferson Loor García Biofísica Grupo # 15
VENTILACION MAXIMA VOLUNTARIA (VMV)

Si un adulto joven respira lo más rápida y profundamente que puede, durante 15-30
segundos logra movilizar un volumen que equivale a 120 o más litros de aire por
minuto. Como en reposo se ventilan 6 a 7 litros por minuto, resulta evidente que el
fuelle pulmonar tiene una enorme reserva ventilatoria. Incluso durante un ejercicio
intenso, que exige ventilar 30 a 40 litros por minuto, queda un amplio margen de
reserva ventilatoria. Aunque en ejercicio de gran intensidad puede desarrollarse fatiga
de los músculos inspiratorios, se ha demostrado que el factor limitante más importante
del ejercicio es la capacidad del aparato circulatorio para aumentar el gasto cardíaco.

La medición del máximo potencial ventilatorio del pulmón tiene un carácter global y
representa la resultante de múltiples factores. Por ser el flujo del aire un determinante
fundamental, esta prueba detecta, muy especialmente, la obstrucción bronquial, pero
también se altera en afecciones que comprometen la distensibilidad del pulmón y tórax
y depende en forma importante de la capacidad muscular y de la colaboración del
sujeto. Cuantitativamente se expresa como porcentaje de un valor teórico calculado
sobre la base de la superficie corporal, sexo y edad.

El enfermo con una limitación de tipo restrictivo, pese a tener un volumen pulmonar
utilizable limitado, es capaz de obtener buenos valores de ventilación máxima, debido a
que puede aumentar la frecuencia respiratoria en forma tal que compensa la
disminución del volumen de cada ciclo respiratorio. En cambio, en el paciente
obstructivo no es posible aumentar el flujo y, por lo tanto, el volumen movilizado por
minuto baja considerablemente. En el trazado espirométrico de estos pacientes se
puede observar el fenómeno llamado de "atrapamiento aéreo" o "hiperinflación
dinámica", con elevación del nivel de fin de espiración. Se debe a compresión dinámica
por efecto de las espiraciones forzadas, a insuficiente tiempo para terminar la
espiración por la lentitud del flujo y, posiblemente, a la adopción refleja de un nivel de
distensión pulmonar que aumente el calibre de las vías aéreas.

El uso clínico de esta prueba es hoy muy restringido por su carácter demasiado global,
por depender muy críticamente de la colaboración del paciente y exigir un esfuerzo que
puede resultar desagradable.

FLUJO ESPIRATORIO MAXIMO A ALTO VOLUMEN O PEF( PeakExpiratoryFlow )

Si bien la curva flujo-volumen proporciona el valor de flujo espiratorio máximo a alto


volumen (> 75% CV) (Fig. 2-17), resulta más práctico medirlo con un flujómetro,
instrumento más simple y económico. Aun cuando el PEF necesita bastante
colaboración del sujeto, su reproducibilidad, una vez aprendido, es habitualmente muy
buena. Por medir básicamente el flujo cuando el pulmón está más distendido, su
sensibilidad para detectar obstrucciones leves es baja, pero, por su simplicidad, puede
ser utilizado en forma seriada por el médico en la consulta o sala de hospitalización o
incluso por el paciente en su casa. De acuerdo a los cambios de PEF que se registren ,
se puede detectar precozmente exacerbaciones de la obstrucción y adecuar la
medicación.

122
Jefferson Loor García Biofísica Grupo # 15
FORMAS QUÍMICAS EN QUE SE TRANSPORTA EL CO2.
En los tejidos la sangre arterial entrega parte del oxígeno que transporta y retira CO2
transformándose en sangre venosa. La composición gaseosa de ésta es diferente
según los órganos de donde proviene y su estado metabólico: en el miocardio la
extracción de oxigeno es siempre muy alta y los músculos extraen mucho más oxígeno
y producen mucho más CO2 cuando se contraen que cuando están en reposo. Por esta
razón los gases válidos para la mayoría de las aplicaciones clínicas son los medidos en
sangre venosa mixta obtenida por cateterismo de la arteria pulmonar. Como este
procedimiento es complejo e invasivo en clínica su uso está restringido a pacientes
críticos en Unidades de Tratamiento Intensivo donde se usa para medir la cuantía de
los cortocircuitos y evaluar globalmente la hipoxia tisular.
En reposo los valores oscilan alrededor de 40 mmHg para la PO2, de 70% para la
saturación de Hb y de 14 ml/dl para el contenido. Este remanente forma parte de las
reservas de oxigeno que pueden mantener la vida por unos minutos en un paro
respiratorio.
Salvo que existan cortocircuitos importantes, la desaturación excesiva de la sangre
venosa no se traduce en hipoxemia arterial porque la mayor diferencia de presión de
O2 entre capilar y alveolo incrementa la difusión de este gas desde el alveolo a la
sangre capilar.
El CO2 se produce a nivel las mitocondrias, como producto final del metabolismo
celular. Desde las mitocondrias atraviesa el citoplasma, pasa a la sangre en los
capilares tisulares y es llevado por la sangre al alvéolo, desde donde se elimina a la
atmósfera gracias a la ventilación alveolar.
El CO2 es transportado en la sangre, tanto en
combinaciones químicas como en solución física.
Debido a que tiene la propiedad de hidratarse,
formando ácido carbónico en una reacción
reversible, el transporte de CO2 y su eliminación
son parte fundamental del equilibrio ácido-base.
La cantidad total de CO2 en la sangre arterial es
de aproximadamente 48 volúmenes en 100ml de
sangre.

Transporte en el plasma:
Se realiza en tres formas:
1.- Parte se mantiene disuelta físicamente en el plasma, dependiendo de la presión
parcial de CO2 y de su coeficiente de solubilidad.
2.- Otra parte forma compuestos carbamínicos con las proteínas plasmáticas en una
reacción rápida que no requiere de catalizador:
R-NH2 + CO2 R-NHCOO- + H+
3.- Una pequeña cantidad reacciona con el agua para formar ácido carbónico e
implicarse en el equilibrio ácido-base:
CO2 + H2O H2CO3 H+ + HCO3-

Transporte por el glóbulo rojo:


La mayor parte del CO2 que difunde desde los tejidos hacia los capilares entra al
glóbulo rojo, donde se transporta en las siguientes formas:

123
Jefferson Loor García Biofísica Grupo # 15
1.-Una pequeña fracción permanece disuelta en el líquido dentro del glóbulo
2.-Parte del CO2 se combina con los grupos amino de la hemoglobina para formar
compuestos carbamínicos.
3.-La mayor parte del CO2 que penetra al glóbulo rojo a nivel tisular se hidrata como en
el plasma, pero a mayor velocidad, ya que en el eritrocito existe una alta concentración
de la enzima anhidrasa carbónica que cataliza la reacción. El bicarbonato que se forma
se disocia en H+y HCO3. Los iones H+son captados por la hemoglobina y los aniones
HCO3 salen del glóbulo rojo hacia el plasma, donde la concentración de este ión es
menor, intercambiándose por el anión cloro (efecto Hamburger).
Al entregar O2 la Hb oxigenada se transforma en Hb reducida, que por ser un ácido
débil tiene poder tamponador de H+. Con ello aumenta la capacidad de transporte de
CO2(efecto Haldane). De este modo, la entrega de O2 y la captación de CO2 que tienen
lugar en los capilares sistémicos son dos procesos que se favorecen mutuamente: un
aumento de la presión de CO2 en la sangre capilar, con la consiguiente disminución del
pH, que facilita la entrega de O2 (efecto Bohr), a la par que el aumento de Hb reducida
facilita la captación de CO2 (efecto Haldane).
En los pulmones, la PCO2 alveolar (40 mmHg) es menor que la PCO2 de la sangre
venosa (46 mmHg) y las reacciones antes descritas se desplazan hacia la izquierda
debido a que parte del CO2 difunde desde la sangre al alvéolo. Al mismo tiempo, la Hb
reducida se oxigena, transformándose en un ácido más fuerte, lo que significa liberar
CO2 del glóbulo rojo. Simultáneamente, el bicarbonato del plasma entra al eritrocito
donde forma H2CO3, que se disocia en CO2 y H2O en presencia de la enzima anhidrasa
carbónica. El CO2 formado difunde a través de la membrana del eritrocito al plasma,
atraviesa la membrana alvéolo-capilar y es eliminado con la ventilación.

Unidad respiratoria
La unidad respiratoria está compuesta por bronquiolos
respiratorios, conductos alveolares, los atrios y los
alvéolos. Las paredes alveolares son extremadamente
delgadas, y en su interior existe una red casi sólida de
capilares interconectados. Por tanto, es obvio que los
gases alveolares están muy próximos a la sangre de los
capilares; el intercambio gaseoso entre el aire alveolar y
la sangre pulmonar, se produce a través de las
membranas de todas las porciones terminales de los
pulmones, no meramente en los propios alvéolos. Estas membranas se denominan
colectivamente membrana respiratoria, llamada también membrana pulmonar.

Membrana respiratoria
Está constituida por las siguientes capas
 Una capa de líquido que reviste el alvéolo y que contiene el agente tensioactivo
que disminuye la tensión superficial del líquido alveolar:
 El epitelio alveolar compuesto de células epiteliales finas;
 Una membrana basal epitelial;
 Un espacio intersticial fino entre el epitelio alveolar y la membrana capilar;
 Una membrana basal del capilar que en muchos lugares se fusiona con la
membrana basal epitelial;
 La membrana endotelial capilar.
124
Jefferson Loor García Biofísica Grupo # 15
A pesar de la cantidad de capas presentes, la membrana respiratoria tiene un espesor
de tan solo 0,2 micras en algunos lugares, y es en promedio de 0,6 micras.
El diámetro del capilar es de tan solo micras, por lo que el hematíe debe deformarse, y
su membrana se pone en contacto con la pared del capilar, entonces del Co2 no
precisa atravesar cantidades significativas de plasma cuando difunde. Esto aumenta la
velocidad de la difusión.

Regulación de la actividad del centro respiratorio


El centro respiratorio está compuesto de varios grupos de neuronas localizadas
bilateralmente en el bulbo raquídeo y en la protuberancia. Está dividido en tres grupos
principales de neuronas:
 Grupo respiratorio dorsal, localizado en la porción dorsal del bulbo, que origina
principalmente la inspiración
 Grupo respiratorio ventral, localizado en la parte ventrolateral del bulbo, que
puede originar la espiración o la inspiración, dependiendo de qué neuronas del
grupo se estimulen
 Centro neumotáxico, localizado dorsalmente en la parte superior de la
protuberancia, que ayuda a controlar la frecuencia y el patrón respiratorio.
El grupo respiratorio dorsal de neuronas desempeñan el papel del control de la
respiración.

Regulación de la actividad del centro respiratorio y Vitalometria.


Regulación de la respiración
El centro respiratorio está compuesto de varios grupos de neuronas localizadas
bilateralmente en el bulbo raquídeo y en la protuberancia. Está dividido en tres grupos
principales de neuronas:
 Grupo respiratorio dorsal, localizado en la porción dorsal del bulbo, que origina
principalmente la inspiración
 Grupo respiratorio ventral, localizado en la parte ventrolateral del bulbo, que
puede originar la espiración o la inspiración, dependiendo de qué neuronas del
grupo se estimulen
 Centro neumotáxico, localizado dorsalmente en la parte superior de la
protuberancia, que ayuda a controlar la frecuencia y el patrón respiratorio.
El grupo respiratorio dorsal de neuronas desempeñan el papel del control de la
respiración.

125
Jefferson Loor García Biofísica Grupo # 15
SONIDO, AUDICIÓN Y ONDAS SONORAS.

SONIDO

El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de


ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio
elástico) que esté generando el movimiento vibratorio de un cuerpo.
El sonido humanamente audible consiste en ondas sonoras que se producen cuando
las oscilaciones de la presión del aire, son convertidas en ondas mecánicas en el oído
humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos,
donde el sonido toma la forma de fluctuaciones de presión. En los cuerpos sólidos la
propagación del sonido involucra variaciones del estado tensional del medio.
La propagación del sonido involucra transporte de energía sin transporte de materia, en
forma de ondas mecánicas que se propagan a través de un medio elástico sólido,
líquido o gaseoso. Entre los más comunes se encuentran el aire y el agua. No se
propagan en el vacío, al contrario que las ondas electromagnéticas. Si las vibraciones
se producen en la misma dirección en la que se propaga el sonido, se trata de una onda
longitudinal y si las vibraciones son perpendiculares a la dirección de propagación es
una onda transversal.
La fonética acústica concentra su interés especialmente en los sonidos del habla: cómo
se generan, cómo se perciben, y cómo se pueden describir gráfica y/o
cuantitativamente.

AUDICIÓN.
La audición constituye los procesos psico-fisiológicos que proporcionan al ser humano
la capacidad de oír.

FÍSICA DEL SONIDO


La física del sonido es estudiada por la acústica, que trata tanto de la propagación de
las ondas sonoras en los diferentes tipos de medios continuos como la interacción de
estas ondas sonoras con los cuerpos físicos.

PROPAGACIÓN DEL SONIDO (ONDAS SONORAS)

Ciertas características de los fluidos y de los sólidos influyen en la onda de sonido. Es


por eso que el sonido se propaga en los sólidos y en los líquidos con mayor rapidez que
en los gases. En general cuanto mayor sea la compresibilidad (1/K) del medio tanto
menor es la velocidad del sonido. También la densidad es un factor importante en la
velocidad de propagación, en general a mayor sea la densidad (ρ), a igualdad de todo
lo demás, tanto mayor es la velocidad de la propagación del sonido. La velocidad del
sonido se relaciona con esas magnitudes mediante:

126
Jefferson Loor García Biofísica Grupo # 15
En los gases, la temperatura influye tanto la compresibilidad como la densidad, de tal
manera que el factor de importancia suele ser la temperatura misma.
La propagación del sonido está sujeta a algunos condicionales. Así la transmisión de
sonido requiere la existencia de un medio material donde la vibración de las moléculas
es percibida como una onda sonora. En la propagación en medios compresibles como
el aire, la propagación implica que en algunas zonas las moléculas de aire, al vibrar se
juntan (zonas de compresión) y en otras zonas se alejan (zonas de rarefacción), esta
alteración de distancias entre las moléculas de aire es lo que produce el sonido. En
fluidos altamente incompresibles como los líquidos las distancias se ven muy poco
afectadas pero se manifiesta en forma de ondas de presión. La velocidad de
propagación de las ondas sonoras en un medio depende de la distancia promedio entre
las partículas de dicho medio, por tanto, es en general mayor en los sólidos que en los
líquidos y en estos, a su vez, que en los gases. En el vacío no puede propagarse el
sonido, nótese que por tanto las explosiones realmente no son audibles en el espacio
exterior.
Las ondas sonoras se producen cuando un cuerpo vibra rápidamente. La frecuencia es
el número de vibraciones u oscilaciones completas que efectúan por segundo. Los
sonidos producidos son audibles por un ser humano promedio si la frecuencia de
oscilación está comprendida entre 20 Hz y 20000 Hz. Por encima de esta última
frecuencia se tiene un ultrasonido no audible por los seres humanos, aunque algunos
animales pueden oír ultrasonidos inaudibles por los seres humanos. La intensidad de
un sonido está relacionada con el cuadrado de la amplitud de presión de la onda
sonora. Un sonido grave corresponde a onda sonora con frecuencia baja mientras que
los sonidos agudos se corresponden con frecuencias más altas.

MAGNITUDES FÍSICAS DEL SONIDO

Como todo movimiento ondulatorio, el sonido puede representarse mediante la


Transformada de Fourier como una suma de curvas sinusoides, tonos puros, con un
factor de amplitud, que se pueden caracterizar por las mismas magnitudes y unidades
de medida que a cualquier onda de frecuencia bien definida: Longitud de onda (λ),
frecuencia (f) o inversa del período (T), amplitud (relacionada con el volumen y la
potencia acústica) y fase. Esta descomposición simplifica el estudio de sonidos
complejos ya que permite estudiar cada componente frecuencial independientemente y
combinar los resultados aplicando el principio de superposición, que se cumple porque
la alteración que provoca un tono no modifica significativamente las propiedades del
medio.
La caracterización de un sonido arbitrariamente complejo implica analizar:

 Potencia acústica: El nivel de potencia acústica (PWL PowerWattageLevel) es


la cantidad de energía radiada al medio en forma de ondas por unidad de tiempo
por una fuente determinada. La unidad en que se mide el vatio y su símbolo W.
La potencia acústica depende de la amplitud.

 Espectro de frecuencias: La distribución de dicha energía entre las diversas


ondas componentes.

127
Jefferson Loor García Biofísica Grupo # 15
VELOCIDAD
Lo que conocemos como velocidad es una magnitud física, a partir de la cual se puede
expresar el desplazamiento que realiza un objeto en una unidad determinada
de tiempo.
La velocidad es representada mediante el símbolo V, y la unidad de medida dentro del
Sistema Internacional es el m/s.
Para determinar la velocidad de un objeto deben considerarse dos elementos
fundamentales: por una parte, en qué dirección se realiza dicho desplazamiento, y por
otra parte cuales la rapidez de dicho desplazamiento.
La rapidez también es conocida como celeridad. Así como la velocidad es el resultado
del ritmo o del cambio de posición a través del tiempo o de una unidad de tiempo, por
su parte la aceleración o rapidez es el cambio que se realiza en la velocidad en dicha
unidad de tiempo.
Como decíamos, dentro del Sistema Internacional de unidades, la unidad de medida de
la velocidad es el m/s (metro por segundo); pero también encontramos
al km/h (kilómetro por hora) y al km/s (kilómetro por segundo).
Quien primero logró abordar el estudio del fenómeno físico que permite la velocidad
fue Aristóteles, sin embargo este gran físico de la historia no llegó a definir un concepto
o noción de lo que era velocidad. Sus experimentos y las explicaciones que el físico ha
realizado sobre los mismos, eran sólo descripciones pero que no utilizaba las
matemáticas como una herramienta aplicadas al cálculo de la velocidad.
Por eso, el primer concepto de velocidad se lo atribuye al físico y matemáticos Galileo
Galilei, quien aborda el estudio de la velocidad a partir de la experimentación por el
movimiento de cuerpos situados en un plano que se encontraba inclinado.

ENERGÍA SONORA
La energía sonora (o energía acústica) es la energía que transmiten o transportan
las ondas sonoras. Procede de la energía vibracional del foco sonoro y se propaga a las
partículas del medio que atraviesan en forma de energía cinética (movimiento de las
partículas), y de energía potencial (cambios de presión producidos en dicho medio
opresión sonora). Al irse propagando el sonido a través del medio, la energía se
transmite a la velocidad de la onda, pero una parte de la energía sonora se disipa en
forma deenergía térmica.1 La energía acústica suele tener valores absolutos bajos, y
su unidad de medida es el julio (J). Aunque puede calcularse a partir de otras
magnitudes como la intensidad sonora, también se pueden calcular otras magnitudes
relacionadas,como la densidad o el flujo de energía acústica.
A partir de la definición de intensidad acústica, se puede calcular la energía acústica
que atraviesa una superficie A:

128
Jefferson Loor García Biofísica Grupo # 15
Donde:

es la intensidad acústica, que es función del punto escogido y del tiempo.


el intervalo de tiempo durante el que se pretende medir la energía sonora.

ELEMENTOS DE UNA ONDA

 Cresta: es la parte más elevado de una onda.


 Valle: es la parte más baja de una onda.
 Elongación: es el desplazamiento entre la posición de equilibrio y la posición en
un instante determinado.
 Amplitud: es la máxima elongación, es decir, el desplazamiento desde el punto
de equilibrio hasta la cresta o el valle.
 Longitud de onda (l): es la distancia comprendida entre dos crestas o dos
valles.
 Onda completa: cuando ha pasado por todas las elongaciones positivas y
negativas.
 Período (T): el tiempo transcurrido para que se realice una onda completa.
 Frecuencia (f): Es el número de ondas que se suceden en la unidad de tiempo.

LAS CUALIDADES DEL SONIDO

Un aspecto importante que debemos conocer para sensibilizar nuestros oídos a la


escucha activa es la identificación de las cualidades sonoras.

Podemos distinguir cuatro cualidades:

La altura o tono. Está determinado por la frecuencia de la onda. Medimos esta


característica en ciclos por segundos o Hercios (Hz). Para que podamos percibir los
humanos un sonido, éste debe estar comprendido en la franja de 20 y 20.000 Hz. Por
debajo tenemos los infrasonidos y por encima los ultrasonidos.

La intensidad. Nos permite distinguir si el sonido es fuerte o débil. Está determinado


por la cantidad de energía de la onda. Los sonidos que percibimos deben superar el
129
Jefferson Loor García Biofísica Grupo # 15
umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB). Esta cualidad la medimos
con el sonómetro y los resultados se expresan en decibeles (dB).

La duración. Esta cualidad está relacionada con el tiempo de vibración del objeto. Por
ejemplo, podemos escuchar sonidos largos, cortos, muy cortos, etc..

El timbre. Es la cualidad que permite distinguir la fuente sonora. Cada material vibra de
una forma diferente provocando ondas sonoras complejas que lo identifican. Por
ejemplo, no suena lo mismo un clarinete que un piano aunque interpreten la misma
melodía.

VOZ HUMANA

La voz humana consiste en un sonido emitido por un ser humano usando las cuerdas
vocales para hablar, cantar, reír, llorar, gritar, etc. Los pulmones deben producir un flujo
de aire adecuado para que las cuerdas vocales vibren. Las cuerdas vocales son una
estructura vibradora, que realizan un 'ajuste fino' de tono y timbre. Los articuladores
(tracto vocal) consisten en lengua, paladar, labios, etc. Articulan y filtran el sonido.
Las cuerdas vocales, en combinación con los articulares, son capaces de producir
grandes rangos de sonidos.1 2 3 El tono de la voz se puede modular para
mostrar emociones tales como ira, sorpresa, o felicidad.4 5 Los cantantes usan la voz
(música) humana como un instrumento para crear música.6

LA LUZ Y EL ESPECTRO ELECTROMAGNÉTICO

Se llama luz (del latínlux, lucis) a la parte de la radiación


electromagnética que puede ser percibida por el ojo humano. En
física, el término luz se usa en un sentido más amplio e incluye todo
el campo de la radiación conocido como espectro electromagnético,
mientras que la expresión luz visible señala específicamente la
radiación en el espectro visible.
La óptica es la rama de la física que estudia el comportamiento de la
luz, sus características y sus manifestaciones.
La luz es una radiación que se propaga en forma de ondas. Las
130
Jefferson Loor García Biofísica Grupo # 15
ondas que se pueden propagar en el vacío se llaman ONDAS
ELECTROMAGNÉTICAS. La luz es una radiación electromagnética.

LA LUZ COMO FENÓMENO ONDULATORIO

La luz es una forma de energía radiante, y aunque su precisa naturaleza requiere


complejas teorías físicas, todos los fenómenos relativos a la óptica mineral pueden ser
correctamente explicados considerando exclusivamente su naturaleza ondulatoria, así,
en este programa se considerará que la luz se propaga como consecuencia de una
vibración de partículas.
En la figura siguiente se muestra como a partir de un nivel de reposo se produce una
progresiva vibración de partículas que como consecuencia originan una onda que se
propaga en dirección perpendicular a la de vibración. Por tanto, el resultado de la
vibración de partículas adyacentes es una propagación de la onda resultante.

Para la explicación de las propiedades ópticas de los cristales es importante tener


siempre en cuenta que las direcciones de vibración y de propagación son
perpendiculares. Esto es estrictamente cierto para todos los medios isótropos, pero en
determinadas condiciones de los anisótropos, el ángulo puede ser diferente de los 90
grados, sin embargo, se puede considerar que ambas son siempre perpendiculares
(aceptar esto simplicará en gran medida las explicaciones sin que se afecten la esencia
de los conceptos). Por otra parte, es igualmente importante recordar que la propagación
es un simple resultado de la vibración y por tanto será esta la que condicione a aquella.

A continuación se repasará muy brevemente algunos conceptos relativos a la luz.

Onda

Es el movimiento sinusoidal causado por un grupo de particulas vibrando.

Rayo

Es el camino rectilíneo seguido por la onda (camino recorrido por la luz)

131
Jefferson Loor García Biofísica Grupo # 15
Longitud de onda

Es la distancia entre dos puntos en fase (siendo puntos en fase aquellos que
encuentran vibrando de la misma menera, a igual distancia del nivel de reposo y
moviendose en la misma dirección).

Las ondas de diferente longitud de onda producen, cuando son recogidas por el ojo
humano, sensaciones fisiológicas correspondientes a los diferentes colores.

Estos valores son, aproximadamente:

violeta = 410 milimicras

azul = 480 milimicras

verde = 530 milimicras

amarillo = 580 milimicras

naranja = 620 milimicras

rojo = 710 milimicras

Frecuencia

Es el número de oscilaciones por segundo, siendo un oscilación la parte de onda


comprendida entre dos puntos en fase. La frecuencia regula la velocidad de
propagación.

132
Jefferson Loor García Biofísica Grupo # 15
Velocidad de propagación

Es una característica del medio en que se propaga la luz y es medida por el índice de
refracción (n) que representa le razón entre la velocidad de la luz en el vacio (c) y la del
medio considerado (v).

n=c/v

Por esta razón, el "n" de los minerales es siempre mayor de 1 (varian entre 1,43 y 3,22;
siendo los valores más normales alrededor de 1,6). El índice de refracción del aire es
considerado como 1.

De lo anteriormente expuesto se desprende que la velocidad y el índice de refracción


son valores inversos (a alta velocidad le corresponderá un índice pequeño y viceversa).

En los medios anisótropos, como son la mayoría de los minerales, la velocidad (y por
tanto el índice de refracción) varian con la dirección de vibración de la luz.

Luz natural y luz polarizada plana

La luz natural, la procedente del sol, vibra en cualquier momento en todas las
direcciones del espacio (algo dificil de imaginar), posee pues infinitas direcciones de
vibración y su eje coincide con el rayo. Estas direcciones se pueden representar
vibrando dentro de un plano perpendicular a la dirección de propagación.

La luz polarizada vibra en una sola dirección para cada momento, pero la dirección de
vibración cambia con el tiempo. En la luz polarizada plana (frecuentemente, por
simplicidad, se le llama luz polarizada) la dirección de vibración es única y constante
con el tiempo

133
Jefferson Loor García Biofísica Grupo # 15
ESPECTRO ELECTROMAGNÉTICO

Se denomina espectro electromagnético a la distribución energética del conjunto de las


ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético
o simplemente espectro a la radiación electromagnética que emite (espectro de
emisión) o absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para
identificar la sustancia de manera análoga a una huella dactilar. Los espectros se
pueden observar mediante espectroscopios que, además de permitir ver el espectro,
permiten realizar medidas sobre el mismo, como son la longitud de onda, la frecuencia
y la intensidad de la radiación.

Diagrama del espectro electromagnético, mostrando el tipo, longitud de onda con


ejemplos, frecuencia y temperatura de emisión de cuerpo negro.

El espectro electromagnético se extiende desde la radiación de menor longitud de onda,


como los rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los
rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como
son las ondas de radio. Se cree que el límite para la longitud de onda más pequeña
posible es la longitud de Planck mientras que el límite máximo sería el tamaño del
Universo, aunque formalmente el espectro electromagnético es infinito y continuo.

Rango energético del espectro


El espectro electromagnético cubre longitudes de onda muy variadas. Existen
frecuencias de 30 Hz y menores que son relevantes en el estudio de ciertas nebulosas.1
Por otro lado se conocen frecuencias cercanas a 2,9×10 27 Hz, que han sido detectadas
provenientes de fuentes astrofísicas.

La energía electromagnética en una particular longitud de ondaλ (en el vacío) tiene una
frecuencia f asociada y una energía de fotónE. Por tanto, el espectro electromagnético
puede ser expresado igualmente en cualquiera de esos términos. Se relacionan en las
siguientes ecuaciones:

, o lo que es lo mismo

, o lo que es lo mismo

Donde (velocidad de la luz) y es la constante de Planck,


.

134
Jefferson Loor García Biofísica Grupo # 15
Por lo tanto, las ondas electromagnéticas de alta frecuencia tienen una longitud de onda
corta y mucha energía mientras que las ondas de baja frecuencia tienen grandes
longitudes de onda y poca energía.

Por lo general, las radiaciones electromagnéticas se clasifican basándose en su


longitud de la onda en ondas de radio, microondas, infrarrojos, visible –que percibimos
como luzvisible– ultravioleta, rayos X y rayos gamma.

El comportamiento de las radiaciones electromagnéticas depende de su longitud de


onda. Cuando la radiación electromagnética interactúa con átomos y moléculas
puntuales, su comportamiento también depende de la cantidad de energía por quantum
que lleve. Al igual que las ondas de sonido, la radiación electromagnética puede
dividirse en octavas.3

La espectroscopia puede detectar una región mucho más amplia del espectro
electromagnético que el rango visible de 400 a 700 nm. Un espectrómetro de
laboratorio común y corriente detecta longitudes de onda de 2 a 2500 nm.

Bandas del espectro electromagnético


Para su estudio, el espectro electromagnético se divide en segmentos o bandas,
aunque esta división es inexacta. Existen ondas que tienen una frecuencia, pero varios
usos, por lo que algunas frecuencias pueden quedar en ocasiones incluidas en dos
rangos.

Banda Longitud de onda Frecuencia Energía (J)


(m) (Hz)

Rayos gamma < 10x10−12m > 30,0x1018Hz > 20·10−15 J

Rayos X < 10x10−9m > 30,0x1015Hz > 20·10−18 J

Ultravioleta extremo < 200x10−9m > 1,5x1015Hz > 993·10−21 J

Ultravioleta cercano < 380x10−9m > 7,89x1014Hz > 523·10−21 J

Luz Visible < 780x10−9m > 384x1012Hz > 255·10−21 J

Infrarrojo cercano < 2,5x10−6m > 120x1012Hz > 79·10−21 J

Infrarrojo medio < 50x10−6m > 6,00x1012Hz > 4·10−21 J

Infrarrojo < 1x10−3m > 300x109Hz > 200·10−24 J


lejano/submilimétrico

Microondas < 10−2m > 3x108Hzn. 1 > 2·10−24 J

Ultra Alta Frecuencia - Radio <1m > 300x106Hz > 19.8·10−26 J

135
Jefferson Loor García Biofísica Grupo # 15
Muy Alta Frecuencia - Radio < 10 m > 30x106Hz > 19.8·10−28 J

Onda Corta - Radio < 180 m > 1,7x106Hz > 11.22·10−28


J

Onda Media - Radio < 650 m > 650x103Hz > 42.9·10−29 J

Onda Larga - Radio < 10x103m > 30x103Hz > 19.8·10−30 J

Muy Baja Frecuencia - Radio > 10x103m < 30x103Hz < 19.8·10−30 J

CONCEPTOS RELATIVOS A LA LUZ. COLOR


El color (en griego: χρώμ-α/-ματος [chroma, chrómatos]) es una percepción visual que
se genera en el cerebro de los humanos y otros animales al interpretar las señales
nerviosas que le envían los fotorreceptores en la retina del ojo, que a su vez interpretan
y distinguen las distintas longitudes de onda que captan de la parte visible del espectro
electromagnético (la luz).

Todo cuerpo iluminado absorbe una parte de las ondas electromagnéticas y refleja las
restantes. Las ondas reflejadas son captadas por el ojo e interpretadas en el cerebro
como distintos colores según las longitudes de ondas correspondientes.

El ojo humano sólo percibe las longitudes de onda cuando la iluminación es abundante.
Con poca luz se ve en blanco y negro. En la denominada síntesis aditiva (comúnmente
llamada "superposición de colores luz") el color blanco resulta de la superposición de
todos los colores, mientras que el negro es la ausencia de color. En la síntesis
sustractiva (mezcla de pinturas, tintes, tintas y colorantes naturales para crear colores)
el blanco solo se da bajo la ausencia de pigmentos y utilizando un soporte de ese color
mientras que el negro es resultado de la superposición de los colores cian, magenta y
amarillo.

La luz blanca puede ser descompuesta en todos los colores (espectro) por medio de un
prisma. En la naturaleza esta descomposición da lugar al arco iris.

136
Jefferson Loor García Biofísica Grupo # 15
LA FÍSICA DEL COLOR
El espectro visible por los humanos

Dentro del espectro electromagnético se constituyen todos los posibles niveles de


energía de la luz. Hablar de energía es equivalente a hablar de longitud de onda; por
ello, el espectro electromagnético abarca todas las longitudes de onda que la luz puede
tener. De todo el espectro, la porción que el ser humano es capaz de percibir es muy
pequeña en comparación con todas las existentes. Esta región, denominada espectro

visible, comprende longitudes de onda desde los 380 nm hasta los 780 nm (1 nm = 1
nanómetro = 0,000001 mm). La luz de cada una de estas longitudes de onda es
percibida en el cerebro humano como un color diferente. Por eso, en la descomposición
de la luz blanca en todas sus longitudes de onda, mediante un prisma o por la lluvia en
el arco iris, el cerebro percibe todos los colores.

Por tanto, del Espectro visible, que es la parte del espectro electromagnético de la luz
solar que podemos notar, cada longitud de onda es percibida en el cerebro como un
color diferente.

Newton uso por primera vez la palabra espectro (del latín, "apariencia" o "aparición") en
1671 al describir sus experimentos en óptica. Newton observó que cuando un estrecho
haz de luz solar incide sobre un prisma de vidrio triangular con un ángulo, una parte se
refleja y otra pasa a través del vidrio y se desintegra en diferentes bandas de colores.
También Newton hizo converger esos mismos rayos de color en una segunda lente
para formar nuevamente luz blanca. Demostró que la luz solar tiene todos los colores
del arco iris.

Cuando llueve y luce el sol, cada gota de lluvia se comporta de igual manera que el
prisma de Newton y de la unión de millones de gotas de agua se forma el fenómeno del
arco iris.1

A pesar que el espectro es continuo y por lo tanto no hay cantidades vacías entre uno y
otro color, se puede establecer la siguiente aproximación:

137
Jefferson Loor García Biofísica Grupo # 15
Color Longitud de onda
violeta ~ 380-450 nm
azul ~ 450-495 nm
verde ~ 495-570 nm
amarillo ~ 570–590 nm
naranja ~ 590–620 nm
rojo ~ 620–750 nm

PROPIEDADES DE LA LUZ

El estudio de la visión comienza cuando el hombre trata de explicar el fenómeno de la


visión considerandolo como una facultad anímica que le permite relacionarse con el
mundo exterior.

Para las civilizaciones antiguas la percepción visual requería un "algo" que enlazara
nuestro espíritu con el objeto visto, y así la escuela atomista sostenía que la visión se
producía porque los objetos emiten "imagenes" que desprendiendose de ellos, venían a
nuestra alma a través de los ojos. La escuela pitagórica sostenía, por el contrario, que
la visión se producía por medio de un "fuego invisible" que saliendo de los ojos, a modo
de tentáculo, iba a tocar y explorar los objetos. Hasta trece siglos después, con el árabe
Alhazen (965-1039 d.C.), no hay indicios del menor progreso. Alhazen sienta la idea de
que la luz procede de los objetos o que va del Sol a los objetos y de éstos a los ojos.

Hoy en día las propiedades físicas de la luz, en las que se basa el sistema visual para
recoger información sobre el mundo que nos rodea, son mejor conocidas.

Características físicas de la luz.

La luz es una radiación electromagnética visible para nuestros ojos. Esta radiación la
podemos describir bien considerando un modelo corpuscular, bien considerando un
modelo ondulatorio. En el primer caso podemos considerar que la luz está compuesta
por pequeñas partículas denominadas fotones, cuya masa en reposo es nula y que
representan unidades o cuantos de energía. En el segundo caso, la luz al igual que
cualquier otra onda, puede ser caracterizada en términos de su longitud de onda
(distancia sucesiva entre dos ondas), frecuencia (número de ondas por espacio de
tiempo) y amplitud (diferencia entre los picos máximos y mínimos).

La cantidad de energia de una radiación electromagnética es proporcional a su


frecuencia. Las radiaciónes emitidas a frecuencias altas (longitudes de onda cortas)
poseen la mayor cantidad de energía. Un ejemplo de ello son las radiaciones gamma y
138
Jefferson Loor García Biofísica Grupo # 15
los Rayos X, con longitudes de onda menores de 10 -9(<1 nm). Por el contrario la
radiaciones con frecuencias mas bajas (longitudes de onda mas largas) tales como las
emitidas por los radares y las ondas de radio (con longitudes de onda mayores de 1
mm) poseen menor cantidad de energia.

Nuestro sistema visual sólo es capaz de detectar una pequeña parte del espectro
electromagnético. Así la retina humana sólo puede detectar longitudes de onda
comprendidas entre los 400-700 nm (Figura 2). Como fué demostrado por Isaac Newton
(1642-1726) en la primera mitad del siglo XVIII, la mezcla de las diferentes longitudes
de onda en este rango emitidas por el Sol, corresponde al color que percibimos como
blanco, mientras que cuando la luz posee sólo una determinada longitud de onda la
percibimos como uno de los colores del arcoiris. Es interesante destacar que un color
de los que denomimamos "caliente" como el rojo o naranja, esta formado por
radiaciones de longitud de onda larga, y por tanto posee menor energía que colores que
son considerados "frios" como el azul o el violeta.

Leyes Opticas.

La luz no es más que una radiación electromagnética. En el vacio las radiaciones


electromagnéticas viajan en linea recta y así pueden ser descritas como rayos de luz.
En nuestro medio, los rayos de luz viajan también en linea recta hasta que
interaccionan con los átomos o moléculas de la atmosfera y otros objetos. Estas
interacciones dan lugar a los fenómenos de reflexión, absorción y refracción.

Reflexión. Cuando los rayos de luz llegan a un cuerpo en el cual no pueden continuar
propagandose, salen desviados en otra dirección, es decir, se reflejan. La forma en que
esto ocurre depende del tipo de superficie sobre la que inciden y del angulo que forman
sobre la misma.

Así las superficies pulidas reflejan de una forma regular la mayor parte de las
radiaciones luminosas que les llegan mientras que las superficies rugosas actúan como
si estuvieran formadas por infinidad de pequeñas superficies dispuestas irregularmente
y con distinta orientación, por lo que las direcciones de los rayos reflejados son
distintas. La mayor parte de lo que nosotros vemos es luz que ha sido reflejada por los
objetos situados en nuestro entorno. Por tanto los objetos reciben directamente la luz
del Sol, reflejandola o difundiendola hacia otros objetos que se encuentran en la
sombra.

Absorción. Existen superficies y objetos que absorben la mayor parte de las radiaciones
luminosas que les llegan. Estos objetos se ven de color negro. Otros tipos de
superficies y objetos, absorben sólo unas determinadas gamas de longitudes de onda,
reflejando el resto.

Esto sucede por ejemplo con los pigmentos que se utilizan en las técnicas de pintura.
Por ejemplo un pigmento rojo absorbe longitudes de onda cortas pero refleja un
determinado rango de longitudes de onda larga, cuyo pico se centra alrededor de los
680 nm, por lo que se percibe como rojo. Como veremos más adelante, las células
sensibles a la luz de la retina, los fotorreceptores, contienen pigmentos visuales que
utilizan esta propiedad para generar cambios en su potencial de membrana. Distintos
139
Jefferson Loor García Biofísica Grupo # 15
tipos de pigmentos a nivel de los fotorreceptores dan lugar a la visión en color propia de
muchos animales.

Refracción. El cambio de dirección que sufren los rayos luminosos al pasar de un medio
a otro, donde su velocidad es distinta, da lugar a los fenómenos de refracción. Así si un
haz de rayos luminosos incide sobre la superficie de un cuerpo transparente, parte de
ellos se reflejan mientras que otra parte se refracta, es decir penetran en el cuerpo
transparente experimentando un cambio en su dirección de movimiento. Esto es lo que
sucede cuando la luz atraviesa los medios transparentes del ojo para llegar hasta la
retina.

Sistema visual humano

En el Sistema Visual Humano definimos fotorreceptores como aquella célula o


mecanismo capaz de captar la luz. Los fotorreceptores se localizan en el interior del ojo
y existen dos tipos diferentes: conos y bastones.

Distribución de los fotorreceptores en el ojo

Los conos forman un mosaico hexagonal regular en la fóvea, la mayor densidad de


conos se encuentra en la foveola descendiendo esta densidad según nos alejamos en
la retina periférica. Los bastones se encuentran por la fóvea siguiendo de una manera
más desorganizada el patrón de los conos. Existe una zona donde no existe ningún
fotorreceptor, es el punto ciego.

Pigmentos visuales

Los bastones contienen rodopsina, que es una proteína que presenta una mayor
sensibilidad a las longitudes de onda cercanas a 500nm, es decir, a la luz verde
azulada, por lo tanto es la responsable de la visión escotópica (condiciones de baja
luminosidad).

Cada cono contiene uno de tres tipos de opsinas: La eritropsina que tiene mayor
sensibilidad para las longitudes de onda largas (luz roja), la cloropsina con mayor
sensibilidad para longitudes de onda medias(luz verde) y por último la cianopsina con
mayor sensibilidad para las longitudes de onda pequeñas (luz azul), por ello los conos
son los responsables de la percepción del color y dan lugar a la visión tricromática.

Ultraestructura de las terminaciones sinápticas de los conos y bastones

La información codificada por los fotorreceptores se transmite a través de sus


terminaciones sinápticas llamadas pedículos en el caso de los conos y esférulas en el
caso de los bastones. Ambas están llenas de vesículas sinápticas. En las sinapsis, que
es la región de contacto entre los axómas y las dendritas, existen unas estructuras
densas llamadas Sinapsis en Cintilla. Las células que intervienen en los procesos que
se realizan en esta zona son las células bipolares, las células horizontales, las células
interplexiformes y las ganglionales.

140
Jefferson Loor García Biofísica Grupo # 15
Los pedículos forman una estructura conocida como triada en la que se encuentran tres
procesos: 2 procesos laterales que corresponden a células horizontales y un proceso
central alineado con la sinápsis en cintilla (células bipolares). Además existen otros
tipos de células bipolares que tienen contactos basales con el pedículo. En estas
terminaciones sinápticas hay aproximadamente 30 Sinapsis en Cintillas.

Las esférulas contienen dos sinápsis en cintilla que forman una estructura conocida
como diada compuesta por una estructura lateral (compuesto por las terminaciones
axónicas de las células horizontales) y un elemento central (compuesto por las
dentritasintervaginantes de las células bipolares para los bastones). Por lo general no
existen contactos basales en las esférulas.

Existen también sinápsis de tipo eléctrico en la retina de tipo cono-cono y bastón-cono.

Foto transducción

La foto transducción es el proceso a través del cual la


información captada por las células fotorreceptoras se convierte
en señal eléctrica y luego se manda al cerebro.

Aunque la estructura de los conos y los bastones es diferente,


el mecanismo de transducción en ambos es muy similar.

Adaptación al brillo

El ojo humano puede discriminar un rango total de niveles enorme (10^10 niveles) pero
no a la vez. Aquí es donde aparece el fenómeno de adaptación al brillo que
dependiendo del brillo subjetivo percibido el ojo puede discriminar unos niveles u otros.

ELEMENTOS DE LA FÍSICA NUCLEAR

Es una pequeña región central del átomo donde se encuentran distribuidos los
neutrones y protones, partículas fundamentales del núcleo, que reciben el nombre de
nucleones.

Energía de enlace nuclear

Para explicar la naturaleza de las fuerzas nucleares que mantienen unidas a las
partículas dentro de los núcleos, es necesario analizar sus propiedades. En general, un
núcleo tiene una masa y está cargado eléctricamente. Además, tiene un tamaño que se
puede medir por su radio. Los nucleones se mueven bajo la acción de sus interacciones
mutuas y la intensidad de sus interacciones se puede medir por su energía de enlace o
energía de ligadura nuclear.

ΔE = Δm · c2

141
Jefferson Loor García Biofísica Grupo # 15
Donde le llamado “defecto de masa” (Δm ) es igual a la masa de los nucleones menos
la masa del núcleo.

La energía de enlace nuclear, se define como la energía necesaria para separar los
nucleones de un núcleo, o bien como la energía que se libera cuando se unen los
nucleones para formar el núcleo.

El origen de la energía de ligadura o de enlace nuclear reside en la desaparición de una


parte de la masa de los nucleones que se combinan para formar el núcleo. Esta
diferencia de masa recibe el nombre de defecto másico, y se transforma en energía
cuyo cálculo se puede realizar por la ecuación de Einstein, E=m.c2

Si a la suma de las masas de los nucleones y electrones de un átomo le restamos la


masa medida experimentalmente a través del espectrógrafo de masas, obtenemos el
defecto másico, y podemos calcular la energía total de enlace. La energía de enlace o
de ligadura será equivalente a la energía liberada en la formación de un núcleo.

La u.m.a. se define como la doceava parte de la masa del átomo 6C12y 1


u.m.a.=1'66.10-27Kg, por lo que sustituyendo en la ecuación de Einstein, E=m.c 2, E =
931.5 MeV, es decir, 1 u.m.a. libera 931'5 MeV. Por tanto, la energía liberada (B) en la
formación de un núcleo será:

B = defecto másico × 931 MeV.

Ahora bien, es más interesante calcular la energía de enlace por nucleón, y


representarla frente al número másico A. La energía de enlace por nucleón se obtiene
dividiendo la energía de enlace del núcleo por sus A nucleones, y es la energía
necesaria para extraer del núcleo una de sus partículas constituyentes.

Si bien en los núcleos livianos se observa un aumento abrupto de la energía de enlace


por nucleón frente al número másico A, a partir de A=10, la energía de enlace por
nucleón es prácticamente constante.

142
Jefferson Loor García Biofísica Grupo # 15
El máximo corresponde a núcleos semipesados con A=62 (Fe, Co, Ni), donde las
fuerzas de atracción serán máximas. El decrecimiento de la energía para A>60 se debe
a la repulsión culombiana entre los protones cuyo número va aumentando y reduce por
tanto la estabilidad de los núcleos. En los núcleos ligeros, cada nucleón es atraído por
pocos nucleones, lo que también reduce su estabilidad.

A mayor energía de enlace nuclear más estable será el núcleo.

143
Jefferson Loor García Biofísica Grupo # 15
144
Jefferson Loor García Biofísica Grupo # 15

También podría gustarte