0% encontró este documento útil (0 votos)
69 vistas2 páginas

Flops Computadora

Las operaciones de coma flotante por segundo (FLOPS) miden el rendimiento de una computadora para cálculos científicos. Las computadoras varían ampliamente en su rendimiento FLOPS, desde GFLOPS en computadoras de escritorio hasta cientos de petaFLOPS en supercomputadoras. Aunque las tarjetas de video y consolas de videojuegos reportan altos FLOPS, la mayoría proviene de sus GPU optimizadas para gráficos en lugar de propósitos generales.

Cargado por

armando lanz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
69 vistas2 páginas

Flops Computadora

Las operaciones de coma flotante por segundo (FLOPS) miden el rendimiento de una computadora para cálculos científicos. Las computadoras varían ampliamente en su rendimiento FLOPS, desde GFLOPS en computadoras de escritorio hasta cientos de petaFLOPS en supercomputadoras. Aunque las tarjetas de video y consolas de videojuegos reportan altos FLOPS, la mayoría proviene de sus GPU optimizadas para gráficos en lugar de propósitos generales.

Cargado por

armando lanz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 2

En inform�tica, las operaciones de coma flotante por segundo son una medida del

rendimiento de una computadora, especialmente en c�lculos cient�ficos que requieren


un gran uso de operaciones de coma flotante. Es m�s conocido su acr�nimo, FLOPS
(del ingl�s floating point operations per second). FLOPS, al ser un acr�nimo, no
debe nombrarse en singular como FLOP, ya que la S final alude a second (o segundo)
y no al plural.

Las computadoras exhiben un amplio rango de rendimientos en coma flotante, por lo


que a menudo se usan unidades mayores que el FLOPS. Los prefijos est�ndar del SI
pueden ser usados para este prop�sito, dando como resultado kilo-FLOPS (kFLOPS, 103
FLOPS), mega-FLOPS (MFLOPS, 106 FLOPS), giga-FLOPS (GFLOPS, 109 FLOPS), tera-FLOPS
(TFLOPS, 1012 FLOPS), peta-FLOPS (PFLOPS, 1015 FLOPS), exa-FLOPS (EFLOPS, 1018
FLOPS), zeta-FLOPS (ZFLOPS, 1021 FLOPS), yota-FLOPS (YFLOPS, 1024 FLOPS).

�ndice
1 Rango de rendimiento
2 FLOPS como medida de rendimiento
3 FLOPS, GPU y consolas de videojuegos, entre otros
4 Ver tambi�n
Rango de rendimiento
Una computadora de escritorio, que usa por ejemplo un procesador Pentium 4 o Athlon
64, t�picamente opera a m�s de 3 GHz, provee de un desempe�o computacional del
rango de unos cuantos GFLOPS. A�n algunas consolas de videojuegos del final de los
a�os noventa y principios del 2000, tales como Gamecube y Dreamcast, tuvieron un
rendimiento mayor a un GFLOPS.

La primera supercomputadora, Cray-1 fue puesta en marcha en el Laboratorio Nacional


de Los �lamos en 1976. La Cray-1 era capaz de operar a 80 MFLOPS. En poco m�s de
treinta a�os desde entonces, la velocidad computacional de las supercomputadoras es
m�s de un mill�n de veces mayor.

La supercomputadora m�s r�pida del planeta desde junio de 2018 es Summit, con una
capacidad de 200 petaflops, arrebatando el primer puesto al Sunway TaihuLight, que
cuenta con una capacidad de 93 petaflops. A este le sigue el Tianhe-2, con 34
petaflops.

La computaci�n distribuida usa internet para conectar computadoras personales y


lograr un efecto similar; ha permitido a SETI@Home, el mayor de dichos proyectos,
computar a una velocidad de m�s de 100 TFLOPS. Einstein@Home ha ganado terreno y
actualmente ha logrado una velocidad sostenida de 886,6 TFLOPS convirti�ndola en
una de las supercomputadoras m�s poderosas del mundo. Otros proyectos similares son
DistrRTgen

Archivado el 6 de diciembre de 2008 en la Wayback Machine. y climateprediction.net.


FLOPS como medida de rendimiento
Para que se pueda usar el FLOPS como medida de rendimiento de coma flotante una
referencia est�ndar debe ser establecida para todas las computadoras de inter�s.
Uno de ellos es el est�ndar LINPACK.

Los FLOPS por s� solos no son un muy �til est�ndar para computadoras modernas.
Existen muchos otros factores de rendimiento tales como E/S (entrada-salida),
comunicaci�n interprocesador, coherencia del cach� y jerarqu�a de memoria. Esto
significa que las computadoras en general son s�lo capaces de una fracci�n del pico
te�rico en FLOPS, obtenido adicionando el pico te�rico en FLOPS de cada uno de los
componentes del sistema. A�n cuando se trabaje en problemas grandes y altamente
paralelos, su rendimiento ser� irregular, debido en gran medida a efectos
residuales de la ley de Amdahl. Por tanto, los est�ndares efectivos medir�n
rendimiento tanto de FLOPS actuales (tiempo real) como de FLOPS sostenidos.
Para aplicaciones ordinarias (no cient�ficas) las operaciones sobre enteros
(medidos en MIPS) son mucho m�s comunes. De lo anterior se deduce que medir el
rendimiento en FLOPS no predice con precisi�n la rapidez con la que un procesador
realizar� cualquier tarea. Sin embargo, para muchas aplicaciones cient�ficas, como
el an�lisis de datos, el rendimiento en FLOPS es una medida efectiva.

FLOPS, GPU y consolas de videojuegos, entre otros


Frecuentemente se publican cifras astron�micas en FLOPS para tarjetas de video y
consolas de videojuegos. En comparaci�n, un computador de prop�sito general tendr�
un rendimiento de unos cuantos GFLOPS si se considera �nicamente su CPU.

Sin embargo, estas cifras deben ser tratadas con precauci�n, ya que no son
comparables uno a uno con FLOPS de un computador totalmente programable de
prop�sito general. Estas cifras se basan en el rendimiento total del sistema (CPU +
GPU).

La mayor parte del rendimiento en FLOPS de una consola de videojuegos proviene de


su GPU, que es un procesador de vectores altamente ductilizado o segmentado
(pipelined en ingl�s) optimizado para operaciones gr�ficas, con muy limitada
programabilidad. Esto es posible porque las gr�ficas en 3D son un ejemplo cl�sico
de un problema altamente paralelizable. Esto significa que el problema puede ser
f�cilmente dividido entre diferentes unidades de ejecuci�n y �ductos�, permitiendo
una alta ganancia en velocidad que ser� obtenida de �escalar� el n�mero de
compuertas l�gicas en vez de �nicamente la velocidad de reloj.

También podría gustarte