Périphériques v1.0
Périphériques v1.0
Périphériques v1.0
Réalisé par
Jean-Christophe VAES
Nombre de pages : 53
Date : 05.10.11
Version : 1.0
Sources : wikipedia.org, ybet.be
Page 1/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Sommaire
Page 2/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Présentation des technologies d’impression
Sublimation
Aiguilles Jet d'encre Jet d'encre solide laser
thermique
Encre
résiste à Oui - non Non Oui Oui
l'eau
Qualité
Faible excellente selon le type Excellente
d'impression
Papier
Oui non - Parfois
listing
Papier
Oui - - - -
carbone
Impression en noire
rapide,
Vitesse - de 2 à 40 ppm de 2 à 40 ppm - jusqu'à 100
pages / min.
Page 3/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Impression en couleur
selon le type
Prix à la entre les jet d'encre mais
- Chère Faible
page et laser généralement
chère
Type de
- Haute qualité normal papier spécial Normal
papier
Page 4/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les avancées technologiques sont surtout pour l'impression de photographie: un
dégradé des couleurs parfait en utilisant uniquement les trois couleurs de base,
et pas mélangées comme pour les photos argentiques.
1.2.1 Hewlett Packard
HP a sorti les premières imprimantes jet d’encre. Au départ monochrome, elles
ont évolué vers la couleur. A partir de 1998, les modèles Hewlett Packard
utilisent la technologie RET II pour l’impression de photographies qui insère
jusqu’à 16 gouttes d’encre par point. Le RET III permet jusqu’à 29 gouttes dans
un même pixel. Dans le cas de RET III, les têtes d'impression couleur utilisent
408 injecteurs (136 par couleurs) et 300 pour le noir. Ces modèles injectent
jusque 18.000 bulles par seconde. Ces imprimantes HP utilisent une résolution
de 600 dpi maximum.
Sortie en août 2002, le RET IV est une technologie hybride implantée sur les
derniers modèles HP et spécialisée dans l'impression photo. Elle permet de
remplacer la cartouche noire par une cartouche 3 couleurs (la cartouche couleur
de base reste en fonction). La taille des bulles d'encre augmente de 4 vers 5 pico
litres. Le nombre de buses passe lui de 300 + 3 X 136 (RET III) à 6 X 100, soit
de 3500 couleurs par point à 1,2 millions.
Chez HP, la cartouche inclut l’encre et l’électronique de contrôle de l’impression.
En cas de problèmes d'impression, utilisez d'abord le programme spécifique de
nettoyage des têtes. En dernier recours, changez la cartouche.
Pour un entretien sur une imprimante jet d'encre Hewlett Packard, ouvrez
d'abord le capot pour positionner la tête en position de remplacement de
cartouche (sauf sur quelques anciens modèles qui utilisent un bouton spécifique
comme la deskjet 500). Enlevez la prise électrique. Ceci va permettre de
débloquer le chariot d'impression et de le déplacer à la main. En cas d'arrêt
standard, la tête revient en position d'attente avant d'être bloquée.
Ensuite:
nettoyez la barre de déplacement des têtes d'impression
avec un chiffon ou un papier absorbant genre "essuie-tout"
sans eau ni produits alcoolisé (à sec). Cette barre est
autolubrifiante.
nettoyez le languette en plastique d'alignement des têtes à
l'arrière à l'eau en faisant bien attention de ne pas la
décrocher.
nettoyez les contacts électroniques entre la cartouche et la
tête d'impression à sec.
nettoyer le système d'impression des cartouches d'encres. Soit avec de
l'eau (ne nettoyer que la partie 2), soit plus radical, mais ceci consomme
de l'encre: nettoyer 1 et 2 avec un produit alcoolisé sur un chiffon.
Page 5/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
nettoyez éventuellement la partie qui sert au déplacement du papier: en
cas d'impression sans papier (généralement un blocage du papier pendant
l'impression), l'encre est déposée sur le plastique d'où des traces d'encre
résiduelles sur les impressions suivantes.
nettoyez avec de l'alcool le support des cartouches d'impression
(cartouche d'encre enlevée). Ceci enlève les souillures discontinues sur la
longueur du papier.
En dernier recourt, vous pouvez carrément changer la cartouche (séchée ou
défectueuse).
Les pilotes sont fournis avec la machine pour Windows (éventuellement à
télécharger sur le site du constructeur). En dos, utilisez le pilote deskjet. Certains
logiciels (comme Cubic, une comptabilité sous DOS) nécessitent le pilote laserjet
II.
1.2.2 Epson
Les modèles jet d'encre d'Epson n'intègrent que l'encre dans la cartouche, seule
une petite puce électronique est intégrée dans les modèles actuels pour
empêcher le rechargement, c'est donc l'inverse d'Hewlett Packard. Si HP met
plusieurs gouttes d'encre dans un point, Epson n'en met qu'une et augmente le
nombre de points imprimés, la résolution maximale est de 5760 dpi (sur papier
spécial). Les transitions sont plus nuancées mais oblige à utiliser du papier
adapté, donc cher, pour obtenir une qualité d'impression photo maximale. Avec
la technologie PIEZO d'Epson, l'éjection de l'encre se fait par une décharge
électrique et pas par chauffage.
Pour les problèmes d'impression et
entretien, vous pouvez utiliser la fonction logicielle
de nettoyage des têtes, un bouton spécifique pour
les vieux modèles. Malheureusement, cela ne
fonctionne pas à tous les coups. L'entretien
reprend uniquement le nettoyage à sec de la barre
de déplacement horizontale des têtes,
éventuellement le bas des supports cartouches.
Sans utiliser plusieurs mois une imprimante jet
d'encre de marque Epson, les têtes sèchent. La seule réelle solution (à part peut-
être des cartouches de nettoyages spécifiques) est remplacement de
l'imprimante
Les pilotes sont fournis sous Windows. En Dos, les anciens modèles Epson sont
compatibles avec les imprimantes aiguilles FX80, mais avec une qualité
"aiguilles".
Page 6/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La technologie des cristaux piézoélectriques utilise
la déformation de certains corps par une impulsion
électrique.
1.2.3 Canon
Canon utilise suivant les modèles des cartouches d'encre avec ou sans
l'électronique intégré. Comme pour HP, l'éjection de l'encre se fait par chauffage.
L'entretien est identique aux modèles HP.
C'est la réaction du liquide à la chaleur
qui définit la technologie Jet d'encre
Page 7/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Une imprimante
laser utilise la
même méthode
de
fonctionnement
qu'une
photocopieuse,
l'encre est fixée
temporairement
électrostatiqueme
nt sur le papier,
puis fixée par
chauffage (dans
les 200 degrés).
Les informations
sont d'abord
enregistrées dans
une mémoire
interne avant
d'être transférée
par le faisceau laser (constitué d'une seule source), les données à imprimer sont
transférées sur le tambour (drum) à l'aide d'une glace qui dirige le faisceau sur
l'ensemble de la longueur du drum, gravant les informations à imprimer. Le
tambour est un cylindre de verre ou céramique chez Kyocera Mita, recouvert
d'une couche spéciale, généralement à base de silicium. Le papier passe en
premier sur un cylindre d'ionisation (ioniseur) qui va permettre de coller l'encre
sur le papier temporairement lors du passage contre le tambour. L'image est
transférée sur le tambour (drum) par faisceau laser (1). L'encre sous forme de
poudre (toner) se fixe uniquement à l'emplacement de l'empreinte dessinée par
le rayon laser sur le tambour (2). Le tambour tourne à fait dans le sens des
aiguilles d'une montre entraînant le papier en même temps et transférant l'encre
par la même occasion. Avec le passage au-dessus du coronaire (3) (fils parcouru
par un courant électrique), l'encre est fixée définitivement par chauffage.
L'entretien utilise un aspirateur spécifique qui nettoie les différentes parties
salies par l'encre. L'aspirateur est le même que pour l'entretien des
photocopieuses (pas un aspirateur domestique: la taille de l'encre, trop petite,
passe à travers le sac et grille finalement le moteur). Le coronaire (fils chauffant)
se fait avec un petit pinceau. Nettoyage et entretien d'une imprimante laser.
La majorité des imprimantes laser sont compatibles avec le pilote HP Laserjet III
(sauf quelques anciens modèles Canon et les modèles GDI - Winlaser), sous
Windows comme sous DOS. Depuis, les pilotes sont laserjet IV et laser V, mais
restent compatibles Laserjet III et même Laserjet II. A partir de la version IV, le
pilote utilise une communication bidirectionnelle.
Les modèles couleurs utilisent le même dispositif mais avec quatre blocs: 1
noire et 3 couleurs. Le drum est généralement unique, seul le faisceau laser et
l'encre sont répartis en 4 fois autour du tambour. Ceci explique les dimensions
imposantes de ces imprimantes laser couleur.
Page 8/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
1.4. Les imprimantes laser à LED
Cette technologie n'est pratiquement utilisée que par la marque OKI. La qualité
d'impression est pratiquement identique à celles des laser pour un prix moins
cher. Dans cette méthode, le faisceau laser est remplacé par des LED (1) en
ligne sur toute la longueur du drum, le reste est parfaitement identique. Par
contre, les led perdent leur rendement après un certain nombre d'impressions,
ce qui limite la durée de vie d'une imprimante à LED (30.000 copies et
d'avantage).
Page 10/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
L’entretien d’une imprimante à aiguille est simple :
nettoyage de la barre à l’aide d'un petit essuie sec (éventuellement avec
un produit alcoolisé), pour les applications industrielles, graissage
vérification du câble de déplacement latéral de la tête
démontage de la tête complète pour la faire tremper dans un bain à base
d’alcool.
Les deux dernières sont les réparations les plus courantes.
Généralement, toutes les imprimantes à aiguilles sont compatibles avec le pilote
Epson FX80 (9 aiguilles), éventuellement IBM ProPrinter.
1.9. Postscript
Le langage Postscript est un format de fichier images et textes qui permet de
transférer et d'imprimer directement les données (en théorie) et proposé comme
option sur certains modèles laser. Les différents points ne sont codés sous forme
de position / couleur mais par une notation vectorielle (coordonnée de départ,
angle et longueur d'une ligne par exemple).
Elles sont principalement employées par les ordinateurs de marque Apple (Mac).
Page 11/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Présentation des technologies d’affichage
Page 13/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
numérique dans l'écran. Les câble DVI ou HDMI sont numériques, d'où l'intérêt
de connecter votre LCD via ces câbles.
Dans les écrans plats, on trouve 4 technologies (seules les deux dernières sont
utilisées en TV):
DSTN, aussi appelé à matrice passive pour les anciens ordinateurs
portables
TFT appelé également à matrice active qui permet une meilleure
luminosité et un meilleur contraste. Elle augmente également l'angle de
vision par rapport à l'affichage. C'est la technologie utilisée actuellement
pour les écrans portables et pas les écrans bureautiques les moins chères
(les meilleurs utilisent la suivante).
LCD: permettant de nouveau un meilleur contraste mais également des
dimensions supérieures, cette technologie est utilisée dans les écrans
standards, avec une consommation un peu supérieure
LED: deux technologies sont dérivées du LCD, une troisième (OLED) est
spécifique.
Plasma, utilisant l'illumination d'un gaz soumis à une charge électrique,
pour les grandes dimensions
Page 14/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
2.5. Ecrans LCD
Dans le cas du TFT, les cristaux liquides sont clairement dissociés. Le LCD est
similaire mais intègre les électrodes dans deux plaques de verre dans lesquelles
elles sont complètement noyées. Entre les deux, on dispose un liquide cristallin
similaire aux cristaux liquides ci-dessus mais nettement plus compacts. C'est
également la différence de tension qui va modifier l'alignement de l'ensemble du
liquide mais chaque électrode est gérée par un transistor, ce qui améliore le
temps de réponse. Le gros avantage par rapport à la technologie précédente est
un contraste encore plus élevé (typiquement 1000:1), l'augmentation de l'angle
de vue et ... de la luminosité. C'est la technologie utilisée actuellement pour les
écrans standards et les télévisions de petites tailles.
Pour le reste, le fonctionnement
est identique aux deux précédentes:
Le boîtier intègre une succession de
couches superposées. La première
intègre une dalle lumineuse qui
éclaire uniformément la surface de
l'écran. Il est alimenté par une carte
électronique appelée Inverter (carte
alim-neon en Français). Cette carte
convertit le 12 volts continu en une
tension d'environ 1000 Volts en
alternatif. Outre le convertisseur en
lui-même, un piezo (quartz) assure
la fréquence de l'horloge. C'est
souvent cette carte qui tombe en
panne sur les écrans LCD: l'affichage
devient sombre. Pour vérifier si c'est
bien l'inverter, utilisez une lampe de poche pour éclairer l'écran.
Ensuite, on place sur toute la surface de l'affichage un premier filtre polarisateur
suivi des cristaux liquides (TFT) ou d'un liquide cristallin (LCD), composée de
bâtonnets. En l'absence de charge électrique, les cristaux sont repliés sur eux-
mêmes et empêchent la lumière de passer. Entre ces 2 couches se trouvent un
réseau de transistor (TFT) ou grille d'électrode (LCD) qui contrôle électriquement
la position des cristaux. Une simple impulsion électrique et le bâtonnet se
redresse, permettant le passage de la lumière. Chaque pixel est associé à 3
bâtonnets (1 par couleur), chacun contrôlé par son propre transistor ou
électrodes. La résolution maximale de l'écran est fonction de pixels, soit du
nombre de transistors associés. Pour un LCD 15" avec une résolution de
1024*768, 2.539.296 transistors et cristaux sont utilisés. Ces écrans sont noirs
au repos.
2.6. LED
Trois techniques sont utilisées actuellement:
1. Quasiment identique à celle des LCD, seule la dalle est constituée de LED
2. L'éclairage se fait en insérant des LED sur les coté et non plus à l'arrière:
seul avantage, la diminution de l'épaisseur de l'écran. Par contre, comme
la lumière n'est pas directe, une perte de rendement.
Page 15/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
3. OLED, totalement différente, qui n'utilise ni de dalle, ni de cristaux
liquides. Chaque point reçoit une LED à triple entrée (une par couleur de
base). En jouant sur la tension appliquée sur chaque borne, on allume plus
ou moins chaque couleur.
Ces trois technologies ont l'avantage de consommer moins que les technologies
LCD standards tout en permettant (pour la troisième) des affichages de grande
taille. L'OLED va probablement à court terme remplacer le Plasma, trop coûteux
à produire.
2.7. Le Plasma
Dernière technologie utilisée pour les écrans, le plasma, principalement pour les
très grandes dimensions, notamment télévisions. Le principe utilise un gaz
constitué de 10 % de xénon et 90 % d'Argon qui émet une lumière lorsqu'il est
soumis à une tension électrique. Chaque pixel regroupe trois cellules (une par
couleur de base), elles-mêmes renfermant un plasma de ce gaz ionisé. Chaque
point est illuminé à tour de rôle. Chaque cellule permet 256 niveaux d'éclairage
suivant la tension appliquée mais ne produit que de la lumière invisible dans la
gamme des ultra-violets. Ce sont les luminophores associés à chaque cellule qui
produisent les trois gammes de lumière visible. Le nombre de couleurs possibles
par point est de 2563, soit 16 millions de variantes, la distinction maximum de
l'œil.
Cette technologie n'est principalement utilisée pour les télévisions et écrans à
partir de 35". Par rapport aux LCD, elle est plus chère, consomme plus (même si
la consommation dépend de l'image: pas en noir et importante en blanc), a une
durée de vie plus faible (de 30 à 50.000 heures pour 50 à 60.000 en LCD) et est
sensible aux brûlures de pixels lorsque l'image reste statique. Pourtant, le
contraste est encore plus élevé et la vitesse de réponse est également
supérieure. De toute façon, le LCD est limité à des tailles d'écran inférieures à
50". La différence de choix entre un LCD et un plasma dépend finalement de la
taille de l'affichage.
Les 2 types se distinguent par la taille de l'affichage. Les écrans cathodiques sont
désignés par la dimension du tube. La taille de l'affichage est donc inférieure que
celle annoncée. Le tableau ci-dessus reprend en gros la correspondance des
différences de tailles.
13,3" 15"
14,1" 16"
15,1" 17"
18,1" 20"
20" 23"
Même si la technologie TFT permet un meilleur contraste que les DSTN, les
écrans cathodiques sont généralement supérieurs (mais ça évolue). Ils
permettent également de modifier la résolution sans perte de qualité, les écrans
plats ont une résolution imposée.
Sauf pour les écrans LCD et plasma de haut de gamme, le rendu des couleurs est
également supérieur pour les CRT standards. Ceci explique que les infographistes
utilisent encore souvent ces derniers.
Par contre, un écran LCD a de nombreux avantages comme l'encombrement ou
le design. Une dernière raison d'utiliser ces écrans est liée à leur consommation
plus faible. En 2008, la majorité des constructeurs ont complètement abandonné
les écrans à tubes cathodiques.
Page 18/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
2.10.2. Comparaison des technologies « plats »
On va oublier les TFT et DSTN, plus vraiment d'actualité, pour se concentrer sur
le LCD, les différentes technologies LED et Plasma.
La technologie la plus répandue est le LCD (les deux premières technologies LED
ne sont que des adaptations). Comme avantage, un prix de revient (donc de
vente) plus faible. La première technologie LED qui remplace finalement la dalle
par des LED a l'avantage de consommer moins mais pour un prix de fabrication
(pour l'instant) plus élevé. Cette solution est principalement utilisée pour les
ordinateurs portables de haut de gamme et quelques Netbook. Le principal
défaut de ces deux technologies est lié à la taille maximale de l'affichage (même
si on peut toujours les mettre un à côté de l'autre, technologie utilisée par
Matrox avec des cartes graphiques spéciales).
Pour les grandes surfaces d'affichage (à part les vidéoprojecteurs), l'OLED et le
plasma sont actuellement identiques mais la consommation du deuxième couplé
avec les avancées technologiques des composants LED les rendent quasiment
obsolètes malgré des contrastes plus élevés actuellement. C'est surtout au
niveau des très grandes tailles que le LED prend son envol pour les affichages
publicitaires. Plusieurs fabricants ont déjà arrêté la fabrication des plasmas
Page 19/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Acquisition des images : Appareil photo numérique et scanner
Page 20/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
couleurs différentes. En niveaux de gris (noir et blanc), le nombre de nuances est
généralement divisé par 3 par rapport à celle en couleur.
Les caractéristiques d'un scanner ne se limitent pas qu'à la résolution et au
nombre de bits d'encodage des points: la qualité de l’optique donne souvent des
images de qualités différentes (c'est aussi le cas pour les appareils photo
numériques ci-dessus). La netteté des contours des points influence également la
qualité de l’image. Comme souvent en traitement d'image, à note technique
égale, les scanners des haut et milieux de gamme sont nettement meilleurs que
les prix bon marchés.
Scanner à méthodes d'impression d'imprimeries, l'impression haute qualité avec
une photo scannée en 200 dpi donne un meilleur résultat qu'un scannage de 600
dpi. Si la résolution de l'acquisition est trop haute, des lignes visibles
apparaissent à l'impression avec les imprimantes jet d'encre tous les 1 cm
environ.
3.1.3. Le détramage
A cause du mode d'impression en imprimerie, les magazines, certains journaux
et imprimés donnent des effets de quadrillage à la numérisation. Le tramage est
un traitement logiciel qui consiste à convertir les photos en une série de points
ou de lignes. Ceci fait disparaître (ou au moins l'atténue) cet effet de moiré entre
les points et les pixels qui rend l'image scannée difficilement utilisable. C'est une
option qui n'est pas implantée dans les scanners de bas de gamme et encore
plus rarement dans les modèles d'imprimantes tout en 1. L'efficacité et le temps
du traitement varient en fonction des modèles.
3.1.5. L’OCR
L'OCR, logiciel de reconnaissance de caractères, permet de traiter des textes
numérisés comme des documents éditables par Word, Writter (openOffice), …
Ces logiciels se basent sur une langue de reconnaissance. En cas de difficulté
pour reconnaître un caractère, le logiciel vérifie le mot dans le dictionnaire le plus
proche. Une reconnaissance parfaite à 100 % n'existe pas, même avec des
versions complètes du logiciel qui sont associés à des correcteurs
orthographiques pour améliorer le reconnaissance (les logiciels fournis avec le
scanner sont généralement en version lite). La taille de caractère et la police de
caractère utilisée influencent aussi le niveau de reconnaissance.
Page 22/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
3.2. L’appareil photo numérique
Le fonctionnement est simple et complexe à la fois. Comme dans un équipement
classique, l'image passe par différentes lentilles optiques. Par contre, la réception
de l'image se fait grâce à un CCD (Charged Coupled Device), une cellule photo-
sensible qui transforme la lumière en charges électriques et la transporte.
Ce composant reprend deux parties, la première récupère la charge lumineuse,
souvent par un condensateur dont la charge varie en fonction de la luminosité,
pour les modèles les plus performants une photodiode dont le rendu est meilleur,
et un mécanisme de transfert. Celui-ci va transférer les différentes charges des
points à tour de rôle sui un agencement de ligne et de colonnes.
Quelques modèles utilisent deux rangées de cellules, la première récupère les
informations et la transfère vers la deuxième directement. C'est la deuxième
matrice de CCD qui assure le transfert vers le convertisseur charge - tension
pour reproduire la photo.
Un CCD ne voit que des nuances de gris: charge nulle pour du noir, maximum
pour le blanc. En filtrant suivant les 4 nuances de couleurs (rouge, bleu et deux
nuances de vert), on obtient par exemple: 256 nuances de rouge * 256 nuances
de bleu * 256 nuances de vert soit 16.777.216 couleurs différentes (le vert est
difficile à transposer et utilise 2 matrices de CCD).
Page 23/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
extrapolation des points, permettant une amélioration visuelle de l'image à
l'impression mais en perdant une restitution réelle de la photo, tout en
augmentant la taille du fichier.
Afficheur LCD pour voire directement les photos sur l'appareil numérique
ou même pour le configurer.
Mode Macro: cette fonction permet de prendre des photos d'objets petits
et proches en utilisant le zoom standard. Le mode macrophotographie
utilise des équipements spécifiques, pour la photographie d'objets de
petites tailles, insectes, ... de loin.
Mode panoramique: permet de prendre plusieurs photos d'un panorama
et de les coller entre-elles.
Mode caméra: permet de filmer de petits films avec votre appareil photo,
y compris le son.
Anti-mouvement: correction automatique lors du déplacement de
l'appareil en mode prise de vue.
Zoom supplémentaires (téléobjectifs). permet d'augmenter le niveau
du zoom interne en ajoutant un zoom supplémentaire comme dans les
appareils photos standards.
Page 24/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4. Magic Stick Pro Duo, dérivée des deux versions précédentes avec des
dimensions inférieures. Des adaptateurs (modèle Mark 2 de Sony)
permettent de les utiliser dans les anciens appareils.
5. Avec Magic Gate, Sony introduit un codage (protection des données).
La plus ancienne (1994) est la Compact Flash (CF en abrégé). Ici aussi, le
contrôleur est inclus dans le boîtier. Deux types sont développées, les types I
(épaisseur de 3,3 mm) et les types 2 (épaisseurs de 5 mm). Les autres
dimensions sont de 42,8 mm de largeur et 36,4 en hauteur. Les capacités
standards vont jusque 8 GB, même si la norme accepte jusque 137 GB. Ce
modèle disparaît.
Développées au préalable suivant la norme PCMCIA, elle utilise la même
technologie de transfert (en mode parallèle) si ce n'est que le nombre de broches
est de 50 au lieu de 68. Le connecteur PCMCIA accepte d'ailleurs directement les
Compact Flash. La tension d'alimentation (3,3 Volts ou 5 volts suivant le type)
est sélectionnée automatiquement lors de l'insertion de la carte.
Page 26/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Lecteur et graveur CD / DVD, bandes, disques externes, …
4.1. Introduction
Les solutions de sauvegarde des données et programmes sont nombreuses.
Chacune a ses avantages et ses défauts. En gros, la majorité des solutions ne
permettent que de sauver les données.
Les graveurs CD/DVD sont implantés dans
tous les ordinateurs actuels, y compris les
portables. Ils ne permettent que de sauver les
données. Autre problème, la sauvegarde n'est
pas automatique, sauf Vista et 7 qui incluent
cette fonctionnalité (mais en bloquant le graveur) avec le centre de
sauvegarde et restauration. Les données sont conservées moins de 10 ans
sur les médias.
Les disquettes, ZIP, ... sont de trop faibles
capacités, les clés USB ne sont relativement
guère plus grosses (32 GB actuellement). De
plus, vous devez sauver uniquement des données manuellement et les
supports sont plutôt fragiles.
Les lecteurs de bande ont un bon rapport prix / capacité mais sont lents
pour la sauvegarde, et plus encore lors de la restauration. Par contre, ils
permettent de sauver le système complet, y compris les programmes et
configurations systèmes (mais nécessitent de réinstaller Windows avant la
restauration). Cette solution permet de faire des sauvegardes à des heures
fixes automatiquement, ce qui explique son utilisation exclusivement
serveur réseau.
Le backup de votre disque sur un deuxième disque dur (éventuellement
externe) ou connecté dans un dossier partagé en réseau d'un autre PC
permet de sauvegarder directement les données, mais pas les
programmes. Certaines solutions de disques durs externes permettent
néanmoins des sauvegardes automatiques suivant des horaires prédéfinis.
Le clonage logiciel d'un disque dur ou d'une partition (le plus célèbre
est Ghost de Symantec, une fonction similaire est implantée dans Windows
Vista) permet de sauver l'ensemble de votre disque dur, d'une partition,
de recopier des disques durs ou même de faire des images de sauvegarde.
Malheureusement, une restauration efface tout le disque dur (ou la
partition) de destination, y compris les données non sauvegardées
(comme un CD de restauration de Windows). Le clonage nécessite le
partitionnement du disque dur (éventuellement un deuxième). La partition
principale reçoit les programmes, la deuxième intègre les données et
l'image de la partition principale reprenant Windows.
Les sauvegardes sont souvent un compromis entre la durée, la difficulté (tous les
utilisateurs ne sont pas techniciens), le coût et le niveau de sécurité souhaité
entre ces solutions. Les lecteurs de bande en SCSI pour serveurs (haute
capacité).
Page 27/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4.2. Lecteurs de CD-ROM
4.2.1. Interface
Les CD-ROM sont interfacés soit en E-IDE ou en SATA, plus rarement en SCSI.
La capacité standard d’un CD est de 640 MB (70 minutes de musique) mais plus
souvent de 700 MB (80 minutes de musiques). Les tailles supérieures (800 MB)
ne sont pas reconnues par les lecteurs standards mais peuvent également
endommager le lecteur / graveur. Les médias actuels autorisent 700 MB de
données (80 minutes). Les 286, 386 et premiers 486 utilisent une interface IDE
limitée à 540 MB. A l'époque, des cartes audio incluaient un port E-IDE dans ce
but.
4.2.2. Vitesse
La vitesse est normalisée comme X: 1 X équivaut à la vitesse de lecture d’un CD
audio, soit 150 kB/s. Cette vitesse est obtenue sur la partie externe du média et
pas lorsque le faisceau arrive vers le centre. Le lecteur diminue également
automatiquement sa vitesse en cas de difficulté de lecture (CD sale, abîmé). La
vitesse de lecture dépend aussi du temps d’accès du lecteur, différent d'un
modèle à l'autre. Les vitesses actuelles atteignent 56X
4.2.3. Le fonctionnement
Le CD permet sauver 640 (700) Méga-bytes sur un media d'un diamètre de 12
cm, comme les CD utilisés en audio.
Page 28/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
le CLV (Constant Linear Velocity), obsolète. Le débit des données est
constant, la vitesse de rotation doit donc varier en fonction de la position
de la tête sur le media, plus lente à mesure que le faisceau se rapproche
de l'extérieur. Néanmoins, un lecteur 52 X implique un taux de transfert
supérieur de 52 X à un lecteur audio, ce qui est impossible à atteindre sur
la parties internes. A titre d'exemple, la vitesse de rotation sur un lecteur
4X varie entre 800 et 2120 tours par minutes. Pour un lecteur 52 X, ceci
entraînerait une vitesse variant de 10.400 à ...27.560 tours.
Le Z-CLV est une évolution du
CLV et son principe est identique
sauf que la vitesse est constante
par paliers. Au début de la
lecture (ou de la gravure), c'est
la partie extérieure du disque qui
est utilisée. Conséquence, le flux
d'informations est élevé. Par
contre, plus on se rapproche de
la fin du disque (zone externe), plus le flux d'information à vitesse
constant est faible. Le disque tourne donc à une certaine vitesse pendant
la première partie de lecture, ensuite sur la partie suivante, la vitesse
augmente, et ainsi de suite. Cette technique en gravure intègre un
contrôle lié à une petite rupture du flux lors du passage d'un pallier à
l'autre.
Le CAV ne travaille pas à un débit constant en faisant varier la vitesse
comme le CLV mais bien à vitesse angulaire constante. Le flux
d'informations transférées est donc constant qu'elle que soit l'endroit où se
trouve la tête de lecture.
le PCAV est similaire (Partial Constant Angular Velocity). Cette
technologie est de type CAV mais permet des vitesses supérieures. Dans
le CAV et le PCAV, le taux de transfert est inférieure au centre par rapport
au bord du CD. Comme l'électronique (y compris le transfert vers la carte
mère) ne suivrait pas réellement pour les parties externes, le lecteur
repasse en CLV automatiquement à partir des 2/3 du disque et la vitesse
de rotation diminue afin que le débit n'augmente plus (ce que indique le
terme partial - partiel dans le nom de la technologie).
Page 29/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les Cd-Rom / XA et CD-I découlent de la même technologie. Le Cd-ROM / XA à
architecture avancée est plus souvent appelé CD-I pour le grand public. Il est
structuré pour permettre un mélange de différents médias de manière
interactive.
Développés pas Kodak, les CD multisessions (multiread) permettent de stocker
ses données au fur et à mesure. Si un CD classique contient une seule table de
matière, un CD multisession en contient autant que de sessions. Ceci permet
d'ajouter des fichiers sur le média et de ne pas le créer d'une seule fois comme
un CD-R normal. Par contre, la création d'une session nécessite 20 MB par table
des matières. Le CD doit également être préalablement formaté. Cette méthode
écrit secteur par secteur et utilise généralement la norme UDF. Tous les graveurs
CD actuels acceptent l'écriture sur un simple CD-R en multisessions.
Les CD-ROM "commerciaux" sont pressés. Par contre pour de petites séries et
sauvegardes personnelles, ils sont gravés. Les graveurs actuels acceptent les CD
gravés (CD-R) et les réinscriptibles (CD-RW). La capacité d'un CD réinscriptible
est plus faible que celle des CD-R (500 à 550 MB), lié au 130 MB (en moyenne)
utilisés par la table des données (20 MB par session). Les graveurs permettent la
lecture des CD (informatiques ou audio) mais avec un temps d'accès nettement
inférieur à celui d'un lecteur standard. La gravure permet de sélectionner les
fichiers à copier, soit de copier un CD complet (audio ou informatique).
Les technologies utilisées pour la gravure sont identiques à celles des lecteurs
(CLV, Z-CLV, CAV ou PCAV suivant les modèles). La vitesse de gravure est
identique à la vitesse de lecture des lecteurs CD-ROM: 1X correspond à 150
KB/s. Pour un CD audio de 74 minutes, la vitesse de gravure en 4X est donc de
74/4 = 18,5 minutes.
Les graveurs actuels incluent une mémoire tampon, qui évite la rupture du flux
de données pendant la gravure (techniques over-burning, Just-link, ...) que nous
détaillerons ci-dessous.
Comme pour les lecteurs, la connexion des graveurs internes est E-IDE ou SATA,
quelques anciens en SCSI. Pour les modèles externes, la connexion est en USB,
Page 30/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
même si d'anciens modèles utilisaient une interface SCSI ou même parallèle
bidirectionnelle.
4.4. DVD-ROM
4.4.1. Introduction
Un lecteur DVD (digital versatile disc) peut lire les DVD, mais aussi tous types de
CD (audio, CD pressé, CD-R et CR-RW). La capacité est nettement supérieure:
Page 31/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4,7 GB en simple face, simple couche, et 17 GB en double face, double couche.
Ils sont principalement utilisés pour les films vidéo.
La vitesse de lecture n'est plus notée par rapport à un CD audio: 1 X correspond
à 1350 KB / secondes (9 X supérieure).
4.4.3. Fonctionnement
Si un Cd normal émet un faisceau infra-rouge invisible sur une longueur d'onde
de 780 nanomètres, le DVD utilise une lumière rouge visible suivant deux
longueurs d'onde (soit 635, soit 650 nm), ce qui permet de lire les multicouches.
La première couche est une couche translucide, la deuxième couche est
réflexible. En lecture, le faisceau laser traverse la couche translucide pour lire les
données de la seconde, puis change de fréquence pour lire la première. Le tout
utilise un dispositif de correction d'erreurs 10 X supérieur à celui d'un lecteur CD
classique. Une mémoire tampon (un buffer) assure la lecture continue des
données entre les couches.
Page 32/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
En 2002, deux formats de graveur DVD sont vendus suivant deux groupes de
fabricants: le Forum DVD et le DVD Alliance (principalement Philips).
Actuellement, tous les graveurs sont compatibles avec les deux types de media.
Le DVD-R (Forum), inscriptible une fois: prix relativement bon marché du
media et compatible avec près de 80 % des lecteurs.
Le DVD+R (Alliance), également inscriptible: support est plus chère, mais
compatible avec plus de lecteurs de salon (près de 85 %).
Le DVD-RW (Forum). 2 fois plus lent en gravure que le DVD+RW.
Le DVD+RW (alliance) est compatible avec 65 % des lecteurs. Il est
réinscriptible environ 1000 fois.
Le DVD-Ram (forum) est réinscriptible 100.000 fois. Ce n'est pas à
proprement un graveur de DVD puisque les média sont conditionnés dans
un plastique dur et incompatible avec un lecteur standard. Par contre, ils
acceptent tous les types de CD et DVD en lecture. La gravure est
également deux fois plus lente. La capacité maximum est de 2 fois 2,6 GB
en double face (en retournant le DVD-Ram à la fin de la première face). Ils
sont obsolètes.
4.7.1. Introduction
La sauvegarde sur bande utilise une bande magnétique similaire à une cassette
audio. Le prix est généralement faible. Les logiciels associés permettent de
sélectionner les dossiers / fichiers à sauvegarder (restaurer) et de les sauver
automatiquement à des dates / heures prédéfinies (par exemple, tous les jours
sauf le samedi à 19 heures. C'est le premier système de sauvegarde utilisé mais
l'augmentation de la capacité des disques durs couplés avec une faible vitesse de
transfert limitent leur utilisation, sauf dans les applications serveurs que nous
verrons en deuxième.
Ces systèmes de bande permettent les sauvegardes des documents, mais aussi
de Windows et logiciels installés. Trois méthodes de sauvegardes sont utilisées
(généralement mélangées):
Sauvegarde complète: l’ensemble de disque dur ou uniquement les dossiers de
données mais tous les fichiers. Cette méthode est la plus sûre, mais aussi la plus
longue.
Page 33/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Sauvegarde incrémentale: que les fichiers qui ont été modifiés depuis la
dernière sauvegarde complète ou incrémentale. Restaurer complètement les
données d'un dossier utilise d’abord une sauvegarde complète et ensuite les
restaurations incrémentales jusqu'à la date du jour.
Sauvegarde différentielle: tous les fichiers depuis le dernier backup complet
ou incrémental mais ne modifie pas le bit d’archivage des fichiers. La prochaine
sauvegarde les resauve.
Page 34/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La dernière version a une capacité de 750 MB (2002). Elle peut être interne (E-
IDE) ou externe (USB2.0, compatible 1.1 et firewall de janvier 2003). Les Zip
750 MB sont totalement compatibles avec les 250 MB (en lecture et en écriture).
Ils lisent les 100 MB mais ne peuvent pas écrire dessus.
Le lecteur IOMEGA était un standard pour les ordinateurs Mac, souvent utilisés
en imprimerie. C'est la méthode idéale pour transférer de PC vers mac.
4.10. Le Blu-ray
Le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD, autre
dénomination B-RD) est un format de disque numérique breveté et
commercialisé par l’industriel japonais Sony permettant de stocker et restituer
des vidéogrammes en Haute Définition. Sa dénomination provient du type de
rayon laser qu’il exploite, de couleur spectrale proche du bleu.
Son principal concurrent, le HD DVD lancé par Toshiba avec le soutien de
Microsoft a été officiellement abandonné en février 2008. Peu après, Toshiba a
rejoint officiellement le consortium Blu-ray et a présenté lors de l'IFA 2009 sa
première platine Blu-ray, la BDX2000E.
Page 35/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Il existe des lecteurs et des enregistreurs-lecteurs Blu-ray dits de salon ainsi que
des lecteurs et graveurs Blu-ray destinés à équiper les ordinateurs. Les appareils
Blu-ray doivent permettre la lecture des DVD vidéo et des CD Audio
(compatibilité ascendante).
4.10.2. Spécificités
Le Blu-ray exploite un rayon laser bleu-violet (longueur d’onde : 405 nm),
d’ouverture numérique élevée (0,85). Par comparaison avec le laser Infrarouge
(longueur d’onde : 780nm) d’ouverture numérique 0,45 utilisé pour le CD et le
laser rouge (longueur d’onde : 650/635 nm) d’ouverture numérique 0,6 utilisé
pour le DVD, le Blu-ray permet de stocker plus d’informations sur la même
surface grâce à un rayon plus fin (diamètre du spot laser : 290 nm) induisant des
sillons de gravure plus petits et plus rapprochés (écart : 320 nm) et des alvéoles
plus courts (longueur minimale : 149 nm — 135 nm pour le modèle 27 Go
actuellement abandonné). Les premiers appareils grand public intégrant cette
technologie sont apparus fin 2006, notamment la PlayStation 3 (novembre au
Japon puis aux États-Unis), lancée le 23 mars 2007, en France.
Page 37/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Région B : l’Europe, l’Afrique, l’Australie et le reste de l’Océanie
Région C : le bloc russe et eurasien, l’Inde et l’Asie.
Ceci est principalement utilisé pour la segmentation du marché, pour la
discrimination par les prix, mais permet également aux studios de cinéma de
contrôler les différents aspects de la livraison (y compris le contenu et la date de
sortie) en fonction de la région.
Les disques peuvent également être produits sans la région de codage, de sorte
qu'ils peuvent être lus sur tous les périphériques. Les pays des grands fabricants
de disques Blu-ray (le Japon, la Malaisie, la Corée du Sud, etc) sont dans la
même région que les Amériques.
À la fin de 2008, près de 70 % de tous les disques ont été livrés sans région
(« region free »). Quelques studios maintiennent les zones de commercialisation,
cela dépend des titres.
Profils des lecteurs
Le BD-ROM spécification définit quatre profils Blu-ray Disc de lecteur, y compris
pour les lecteurs audio (BD-Audio) qui ne nécessitent pas de décodage vidéo ou
de BD-java. Les trois profils de lecteur vidéo (BD -Video) sont tenus d’avoir une
pleine mise en œuvre du BD-java, mais avec différents niveaux de support
matériel.
BD-Video
BD-Audio
Fonction Grace Period Bonus View BD-Live
Mémoire
persistante Non 64 Kio 64 Kio 64 Kio
incorporée
Capacité
de
Non Facultatif 256 Mio 1 Gio
stockage
local
Décodeur
vidéo
Non Facultatif Obligatoire Obligatoire
secondaire
(PiP)
Décodeur
audio Non Facultatif Obligatoire Obligatoire
secondaire
Système
de fichiers Non Facultatif Obligatoire Obligatoire
virtuel
Capacité
de
Non Non Non Obligatoire
connexion
à Internet
La gestion des droits numériques
Page 38/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Le Blu-ray Disc emploie plusieurs couches de la gestion numérique des droits.
Si un dispositif de lecture constructeur estime que ses appareils ont été piratés, il
peut être communiqué à BD+ code qui détecte et évite la vulnérabilité. Ces
programmes peuvent être inclus dans tous les nouveaux contenus communiqués.
Page 39/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les spécifications de la BD + machine virtuelle ne sont disponibles que sous
licence pour les fabricants de dispositifs. Une liste des titulaires de permis
commerciaux à adopter est disponible sur le site Web de BD +.
La première utilisation de titres BD + ont été publiés en octobre 2007. Les
versions de la protection BD + ont été contournées par les différentes versions
de la AnyDVD HD. Un autre programme appelé à être capable de contourner la
protection BD + est DumpHD, qui est disponible avec la licence freeware et
connus pour être compatibles à la fois avec Windows et les différentes
distributions Linux.
BD-ROM Mark
BD-ROM Mark permet de stocker une clé cryptographique sur un BD-ROM sans
que cette clé puisse être dupliquée vers un BD-R. Ce procédé est possible grâce
à l’usage d’un format propriétaire de BD-ROM, décodable uniquement avec une
puce spécifique, présente sur les lecteurs compatibles.
Utilisation
Devant partager le marché naissant de la haute définition avec son concurrent
HD DVD, le Blu-ray s’est introduit lentement et avec difficulté dans les foyers.
Ces deux technologies nouvelles étaient en effet coûteuses mais aussi source
d’insécurité : choisir l’un des deux formats était faire un pari sur son avenir car il
était certain que l’un de ces formats n’allait pas être maintenu très longtemps.
Toutefois, la part de marché des Blu-ray sur le secteur haute définition dépassait
déjà fin 2007, celle du HD DVD, aussi bien en termes de médias vendus que de
platines, avec deux Blu-ray vendus pour un HD DVD.
À partir de la victoire du média en 2008 (Toshiba a finalement abandonné le HD
DVD le 19 février 2008), de nombreux constructeurs ont annoncé la
commercialisation de matériel compatible, et les ventes de Blu-ray constituent
aujourd’hui la quasi-totalité des ventes de média Haute-Définition.
En Europe, les ventes de Blu-ray deux ans après sa sortie ont finalement été
supérieures à celles du DVD à son époque. Toutefois, le Blu-ray a du mal à
percer mondialement. Et la PS3 est la seule console dotée d’un lecteur de Blu-
ray. Les ventes de Blu-ray discs aux États-Unis ont chuté de 40 % en
février 2008, même si Sony se targue d’avoir vu augmenter les dites ventes le
mois suivant de 2 %.
Samsung, pourtant promoteur de la démocratisation du Blu-ray dans les foyers,
annonce même la mort du Blu-ray d’ici 2013.
De plus, la technologie upscale de plus en plus prisée par le grand public
constitue une nouvelle concurrence pour les disques à haute définition et pourrait
bien faire de l'ombre au Blu-ray. Grâce aux nouveaux lecteurs DVD équipés de
prise HDMI, l’image d’un DVD sur une TV HD est sensiblement améliorée.
En 2008, seulement 9 % des personnes n’ayant pas de lecteur Blu-ray
envisagent d’en acheter un. Les disques Blu-ray restent chers, peu nombreux.
Néanmoins, le rythme mensuel des sorties Blu-ray s’accélère.
L'année 2009 marque cependant un réel tournant dans l'histoire du Blu-ray: avec
la baisse de prix très significative des lecteurs et un catalogue s'étoffant (plus de
1 300 références en France en décembre), le support est loin d'être un échec et
commence à prendre son envol, plus tardif que prévu, mais bien réel. L'arrivée
de la PlayStation 3 Slim a favorisé en partie cet essor.
Page 40/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Blu-ray 3D
La Blu-ray Disc Association annonce en décembre 2009 l'arrivée du nouveau
standard Blu-ray 3D. Celui-ci lancé en 2010, permet de visionner des films
stéréoscopiques dans une résolution en Full HD (1080p).
Des fabricants de téléviseurs 3D proposent des systèmes 3D à lunettes passives.
Dans les faits, la résolution verticale de l'image est divisée par 2 (540 lignes pour
chaque œil au lieu de 1080). Cependant, il semble que la technique utilisée offre
tout de même une qualité Full HD.
Le nouveau standard utilise le format d'encodage Multiview Video Coding, une
extension du codec H.264 AVC.
Les films et disques Blu-ray 3D ne peuvent être lus que sur des lecteurs et
écrans 3D ready. Les disques contiennent plus de couches et un plus grand
espace de stockage qu'un disque blu-ray traditionnel. Cela nécessite une lentille
de laser plus forte et un traitement de calcul plus puissant.
Capacité, vitesse et applications
Un disque Blu-ray double couche (abréviation « DL », de l'anglais « Dual-
Layer ») contient 50 Go, soit environ :
4 heures de vidéo HD au format MPEG-2 avec un débit binaire de 25 Mb/s
6 heures de vidéo HD au format H.264/MPEG-4 AVC avec un débit binaire
de 18 Mb/s
22 heures de vidéo SD (de l'anglais « Standard Definition ») au format
MPEG-2 avec un débit binaire de 5 Mb/s (équivalent du DVD, soit
25 images par seconde à 576 pixels de hauteur).
Le taux de transfert est de 36 Mbits/sec (4,5 Mo/s) pour les lecteurs 1X et de
72 Mbits/sec (9 Mo/s) pour les lecteurs 2X actuellement disponibles sur le
marché. Les standards BD-R (disque enregistrable), BD-RE (réinscriptible) et
BD-ROM (lecture seule) font partie des spécifications Blu-ray 2.0. Les disques
pré-enregistrés BD-ROM étaient disponibles début 2007 ; le premier BD-ROM a
été gravé en novembre 2005 (Sony Pictures Home Entertainment).
Le projet de faire des disques de 100 Go et 200 Go a finalement abouti ; le
disque de 100 Go utilise quatre couches de 25 Go, tandis que celui de 200 Go
utilise six couches de 33,3 Go. Pour le moment, seuls certains appareils, comme
la PlayStation 3, peuvent lire ce format en simple et double couche. Il n’existe
actuellement aucun lecteur pour les disques de 100 et 200 Go (confirmé par
Hitachi, créateur du BD 100 Go). En janvier 2010, Sony et Panasonic annoncent
l'augmentation de la capacité des Blu-Ray. Celle-ci passera donc de 25 Go à
33 Go, soit un total de 66 Go pour les disques à double couche.
Technologie et compatibilité
Le format BD-ROM spécifie trois codecs pour la vidéo : MPEG-2 (le standard
actuellement utilisé pour les DVD), le codec H.264/MPEG-4 AVC, et le codec VC-1
basé sur le codec Microsoft Windows Media 9. Le premier codec autorise
seulement deux heures de contenu en haute définition sur un disque Blu-ray
simple couche, mais avec les autres codecs un disque simple couche peut
contenir environ trois heures. Le MPEG-2 haute définition a un taux de transfert
d’environ 25 Mbit/s, alors que les deux autres ont un taux de transfert d’environ
15 Mbit/s pour la vidéo et 3 Mbit/s pour l’audio.
Page 41/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les disques BD-RE (et par extension les disques BD-R) supportent maintenant le
MPEG-2 SD et le MPEG-4 HD grâce à la diffusion via la TNT HD enregistrée sans
modification du signal d’origine qui conserve ainsi sa qualité native, le 16/9 et le
son 5.1 …
Les méthodes d’encodage du flux audio incluent le PCM linéaire, le Dolby Digital
(dont le Dolby TrueHD à compression sans perte), le DTS (dont le DTS HD,
initialement DTS++, à compression sans perte).
La nécessité de compatibilité ascendante (lecture des DVD) a été prise en
compte pour les formats audio :
À l’instar des extensions SD du DTS (DTS-ES, DTS-96/24, DTS NEO:6), le
DTS HD contient un flux DTS classique (core DTS). Les appareils non
compatibles ignorent ces extensions.
Dolby Digital+, contient également un signal core Dolby Digital. Comme
pour le DTS il suffit d’ignorer cette extension.
Dolby Digital TrueHD est lui radicalement différent du Dolby Digital mais la
norme Blu-ray impose en cas de présence d’une bande son TrueHD la
présence d’une bande son Dolby Digital SD. À noter qu’un certain nombre
de platines récentes savent également convertir les Dolby Digital TrueHD
en DTS pour les envoyer à un amplificateur audio numérique qui ne
saurait pas décoder les formats HD.
La spécification Blu-Ray propose le développement de contenus interactifs
évolués ainsi que des applications connectées via la plate-forme Java nommée
BD-J.
Déclinaisons commerciales
Une spécification pour un disque Blu-ray de 8 cm a déjà été finalisée et
approuvée. Il en résulte un disque de 8 cm simple couche à une face, capable de
contenir 15 Go, soit une fois et demie la capacité d’un DVD double couche
normal de 12 cm. Ce format serait adapté pour les petits appareils portables,
comme les lecteurs vidéo ou les caméras numériques.
Un disque hybride Blu-ray/DVD a été développé par JVC et LG et attend d’être
reconnu par l’association Blu-ray Disc. Cela permettrait d’utiliser un même
disque dans les lecteurs Blu-ray et DVD. Les utilisateurs pourraient acheter un
seul disque pouvant être lu soit en définition normale soit en haute définition,
suivant le matériel utilisé. Les utilisateurs ne possédant qu’un simple lecteur DVD
pourront regarder la vidéo en définition normale, puis en haute définition
lorsqu’ils achèteront un lecteur Blu-ray.
Enregistreurs et consoles de jeux
Page 42/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La PlayStation 3, 1re console de jeu équipée du support Blu-ray.
Le premier enregistreur de disques Blu-ray a été dévoilé par Sony le
3 mars 2003, cependant, suite à de nombreux retards, les premières platines
compatibles Blu-ray ne devaient pas apparaître avant fin juin 2006. Le
1er septembre 2003, JVC et Samsung Electronics annoncèrent des produits
fondés sur la technologie Blu-ray à l’IFA, à Berlin, en Allemagne.
En mars 2004, Sony et Matsushita ont annoncé la vente de disques de 50 Go la
même année. Pourtant, il n’y avait alors ni lecteurs de salons, ni graveurs de
Blu-ray pour ordinateurs disponibles. Sortie en novembre 2006 au Japon puis
aux États-Unis et le 23 mars 2007 en Europe, la nouvelle console de Sony, la
PlayStation 3, est équipée en série d’un lecteur Blu-ray. C’est l’une des
premières machines de salon à être équipée de ce support. À l’image de la
PlayStation 2 et de son lecteur DVD, Sony veut se servir de la popularité des
jeux vidéo et de la marque PlayStation pour favoriser l’usage du Blu-ray.
Stockage de données pour les ordinateurs personnels
Sony a lancé un PC portable de la série VAIO qui dispose du premier
lecteur/graveur Blu-ray (série AR). La première annonce d’un périphérique Blu-
ray était à propos de l’OPU81 par Philips, en janvier 2005 et prévu pour la
deuxième moitié 2005, mais a été repoussé.
Technologie
Longueur d’onde de la lumière émise par le laser
Page 43/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Cette image de 3 500 × 3 500 pixels est un agrandissement d’une portion de
1 mm2 du disque. Chaque point blanc de l’image représente sur le disque un
carré de 405 nm de long.
Cette technologie utilise une diode laser fonctionnant à une longueur d’onde de
405nm d’une couleur bleue (en fait bleue violacée) pour lire et écrire les
données. Les CD et les DVD conventionnels utilisent des lasers infrarouges et
rouges à respectivement 780nm et 650/635nm.
Au niveau de la comparaison des couleurs, la couleur visible d’un tube de lumière
noire est dominée par les émissions violacée du mercure à 435,8 nm. La diode
laser bleu violacé utilisée pour les disques Blu-ray fonctionne à 405 nm, ce qui
est nettement plus violet (plus proche de l’extrémité violette du spectre de la
lumière visible) que la partie visible de la lumière noire. Un effet secondaire du
fait que la longueur d’onde soit très petite est que plusieurs matériaux
deviennent fluorescents, et le rayon apparaît comme blanc bleuté s’il se réfléchit
sur une surface blanche (comme une feuille de papier). Si les technologies
futures projettent l’utilisation de supports fluorescents, les disques Blu-ray
fonctionnent d’une manière similaire à celle des CD et des DVD et n’utilisent pas
la fluorescence des supports pour lire les données.
Le laser bleu violacé a une longueur d’onde plus courte que celle des systèmes
CD ou DVD, et cette réduction permet de stocker plus de données sur un disque
de même taille (12 cm). La taille minimale du point sur lequel le laser peut être
focalisé est limitée par la diffraction, et dépend de la longueur d’onde de la
lumière et de l’ouverture numérique de la lentille utilisée pour le mettre au point.
En diminuant la longueur d’onde (en se rapprochant de l’extrémité violette du
spectre), en utilisant un système à double lentille avec une meilleure ouverture
numérique (meilleure qualité) et en rendant le disque plus fin afin d’éviter
certains effets optiques, le laser peut être focalisé beaucoup plus précisément sur
la surface du disque. On obtient des pointages lumineux plus précis, et ainsi il
peut stocker plus d’informations sur le disque dans un même espace. En plus des
améliorations optiques, le disque Blu-ray présente des améliorations en ce qui
concerne l’encodage des données et le rapprochement des pistes entre elles, ce
qui permet de stocker encore plus de données (voir l’article sur le disque
compact pour des informations sur la structure optique du disque).
Technologie de revêtement de protection renforcée
L’introduction de TDK au sein de la fondation Blu-ray, annoncée le 19 mars 2004,
fut accompagnée d’un grand nombre d’indications pouvant améliorer de façon
significative l’avenir du disque Blu-ray. La technologie de protection renforcée de
TDK permettrait aux disques Blu-ray de mieux résister aux rayures, et leur
permettrait d’être nettoyés des empreintes de doigts avec un simple tissu,
procédé qui laisse des micro-rayures sur un CD ou un DVD normal.
La guerre des supports HD
Cette association de TDK et Sony visait naturellement à rendre le BD moins
coûteux à la fabrication pour mieux rivaliser avec le concurrent HD DVD qui
certes avait des capacités maximales de stockage inférieures au Blu-ray (15 Go
par couche pour le HD DVD contre 25 Go par couche pour le BD) mais qui avait
l’avantage de pouvoir être fabriqué sur les chaînes actuelles de montage du DVD.
Avant le progrès de TDK, l'incompatibilité des deux supports au niveau de la
lecture, était un frein pour le consommateur désireux de visionner des films qui
n'étaient disponibles que sur l'un ou l'autre des deux formats. Il n'avait alors
comme solution que de se porter acquéreur d'un lecteur BD et d'un lecteur HD
Page 44/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
DVD.La première solution envisagée était de destiner le Blu-ray au stockage
informatique et le HD DVD aux films. Cette solution était calquée sur un
problème similaire ayant opposé le VHS au Betamax. Ce dernier était d’une
qualité supérieure à celle du VHS, mais sa capacité d’enregistrement était
moindre. Davantage de fabricants se sont ralliés au format inventé par JVC : le
VHS a donc été destinée au marché grand public et le Betamax à une utilisation
professionnelle dans sa version Betacam. Par analogie à cette époque, Sony et
TDK nous permettent donc d’avoir un VHS qui a la qualité du Beta.
Le 29 novembre 2004, quatre studios hollywoodiens ont annoncé leurs projets de
s’appuyer sur le HD DVD plutôt que sur le Blu-ray, bien que de façon non
exclusive : New Line Cinema, Paramount Pictures, Universal Studios et Warner
Bros. Le 8 décembre 2005, Disney et sa division de distribution Walt Disney
Home Entertainment annoncent qu'ils soutiendront le format Blu-ray. De fait,
depuis août 2006, Paramount Pictures et Warner Bros. produisent parallèlement
des versions Blu-ray de leurs films. Cependant, en août 2007, Paramount
Pictures et Dreamworks ont suspendu leur soutien au Blu-ray ; leurs films ne
seront désormais pressés que sur des disques HD DVD.
Mais la décision clé, celle qui a scellé le choix du format HD, a été celle de
Warner Bros., qui annoncent le 4 janvier 2008 l’exclusivité de leurs films au Blu-
ray à partir de mai 2008.
Le 19 février 2008, Toshiba annonçait qu’il abandonnait la technologie HD DVD
laissant le Blu-ray Disc sans concurrence. En effet, le Blu-ray offrant la plus
grande quantité de stockage et malgré son coût plus élevé par rapport au HD-
DVD, le fait que Warner Bros l'ait choisit comme support exclusif en abandonnant
définitivement le HD-DVD a joué un grand rôle. Après l'annonce de la décision de
Warner, d'autres acteurs suivront d'ailleurs bientôt dans leur soutien du seul Blu
Ray, tels que Wal-Mart.
Autres concurrents :
HVD, qui stocke les données dans un hologramme numérique ;
VMD, successeur de l’EVD, une technologie chinoise de disque optique en
réponse au coût des licences DVD ;
DMD, la technologie succédant au disque fluorescent multicouches ;
FVD (Forward Versatile Disc ou Disque polyvalent « d’avant-garde »), une
technologie Taïwanaise utilisant le laser rouge.
Coûts décroissants
Les membres de la fondation Blu-ray ont concentré leurs efforts sur la réduction
des coûts de production, en jouant sur différents aspects. Le 15 avril 2004 par
exemple, Sony et Toppan Printing ont annoncé la réussite du développement
d’un disque Blu-ray composé à 51 % (en masse) de papier, ce qui pourrait
réduire les coûts de production.
Compatibilité DVD
La fondation Blu-ray a, bien que ce ne soit pas obligatoire pour les constructeurs,
modifié les équipements Blu-ray afin d’assurer une rétrocompatibilité. Cet aspect
rend la migration plus attirante pour les utilisateurs, car ils ne sont pas obligés
de remplacer leur collection de DVD.
Page 45/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Critiques
La nécessité d’une si grande capacité pourrait a priori apparaître comme pas
totalement justifiée, notamment par le fait qu’un simple DVD peut contenir un
film en haute définition pourvu qu’il soit encodé en H.264 (ou un format de
même génération). En effet, le choix d’un meilleur encodage que le MPEG-2
(utilisé sur les DVD vidéo) permet d’augmenter la quantité d’informations
stockées dans un même volume de données. A titre d'exemple ; l'enregistrement
d'un film sur ARTE HD (son stéréo, enregistrement *.mp4 1080p) prend 4Go de
mémoire pour 1h15 de film. La capacité de mémoire des disques blu-ray permet
d'expliquer le choix des formats sonore « Dolby true HD » et « DTS HD » qui
sont moins comprimés et prennent beaucoup plus de place restituant ainsi une
qualité sonore supérieure. Néanmoins le contenu des disques évolue, et on peut
s’attendre à trouver plus d’interactivité (notamment les DVD Interactifs qui sont
souvent des jeux) ou de prise de vue différentes dans les films.
Cependant, l'arrivée des films 3D, jointe aux formats sonores haute définition
(non seulement pour la V.O., mais aussi pour d'autres langues), s'est rapidement
traduite par l'utilisation fréquente de la quasi-totalité des 50 Go prévu en double
couche : ainsi Avatar, pourtant encodé en AVC, utilise (en version 2D) 47,5 Go
sur les 50 disponibles, la V. O. en DTS HD MA nécessitant à elle seule 5 Go.
Richard Stallman appelle à boycotter les Blu-ray tant que l’AACS n’aura pas été
cassé. En effet, les systèmes de gestion des droits numériques restreignent de
manière importante l’usage légal des disques achetés.
Médias optiques futurs
Selon l’opinion de nombreux chercheurs (y compris ceux de la fondation Blu-
ray), le disque Blu-ray représente sûrement la dernière des technologies basées
sur un support plastique et avec un laser visible. Les ondes violettes et
ultraviolettes plus courtes sont absorbées fortement par le plastique utilisé dans
la fabrication des disques, et il serait difficile de fabriquer à faible coût des
lentilles de qualité supérieure. La lumière absorbée par le disque ne pourrait pas
être lue par la lentille. De plus, la plupart des plastiques s’altèrent sous les
rayons ultraviolets, changeant de couleur et se fragilisant. Un système ultraviolet
détruirait le plastique utilisé. Les technologies futures prévoient plutôt l’utilisation
de plaques de verre (qui n’absorbent pas les ultraviolets autant que le plastique),
des lasers ultraviolets et/ou des médias fluorescents multicouches.
Des disques stockant les informations en 3 dimensions au moyen d’un
procédé holographique constituent l’évolution la plus probable de ce type
de support. Le format le plus avancé dans ce domaine est sans nul doute
l’Holographic Versatile Disc (HVD - en français disque holographique
polyvalent) ; mis au point conjointement par les sociétés InPhase et
Cypress, la capacité de stockage pourrait atteindre 3,9 To. Il était prévu
de commercialiser un premier modèle d’une capacité de 1,6 To vers 2010.
Une autre technologie, développée par le LETI et appelée Super-
Résolution, pourrait apparaître vers 2010-2012. La capacité serait portée à
75, voire 100 Go par couche.
Page 46/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Protection électrique, onduleurs, …
5.1. Introduction
Le réseau électrique européen est alimenté en 230 V alternatif
(éventuellement comme nous l'avons vu en première du 230 ou 380 V triphasé).
Par contre, les appareils informatiques sont alimentés en basses tensions
continues (généralement compris entre + 12 et -12V). Pour transformer la
tension d'alimentation du réseau électrique en tension acceptable par les
appareils électroniques, on utilise une alimentation.
Les alimentations utilisées en informatique utilisent la technologie "A découpage". Ce
principe est non seulement adapté aux alimentations, mais également aux UPS (onduleur en
Français). Les alimentations conventionnelles ont généralement un rendement proche de 50 %
pour jusque 80 % pour les alimentations à découpage. Le rendement (le rapport entre la
puissance consommée et la puissance rendue en continu) de ces alimentations par pont
redresseur (4 diodes) après passage par un transformateur est trop faible.
Page 47/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Prenons le schéma suivant.
La tension de départ est alternative en 230 V, elle est redressée directement par un pont
de diodes dit de Pont de Graetz sans transformateur intermédiaire, couplé avec un
condensateur (230 V en continu, 330 V en pointe sans le condensateur). Le composant suivant
est un transformateur: un transformateur parcouru par un courant continu au primaire ne
produit aucun signal au secondaire. Par contre, si vous faites passer une tension alternative au
primaire d'un transformateur, il en ressort au secondaire une tension de même forme mais de
valeur différente (une division suivant le rapport nombre de bobines entrées / sorties). A quoi
peut donc bien servir ce transformateur?
En série avec le transformateur, on insère un transistor qui va découper la tension,
permettant une tension discontinue au primaire du transformateur. La base du transistor (la
gâchette en technologie CMOS) est reliée au secondaire du transformateur via un circuit de
commande, pour la majorité des modèles via un autre transformateur (séparation galvanique
servant de protection). Ceci évite des problèmes en cas de surtension sur le réseau électrique.
A l'allumage, le réseau électrique n'est pas continue (le temps de charger le condensateur
mais aussi les imperfections de l'interrupteur). Cette tension va d'abord alimenter le circuit de
commande qui va commencer à faire hacher la tension continue aux bornes du transformateur.
Plus la proportion de hachage va être grande sur la gâchette du transistor (ou base dans
le cas d'un transistor bi-polaire), plus la tension en sortie va être grande. Le circuit de
commande va faire varier ce découpage en fonction de la tension de sortie de l'alimentation et
ainsi réguler cette tension.
Comme le pont est directement sur le 230 V alternatif, considérez que la moitié du
montage est sous 230 V. Le signal d'entrée est une tension redressée (continue), ce montage
électronique permet également de démarrer directement d'une tension continue (batteries).
Page 48/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
5.3. Perturbations du réseau électrique
Reprenons notre signal alternatif de base.
1. Coupure complète du courant provoquée généralement par un problème de réseau
électrique ou d'un disjoncteur.
2. Sur-tension, la tension du réseau est supérieure à la tension pour laquelle les
alimentations sont conçues (pensez aux diodes d'entrées). Ceci est spécifiques aux
installations proches des cabines électriques "haute tension". Même si une surtension
n'est par forcément dangereuse pour les installations informatiques (dans des valeurs
raisonnables), cette perturbation provoque des contraintes des composants de
l'alimentation qui, à terme, provoque les pannes.
3. Sous-tension, la tension est inférieure à celle pour laquelle les alimentations sont
conçues et l'alimentation ne sait plus fournir une tension suffisante en sortie. Dans le
cas des alimentations pour PC, elles descendent au moins jusque 180 V. Une sous-
tension est généralement provoquée par une augmentation soudaine de la
consommation électrique sur le réseau par le démarrage de dispositifs électriques
lourds: moteurs, compresseurs, ascenseurs, ... mais également par une distance trop
importante par rapport à la cabine haute-tension. Ces problèmes électriques peuvent
provoquer des blocages et crash inattendus. Ils réduisent également la durée de vie de
l'ordinateur.
4. Transitoires. Signaux parasites qui se superposent sur le signal électrique standard,
elles peuvent aller jusqu'à 4000 Volts, mais plus faibles généralement.
5. Micro coupures. De faibles coupures du signal électrique durant quelques
millisecondes.
6. Pics de tensions: surtensions de durée très faible (inférieure à 1/120 seconde), mais de
forte intensité (supérieure à 4000 V), généralement dus à l'arrêt de machines
électriques de fortes puissances (moteurs, climatiseurs, équipements industriels, ...)
qui dissipent la tension excédentaire sur le réseau. Ici aussi, on assiste à une usure des
composants.
7. Foudre, aussi une surtension. La foudre vient de phénomènes météorologiques
(orages) qui transfèrent de fortes tensions sur le réseau électrique mais aussi
téléphonique. Une forme de foudre remonte de la terre, liée à la géologie du sol et
donc à une zone géographique limitée, sans réelles solutions de protections, même si
la proportion est faible, moins de 1% des cas.
Comment va se comporter notre alimentation à découpage dans ces cas:
En cas de panne complète du réseau, plus d'alimentation.
En cas surtension (jusqu'à 280 Volts), l'alimentation à découpage va réguler la
sortie mais avec des contraintes pour les composants électroniques.
En cas de transitoires, le redressement au primaire va réduire les effets, mais le
transformateur ne servira pas de tampon, il va juste réduire la tension. Le condensateur
et la self de lissage au secondaire vont juste les atténuer. Elles provoquent
généralement des blocages de cartes mères avec les alimentations ATX actuelles.
C'est identique pour les pics de tensions.
Page 49/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
En cas de microcoupures, les différents condensateurs vont servir en partie de
réserves d'énergies.
En cas de foudre, l'alimentation tombe généralement en panne mais peux aussi
mettre d'autres composants de l'ordinateurs en panne.
Ces différentes perturbations électriques ne sont analysables que par des appareils
professionnels que l'on appelle perturbographes.
5.4. Le disjoncteur
Ces appareils protègent des surtensions et de la
foudre. En cas de surtension, ils déconnectent les
appareils du réseau électrique. Les moins chères
doivent être remplacées après une seule surtension
importante, les autres permettent une remise à zéro.
Bref, ce n'est pas forcément la solution pour des
installations professionnelles, juste un premier niveau
de protection.
On-line
Line-interactive
Off-line.
Les UPS actuels se connectent avec un logiciel à l'ordinateur via un port USB (série
pour d'anciens modèles), ce qui permet d'éteindre le PC proprement (y compris sauvegarde de
données) en cas de coupure prolongée. Les onduleurs permettent typiquement une
alimentation de 10 minutes, le logiciels coupe l'ordinateur au minimum avec une sécurité de 5
minutes mais c'est paramétrable. Certains BIOS permettent de redémarrer le PC lorsque la
tension est rétablie.
La puissance d'un UPS est donnée en VA (Volts - ampères). L'équivalence pratique avec
la puissance en Watts est de 1,6. Par exemple, une consommation de 350 Watts nécessite un
onduleur de 350 X 1,6 = 560 VA. Une station standard consomme dans les 300 Watts. Ceci
conditionne le choix de la puissance. En cas de sous puissance de l'appareil de protection, il
sera endommagé ou disjonctera en cas de coupure. Les imprimantes laser ne doivent pas être
protégées, à cause de la brusque consommation de courant lors du début d'impression.
Reste les batteries- accumulateurs. Elles sont généralement au plomb avec une tension
de service de 12 Volts continu, parfois connectées en série pour atteindre 24 Volts et en
parallèle pour augmenter la durée d'alimentation (charge plus importante).
Page 50/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Ces batteries doivent être complètement déchargées régulièrement, ceci pour éviter
l'effet mémoire de recharge, tous les 6 mois en moyenne. C'est identique pour les
ordinateurs portables, GSM, ...
Certains UPS incluent des protections pour les câbles Ethernet et lignes téléphoniques.
5.5.1. Onduleur Off-line
Régulation de tension
Les modèles Off-line sont les plus courants et utilisés pour les ordinateurs individuels,
les puissances varient de 420 à 800 VA. Le réseau électrique est séparé de l'appareil par un
relais qui s'ouvre en cas de sur / sous tension. En fonctionnement normal, le signal d'entrée est
filtré pour éliminer une partie des parasites et le convertisseur charge les batteries.
En cas de coupure du réseau électrique ou si la tension est inférieure à 176 Volts ou
dépasse les 280 Volts, le relais s'ouvre, dissociant le montage du réseau électrique. Le
convertisseur recrée la tension de sortie à partir de l'énergie des batteries. Le temps de
réaction du relais est élevé (quelques millisecondes) et cette technique ne corrige pas les
micro-coupures.
5.5.2. Onduleur Line Interactive
Similaires aux off-line, ces onduleurs intègrent en plus un booster qui permet d'injecter
une tension supplémentaire en cas de variations de tensions, mais surtout de baisses
prolongées. Le circuit de compensation va juste "booster" la tension de sortie pour des
tensions d'entrées entre 176 Volts (le minimum) et 205 Volts , diminuant les contraintes de
l'alimentation des équipements protégés. Pour des tensions d'entrées inférieures à 176 Volts
ou supérieur à 280 volts, le fonctionnement est identique aux modèles off line.
Page 51/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Schémas d'un line-Interactive Régulation de tension
Page 52/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
220 - 240 V Fonctionnement normal
Fonctionnement Alimentation
240 - 280 V Alimentation via le réseau.
normal par le réseau
>280 V Coupure brusque Fonctionnement par batterie.
Alimentation
par batteries
Haute-tension, Fonctionnement par batteries, attention et coupure du
Coupure brusque
foudre au délai d'ouverture du relais. disjoncteur
(remise à zéro
obligatoire)
Pic de courte
durée totalement
Aucune détection Protection partielle
Micro- protégé
coupures
La protection électrique reste un compromis entre le prix des appareils de protection et
l'importance du matériel à protéger. La sécurité d'un serveur informatique d'entreprise
nécessite au minimum un onduleur online, alors qu'un ordinateur personnel se contentera
probablement d'un disjoncteur. L'arrêt d'une heure de production revient nettement plus chèr
que le prix d'un UPS. Attention, Vous ne pouvez pas mettre d'onduleur pour protéger une
imprimante laser. Dans ce cas, la seule possibilité de protection électrique est le disjoncteur.
Page 53/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11