Périphériques v1.0

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 53

Périphériques informatique

Réalisé par

Jean-Christophe VAES

Nombre de pages : 53
Date : 05.10.11
Version : 1.0
Sources : wikipedia.org, ybet.be

Page 1/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Sommaire

Présentation des technologies d’impression .................................................... 3


Présentation des technologies d’affichage .................................................... 12
Acquisition des images : Appareil photo numérique et scanner ....................... 20
Lecteur et graveur CD / DVD, bandes, disques externes, … ............................ 27
Protection électrique, onduleurs, … ............................................................. 47

Page 2/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Présentation des technologies d’impression

1 Technologies et fonctionnement d'une imprimante.


1.1. Introduction
Différents types d'imprimantes sont utilisées. Le choix est principalement
fonction de l'utilisation, de la qualité et du prix de revient. L'amateur privilégiera
les jets d'encre pour le prix d'achat et la qualité d'impression, les professionnels,
avec des nombres d'impressions élevées, les laser pour leur faible prix de revient
à la page. Les autres modèles sont réservés à des applications spécifiques.
Tableau comparatif des différentes technologies d'impression.

Sublimation
Aiguilles Jet d'encre Jet d'encre solide laser
thermique

jet de bulles Chauffage de l'encre Transfert sur Chauffage


Méthode impact d'encre sur la et projection sur un papier spécial d'encre en
feuille tambour généralement poudre

Encre
résiste à Oui - non Non Oui Oui
l'eau

Qualité du Sans Sans


pas trop buvard Sans importance Spécifique
papier importance importance

Qualité
Faible excellente selon le type Excellente
d'impression

Papier
Oui non - Parfois
listing

Papier
Oui - - - -
carbone

Résolution - Moyenne Elevée Moyenne

Impression en noire

Prix à la très bon entre jet d'encre et


chère - Bon marché
page marché laser

Prix de relativement bon relativement


- Bon marché -
l'imprimante marché bon marché

rapide,
Vitesse - de 2 à 40 ppm de 2 à 40 ppm - jusqu'à 100
pages / min.

Page 3/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Impression en couleur

selon le type
Prix à la entre les jet d'encre mais
- Chère Faible
page et laser généralement
chère

Type de
- Haute qualité normal papier spécial Normal
papier

1.2 Imprimante à jet d’encre


Commercialisées depuis le début des années 1990, ce sont les plus vendues:
faible prix d'achat pour une bonne qualité d’impression. Tous les modèles actuels
impriment en couleur, même si certains anciens modèles de bas de gamme
utilisent un seul support de cartouche (encre noire ou trois couleurs
simultanées).
L'impression envoie des bulles d’encre chauffées à travers des buses (tubes) sur
la feuille sur laquelle elles se solidifient en refroidissant. Si le papier est trop
buvard, il absorbe l'encre qui s'étale avant de sécher. Le principe date des
années 70 lorsqu'un chercheur de CANON mit en contact un fer à souder chaud
avec une seringue remplie d'encre: une bulle se forma, faisant sortir l'encre de la
seringue.

Le fonctionnement des Jet d'encre est identique à cette découverte accidentelle:


un signal impulsionnel (électrique) dans la tête d'impression produit chaque
seconde plusieurs milliers d'élévation de température (entre 300 et 400° C).
Chacune crée une bulle d'encre minuscule qui exerce une pression qui fait éjecter
une seule goutte extrêmement fine. Lorsque la pression redescend (diminution
de la température), le vide créé est rempli par une nouvelle goutte et ainsi de
suite.
La tête d'impression est composée de plusieurs rangées de tubes extrêmement
fins, à peine visibles à l'œil. Chaque buse est raccordée à un élément chauffant
avec son propre circuit électronique de commande qui peut recevoir des milliers
d'impulsions à la seconde. De l'autre côté, chaque buse est reliée au réservoir
d'encre.
Les principaux fabricants d'imprimantes jet d'encre sont Hewlett Packard, Canon,
Lexmark et Epson. D'autres comme Olivetti, Brother, ...complètent le marché.
Cette formation ne reprend que l'entretien et le fonctionnement des premières
marques, le principe des autres est identique.

Page 4/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les avancées technologiques sont surtout pour l'impression de photographie: un
dégradé des couleurs parfait en utilisant uniquement les trois couleurs de base,
et pas mélangées comme pour les photos argentiques.
1.2.1 Hewlett Packard
HP a sorti les premières imprimantes jet d’encre. Au départ monochrome, elles
ont évolué vers la couleur. A partir de 1998, les modèles Hewlett Packard
utilisent la technologie RET II pour l’impression de photographies qui insère
jusqu’à 16 gouttes d’encre par point. Le RET III permet jusqu’à 29 gouttes dans
un même pixel. Dans le cas de RET III, les têtes d'impression couleur utilisent
408 injecteurs (136 par couleurs) et 300 pour le noir. Ces modèles injectent
jusque 18.000 bulles par seconde. Ces imprimantes HP utilisent une résolution
de 600 dpi maximum.
Sortie en août 2002, le RET IV est une technologie hybride implantée sur les
derniers modèles HP et spécialisée dans l'impression photo. Elle permet de
remplacer la cartouche noire par une cartouche 3 couleurs (la cartouche couleur
de base reste en fonction). La taille des bulles d'encre augmente de 4 vers 5 pico
litres. Le nombre de buses passe lui de 300 + 3 X 136 (RET III) à 6 X 100, soit
de 3500 couleurs par point à 1,2 millions.
Chez HP, la cartouche inclut l’encre et l’électronique de contrôle de l’impression.
En cas de problèmes d'impression, utilisez d'abord le programme spécifique de
nettoyage des têtes. En dernier recours, changez la cartouche.
Pour un entretien sur une imprimante jet d'encre Hewlett Packard, ouvrez
d'abord le capot pour positionner la tête en position de remplacement de
cartouche (sauf sur quelques anciens modèles qui utilisent un bouton spécifique
comme la deskjet 500). Enlevez la prise électrique. Ceci va permettre de
débloquer le chariot d'impression et de le déplacer à la main. En cas d'arrêt
standard, la tête revient en position d'attente avant d'être bloquée.
Ensuite:
 nettoyez la barre de déplacement des têtes d'impression
avec un chiffon ou un papier absorbant genre "essuie-tout"
sans eau ni produits alcoolisé (à sec). Cette barre est
autolubrifiante.
 nettoyez le languette en plastique d'alignement des têtes à
l'arrière à l'eau en faisant bien attention de ne pas la
décrocher.
 nettoyez les contacts électroniques entre la cartouche et la
tête d'impression à sec.
 nettoyer le système d'impression des cartouches d'encres. Soit avec de
l'eau (ne nettoyer que la partie 2), soit plus radical, mais ceci consomme
de l'encre: nettoyer 1 et 2 avec un produit alcoolisé sur un chiffon.

Page 5/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 nettoyez éventuellement la partie qui sert au déplacement du papier: en
cas d'impression sans papier (généralement un blocage du papier pendant
l'impression), l'encre est déposée sur le plastique d'où des traces d'encre
résiduelles sur les impressions suivantes.
 nettoyez avec de l'alcool le support des cartouches d'impression
(cartouche d'encre enlevée). Ceci enlève les souillures discontinues sur la
longueur du papier.
En dernier recourt, vous pouvez carrément changer la cartouche (séchée ou
défectueuse).
Les pilotes sont fournis avec la machine pour Windows (éventuellement à
télécharger sur le site du constructeur). En dos, utilisez le pilote deskjet. Certains
logiciels (comme Cubic, une comptabilité sous DOS) nécessitent le pilote laserjet
II.
1.2.2 Epson
Les modèles jet d'encre d'Epson n'intègrent que l'encre dans la cartouche, seule
une petite puce électronique est intégrée dans les modèles actuels pour
empêcher le rechargement, c'est donc l'inverse d'Hewlett Packard. Si HP met
plusieurs gouttes d'encre dans un point, Epson n'en met qu'une et augmente le
nombre de points imprimés, la résolution maximale est de 5760 dpi (sur papier
spécial). Les transitions sont plus nuancées mais oblige à utiliser du papier
adapté, donc cher, pour obtenir une qualité d'impression photo maximale. Avec
la technologie PIEZO d'Epson, l'éjection de l'encre se fait par une décharge
électrique et pas par chauffage.
Pour les problèmes d'impression et
entretien, vous pouvez utiliser la fonction logicielle
de nettoyage des têtes, un bouton spécifique pour
les vieux modèles. Malheureusement, cela ne
fonctionne pas à tous les coups. L'entretien
reprend uniquement le nettoyage à sec de la barre
de déplacement horizontale des têtes,
éventuellement le bas des supports cartouches.
Sans utiliser plusieurs mois une imprimante jet
d'encre de marque Epson, les têtes sèchent. La seule réelle solution (à part peut-
être des cartouches de nettoyages spécifiques) est remplacement de
l'imprimante
Les pilotes sont fournis sous Windows. En Dos, les anciens modèles Epson sont
compatibles avec les imprimantes aiguilles FX80, mais avec une qualité
"aiguilles".

Page 6/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La technologie des cristaux piézoélectriques utilise
la déformation de certains corps par une impulsion
électrique.

Fonctionnement des jet d'encre Epson

La buse intègre une membrane souple (en rouge).


L'impulsion électrique est donnée aux cristaux inclus
dans le corps de la tête d'impression (en bleu)

A la réception de l'impulsion électrique, les cristaux


font réagir la membrane (en rouge) qui se déforme.

Quand l'impulsion cesse, la membrane revient à sa


position initiale. Ceci comprime l'encre qui libère la
bulle

1.2.3 Canon
Canon utilise suivant les modèles des cartouches d'encre avec ou sans
l'électronique intégré. Comme pour HP, l'éjection de l'encre se fait par chauffage.
L'entretien est identique aux modèles HP.
C'est la réaction du liquide à la chaleur
qui définit la technologie Jet d'encre

Le Fonctionnement des jet d'encre Canon

Une impulsion électrique est transmise


à une résistance située dans le corps
de la buse d'impression

La résistance produit de la chaleur qui


crée une bulle d'encre.

Elle se dilate sous la chaleur et


finalement cette bulle est projetée vers
l'extérieur

Une fois la bulle éjectée, la buse est


prête à recevoir une nouvelle impulsion
électrique
1.3 Imprimantes Lasers

Page 7/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Une imprimante
laser utilise la
même méthode
de
fonctionnement
qu'une
photocopieuse,
l'encre est fixée
temporairement
électrostatiqueme
nt sur le papier,
puis fixée par
chauffage (dans
les 200 degrés).
Les informations
sont d'abord
enregistrées dans
une mémoire
interne avant
d'être transférée
par le faisceau laser (constitué d'une seule source), les données à imprimer sont
transférées sur le tambour (drum) à l'aide d'une glace qui dirige le faisceau sur
l'ensemble de la longueur du drum, gravant les informations à imprimer. Le
tambour est un cylindre de verre ou céramique chez Kyocera Mita, recouvert
d'une couche spéciale, généralement à base de silicium. Le papier passe en
premier sur un cylindre d'ionisation (ioniseur) qui va permettre de coller l'encre
sur le papier temporairement lors du passage contre le tambour. L'image est
transférée sur le tambour (drum) par faisceau laser (1). L'encre sous forme de
poudre (toner) se fixe uniquement à l'emplacement de l'empreinte dessinée par
le rayon laser sur le tambour (2). Le tambour tourne à fait dans le sens des
aiguilles d'une montre entraînant le papier en même temps et transférant l'encre
par la même occasion. Avec le passage au-dessus du coronaire (3) (fils parcouru
par un courant électrique), l'encre est fixée définitivement par chauffage.
L'entretien utilise un aspirateur spécifique qui nettoie les différentes parties
salies par l'encre. L'aspirateur est le même que pour l'entretien des
photocopieuses (pas un aspirateur domestique: la taille de l'encre, trop petite,
passe à travers le sac et grille finalement le moteur). Le coronaire (fils chauffant)
se fait avec un petit pinceau. Nettoyage et entretien d'une imprimante laser.
La majorité des imprimantes laser sont compatibles avec le pilote HP Laserjet III
(sauf quelques anciens modèles Canon et les modèles GDI - Winlaser), sous
Windows comme sous DOS. Depuis, les pilotes sont laserjet IV et laser V, mais
restent compatibles Laserjet III et même Laserjet II. A partir de la version IV, le
pilote utilise une communication bidirectionnelle.
Les modèles couleurs utilisent le même dispositif mais avec quatre blocs: 1
noire et 3 couleurs. Le drum est généralement unique, seul le faisceau laser et
l'encre sont répartis en 4 fois autour du tambour. Ceci explique les dimensions
imposantes de ces imprimantes laser couleur.

Page 8/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
1.4. Les imprimantes laser à LED
Cette technologie n'est pratiquement utilisée que par la marque OKI. La qualité
d'impression est pratiquement identique à celles des laser pour un prix moins
cher. Dans cette méthode, le faisceau laser est remplacé par des LED (1) en
ligne sur toute la longueur du drum, le reste est parfaitement identique. Par
contre, les led perdent leur rendement après un certain nombre d'impressions,
ce qui limite la durée de vie d'une imprimante à LED (30.000 copies et
d'avantage).

1.5. Imprimantes à jet d’encre solide


Cette technologie est développée par
Tektronix. Les 4 encres (cyan, magenta,
jaune et noir) se présentent initialement
sous forme de bâtonnets de cire. Lorsque
l'imprimante est en fonctionnement, la tête
d'impression garde une température
constante, ce qui permet de maintenir
l'encre à l'état liquide dans un réservoir
compartimenté à côté de la tête. L'image
est transférée sur un tambour, principe équivalent à celui des lasers. Les têtes
d'impression ne sont donc pas directement en contact avec la feuille de papier.
Le département imprimante a depuis été racheté par Xerox. Cette technologie
n'est utilisée que pour quelques modèles spécifiques.

1.6. Thermique, sublimation et à transfert thermique


Ces imprimantes thermiques permettent des impressions de moindre qualité
en noir (éventuellement dans une autre couleur suivant le papier utilisé). Une
imprimante thermique utilise un papier sensible à la chaleur qui se décolore au
contact des résistances chauffantes fixées perpendiculairement à l'axe de
déplacement du papier. Ces imprimantes sont utilisées dans les anciens fax,
imprimantes pour magasins (remplacement des aiguilles), extrait de compte, ...
Page 9/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les imprimantes à transfert thermique utilisent un papier normal. Une ou
plusieurs rangées d'aiguilles métalliques chauffe un ruban d'encre situé entre la
tête d'impression et le papier suivant les images souhaitées. Les technologies
actuelles permettent d'imprimer les 3 couleurs de base plus le noir), sans
toutefois atteindre une qualité photo. La résolution est faible. Par contre, cette
méthode d'impression accepte différents types de supports (comme des
étiquettes, cartes magnétiques, plastiques, ...). Suivant l'encre et le support, ces
impressions résistent à l'eau, aux solvants et même à certains produits
chimiques.
Les imprimantes à sublimation thermique, aussi appelée Dye Diffusion
Thermal Transfer (D2T2), utilisent un papier spécifique en rouleau. Dans cette
technologie dédiée à la photographie, l'encre en chauffant est sublimée (elle
passe d'un état solide sous forme d'encre solide à un état gazeux) et envoyée
sur le support en trois passages (un par couleur de base), plus une pour
recouvrir le tout d'un film protecteur anti-UV. Cette technologie permet le
mélange des nuances de couleur. Un dernier passage recouvre le support d'une
couche protectrice. La résolution est limitée à 300 dpi, mais, même à la loupe,
les grains n'apparaissent pas. Cette solution offre donc un rendu similaire à la
photo argentique. Contrairement aux photos jet d'encre (l'encre blanchit à la
lumière), ces impressions photos résistent à la lumière. Le défaut est lié au prix
de revient des cartouches et du papier spécial (même s'il n'est pas toujours
obligatoire).

1.7. Imprimante à aiguille


L'imprimante aiguille est la première technologie utilisée en informatique. Le
principe est de transférer l’encre imbibée sur un ruban sur le papier à l’aide de
plusieurs aiguilles. L’impression se fait donc par impact des aiguilles sur un
ruban. Ce type d'impression par impact permet d’utiliser du papier carbone
utilisé en listing (bon de livraison, factures, …).
La tête d'impression reprend 9, 18 ou 27 aiguilles alignées dans le sens de la
hauteur par 9. Une 27 aiguilles permet une meilleure qualité qu'une 9, même si
les 9 aiguilles permettent de repasser plusieurs fois sur la même ligne,
améliorant le rendu. Certain modèles d'imprimantes utilisent des rubans de
différente couleur (noir, rouge et bleu) mais ne permettent pas une impression
simultanée noire - couleur.
La vitesse d'impression n'est pas donnée en pages par minute mais en nombre
de caractères par secondes (cps) ou en nombre de lignes imprimées par
secondes (lps).
Les composants d'une imprimante aiguille:
 moteur d’entraînement pour le papier, à picot pour les listings mais aussi
feuille à feuille.
 une barre de fer autolubrifiante perpendiculaire au passage du papier qui
sert de guide à la tête d’impression.
 la tête d’impression qui inclut les aiguilles et une électronique de contrôle
de ces aiguilles
 un câble (généralement circulaire) qui permet le déplacement de la tête de
gauche à droite et inversement.

Page 10/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
L’entretien d’une imprimante à aiguille est simple :
 nettoyage de la barre à l’aide d'un petit essuie sec (éventuellement avec
un produit alcoolisé), pour les applications industrielles, graissage
 vérification du câble de déplacement latéral de la tête
 démontage de la tête complète pour la faire tremper dans un bain à base
d’alcool.
Les deux dernières sont les réparations les plus courantes.
Généralement, toutes les imprimantes à aiguilles sont compatibles avec le pilote
Epson FX80 (9 aiguilles), éventuellement IBM ProPrinter.

1.8. Winlaser - GDI


Une imprimante laser de type Winlaser (souvent appelé GDI chez la majorité
des fabricants) est moins chère mais n'inclut pas de mémoire Ram. Le pilote
générique est directement fourni par Microsoft pour les anciens modèles,
spécifiques pour les imprimantes actuelles. L'ordinateur envoie les données
formatées à l'imprimante prêtes à l'impression. Ces imprimantes sont difficiles à
paramétrer, avec quelques incompatibilités avec des logiciels sous Windows et ne
fonctionnent pas sous DOS. Elles doivent être connectées avant le démarrage de
l'ordinateur, sinon elles ne sont pas toujours reconnues. Utilisant la mémoire et
les ressources processeur du PC, elles sont généralement plus lentes.

1.9. Postscript
Le langage Postscript est un format de fichier images et textes qui permet de
transférer et d'imprimer directement les données (en théorie) et proposé comme
option sur certains modèles laser. Les différents points ne sont codés sous forme
de position / couleur mais par une notation vectorielle (coordonnée de départ,
angle et longueur d'une ligne par exemple).
Elles sont principalement employées par les ordinateurs de marque Apple (Mac).

Page 11/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Présentation des technologies d’affichage

2. Ecran à tube cathodique et plat (TFT, LCD - LED et Plasma)


2.1. Introduction

On trouve actuellement deux types d'écrans (moniteurs): à tube cathodique


(CRT, disparus), à cristaux liquides (TFT et dérivés, LCD et LED) mais aussi
plasma et OLED (basés sur une technologie différente). Débutons par les
caractéristiques globales.
La première est la taille (dimension). Passons les anciens 11", 12", 14" et 15"
pour arriver au standard actuel: le 17", malgré la faible différence de prix avec
les écrans 19". Ces dimensions correspondent à la distance entre 2 coins
opposés en diagonale. En écran LCD, c'est la taille réelle, dans les anciens
cathodiques, le tube est en partie caché, réduisant la taille effective de
l'affichage. La majorité des écrans utilisent un rapport 4:3, les modèles au
format Wide (également utilisés pour les écrans d'ordinateurs portables)
reprennent un rapport
16:10, comme en
télévision. Résolution horizontale X résolution
Norme
verticale
La première est la
résolution maximum, le VGA 640 X 480
nombre de points affichés.
Tous les écrans actuels SVGA 800 X 600
sont minimum SVGA. La XVGA 1024 X 768
résolution maximale de
l'écran représente le SXGA 1280 X 1024
nombre maximum de
points qu'il peut afficher. HDTV 1920 X 1080
Elle indique le nombre de
HDTV
pixels (points) affichable à 1920 X 1200
plus
l’écran suivant la largeur et
la hauteur. En écran TFT et QXGA 2048 X 1536
LCD, la résolution à utiliser
est celle maximum. En inférieur, la qualité de l'image est réduite. En cathodique,
la résolution maximum est rarement utilisée, l'image devenant souvent floue ou
même scintille.
Par contre, le nombre de couleurs affichées dépend principalement de la carte
graphique (notamment de la mémoire RAM et de sa configuration. Les anciennes
cartes graphiques n'acceptaient pas toutes les palettes de couleurs en fonction
de la résolution, les modèles actuels oui mais avec des pertes de performances
pour les hautes résolutions. L'œil humain ne décerne que 16 millions de couleurs
(14 bits).
La fréquence verticale (de ligne) en Hz donne la fréquence de rafraîchissement
de chaque ligne de l'écran. Située entre 30 et 100 Hz avec des fréquences
supérieures pour les grandes tailles. La carte graphique a aussi une fréquence
d'échantillonnage maximum liée au RAMDAC, si la fréquence verticale de l'écran
Page 12/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
est inférieure à celle de la carte graphique, l'écran décroche en fréquence,
nécessitant un paramétrage manuel au niveau de la configuration de la carte
graphique.
Une caractéristique est la fréquence image qui varie avec la résolution.
Exprimée en Hz, elle représente le nombre de fois que l'image est affichée par
seconde. Les caractéristiques minimum sont de 72 hertz pour éviter des
scintillements de l'image, fatigants à la longue. Plus cette fréquence est élevée,
meilleur est l'affichage. Ceci explique aussi les problèmes avec les très anciens
écrans entrelacés, disparus fin des années 90.
L'affichage est constitué d'une multitude de points, le nombre dépend de la
résolution. La finesse du contour de ces points est appelée dot pitch ou pas de
masque. Plus il est faible, meilleur est la qualité de l'image. Si un écran
standard est caractérisé par un dot pitch de 0,28 mm, les meilleurs descendent à
0,22mm. Le dot pitch dépend du type de tube cathodique (et du type de grille),
de technologie utilisée pour les LCD et de la taille de l'écran. Le dot pitch
représente la distance séparant deux points de couleur différente dans un même
pixel.
Les moniteurs utilisent des normes d'économie d'énergie (extinction de
l'écran par l'ordinateur après un certain temps paramétrable d'inactivité) comme
le DPMS et autres. D'autres normes gèrent le rayonnement (émission)
électromagnétique induit par le tube cathodique, ce sont d'abord les normes LR
(Low Radiation) comme le DPR 2, suivies, principalement sous l'impulsion de
NOKIA et des syndicats suédois, par le TCO92 et TCO95 qui intègre en plus le
DPMS et des normes de recyclage. Le TCO99 intègre de nouvelles normes
d'économie d'énergie. La dernière en date, l'Energy Star reprend différentes
gestion de l'énergie, mais aussi de rendement. Il est adapté aux appareils
électriques mais aussi aux bâtiments. La majorité des normes de radiation n'ont
plus de raison d'être avec les écrans plats.
Les contrôles (luminosité, contraste, décalage de l'image, …) se font
actuellement de manière digitale, à l'aide d'un menu sur l'écran.

2.2. Les écrans plats


Souvent appelés écran plat, ils n'utilisent plus un tube, mais des matrices de
cristaux liquides, un peu comme si on insérait une LED dans chaque point à
afficher. Ceci réduit l’épaisseur de l’écran (design) mais aussi la consommation
liée à la haute tension utilisée dans l'ancienne technologie.
Les principales distinctions entre les technologies sont le temps de réponse (en
ms), le taux de contraste entre le noir et le blanc entre deux points contigus (les
meilleures permettent jusque 1000:1), les angles de visions horizontaux et
verticaux (jusque 170°), la luminosité (exprimée en candela par mètre carré
(300 cd/m² par exemple), la fréquence maximum de rafraîchissement
(typiquement 75 hz) et le dop pitch.
La deuxième différence est le type de signal utilisé. En cathodique, le signal est
analogique, donc soumis à des interférences extérieures électromagnétiques.
Dans un écran plat, le signal utilisé est numérique (même si les écrans actuels
utilisent encore souvent le connecteur VGA nécessitant de retransformer
l'analogique en numérique). En gros, le signal est convertis par la carte
graphique en signal analogique via le ramdac pour être retransformé en

Page 13/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
numérique dans l'écran. Les câble DVI ou HDMI sont numériques, d'où l'intérêt
de connecter votre LCD via ces câbles.
Dans les écrans plats, on trouve 4 technologies (seules les deux dernières sont
utilisées en TV):
 DSTN, aussi appelé à matrice passive pour les anciens ordinateurs
portables
 TFT appelé également à matrice active qui permet une meilleure
luminosité et un meilleur contraste. Elle augmente également l'angle de
vision par rapport à l'affichage. C'est la technologie utilisée actuellement
pour les écrans portables et pas les écrans bureautiques les moins chères
(les meilleurs utilisent la suivante).
 LCD: permettant de nouveau un meilleur contraste mais également des
dimensions supérieures, cette technologie est utilisée dans les écrans
standards, avec une consommation un peu supérieure
 LED: deux technologies sont dérivées du LCD, une troisième (OLED) est
spécifique.
 Plasma, utilisant l'illumination d'un gaz soumis à une charge électrique,
pour les grandes dimensions

2.3. DSTN, matrice passive


La DSTN (Dual Scan Twisted Neumatic) allume uniquement des points situés au
croisement d'une ligne et d'une colonne (d'où la mention de matrice) les uns
après les autres. Chaque point est constitué d'un cristal liquide par point qui
suivant l'angle de rotation fait passer la lumière d'une dalle lumineuse à travers
trois filtres vers l'écran. Les cristaux liquides sont directement gérés par un
signal électrique venant de l'inverter. Cette technologie n'utilise pas de
transistors pour le contrôle, réduisant les temps de réponses et le contraste de
l'affichage mais avec un prix de revient plus faible. Ils ne permettent pas non
plus des angles de vision importants. Différentes firmes ont essayé de l'améliorer
comme Toshiba et Sharp avec le FastScan HPD (Hybrid Passive Display) qui
offre de meilleurs temps de réponse (150 ms au lieu de 300 et un contraste plus
élevé de 40:1, pour 30:1 pour la technologie standard et le HPA (High
Performance Adressing), similaire au HPD mais développé par Hitachi.
Ces technologies ne sont plus utilisées.

2.4. Matrice active


Un écran à matrice active TFT (Twin Film Transistor) utilise également une
matrice de points de cristaux liquides avec un rétro-éclairage (généralement
appelé la dalle). Chaque point utilise trois cristaux (un par couleur) et chaque
cristal est géré par un transistor. La lumière est envoyée à partir d'une dalle
lumineuse à travers un filtre polarisateur avant d'atteindre la matrice de cristaux.
En passant à travers un second filtre polarisateur, elle est inversée à 90° et
passe dans un troisième filtre avant d'atteindre l'écran.
Cette technologie permet un excellent contraste de l'image (de 150 à 200 : 1) et
des temps de réponses supérieurs (25 à 50 ms).

Page 14/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
2.5. Ecrans LCD
Dans le cas du TFT, les cristaux liquides sont clairement dissociés. Le LCD est
similaire mais intègre les électrodes dans deux plaques de verre dans lesquelles
elles sont complètement noyées. Entre les deux, on dispose un liquide cristallin
similaire aux cristaux liquides ci-dessus mais nettement plus compacts. C'est
également la différence de tension qui va modifier l'alignement de l'ensemble du
liquide mais chaque électrode est gérée par un transistor, ce qui améliore le
temps de réponse. Le gros avantage par rapport à la technologie précédente est
un contraste encore plus élevé (typiquement 1000:1), l'augmentation de l'angle
de vue et ... de la luminosité. C'est la technologie utilisée actuellement pour les
écrans standards et les télévisions de petites tailles.
Pour le reste, le fonctionnement
est identique aux deux précédentes:
Le boîtier intègre une succession de
couches superposées. La première
intègre une dalle lumineuse qui
éclaire uniformément la surface de
l'écran. Il est alimenté par une carte
électronique appelée Inverter (carte
alim-neon en Français). Cette carte
convertit le 12 volts continu en une
tension d'environ 1000 Volts en
alternatif. Outre le convertisseur en
lui-même, un piezo (quartz) assure
la fréquence de l'horloge. C'est
souvent cette carte qui tombe en
panne sur les écrans LCD: l'affichage
devient sombre. Pour vérifier si c'est
bien l'inverter, utilisez une lampe de poche pour éclairer l'écran.
Ensuite, on place sur toute la surface de l'affichage un premier filtre polarisateur
suivi des cristaux liquides (TFT) ou d'un liquide cristallin (LCD), composée de
bâtonnets. En l'absence de charge électrique, les cristaux sont repliés sur eux-
mêmes et empêchent la lumière de passer. Entre ces 2 couches se trouvent un
réseau de transistor (TFT) ou grille d'électrode (LCD) qui contrôle électriquement
la position des cristaux. Une simple impulsion électrique et le bâtonnet se
redresse, permettant le passage de la lumière. Chaque pixel est associé à 3
bâtonnets (1 par couleur), chacun contrôlé par son propre transistor ou
électrodes. La résolution maximale de l'écran est fonction de pixels, soit du
nombre de transistors associés. Pour un LCD 15" avec une résolution de
1024*768, 2.539.296 transistors et cristaux sont utilisés. Ces écrans sont noirs
au repos.

2.6. LED
Trois techniques sont utilisées actuellement:
1. Quasiment identique à celle des LCD, seule la dalle est constituée de LED
2. L'éclairage se fait en insérant des LED sur les coté et non plus à l'arrière:
seul avantage, la diminution de l'épaisseur de l'écran. Par contre, comme
la lumière n'est pas directe, une perte de rendement.

Page 15/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
3. OLED, totalement différente, qui n'utilise ni de dalle, ni de cristaux
liquides. Chaque point reçoit une LED à triple entrée (une par couleur de
base). En jouant sur la tension appliquée sur chaque borne, on allume plus
ou moins chaque couleur.
Ces trois technologies ont l'avantage de consommer moins que les technologies
LCD standards tout en permettant (pour la troisième) des affichages de grande
taille. L'OLED va probablement à court terme remplacer le Plasma, trop coûteux
à produire.

2.7. Le Plasma
Dernière technologie utilisée pour les écrans, le plasma, principalement pour les
très grandes dimensions, notamment télévisions. Le principe utilise un gaz
constitué de 10 % de xénon et 90 % d'Argon qui émet une lumière lorsqu'il est
soumis à une tension électrique. Chaque pixel regroupe trois cellules (une par
couleur de base), elles-mêmes renfermant un plasma de ce gaz ionisé. Chaque
point est illuminé à tour de rôle. Chaque cellule permet 256 niveaux d'éclairage
suivant la tension appliquée mais ne produit que de la lumière invisible dans la
gamme des ultra-violets. Ce sont les luminophores associés à chaque cellule qui
produisent les trois gammes de lumière visible. Le nombre de couleurs possibles
par point est de 2563, soit 16 millions de variantes, la distinction maximum de
l'œil.
Cette technologie n'est principalement utilisée pour les télévisions et écrans à
partir de 35". Par rapport aux LCD, elle est plus chère, consomme plus (même si
la consommation dépend de l'image: pas en noir et importante en blanc), a une
durée de vie plus faible (de 30 à 50.000 heures pour 50 à 60.000 en LCD) et est
sensible aux brûlures de pixels lorsque l'image reste statique. Pourtant, le
contraste est encore plus élevé et la vitesse de réponse est également
supérieure. De toute façon, le LCD est limité à des tailles d'écran inférieures à
50". La différence de choix entre un LCD et un plasma dépend finalement de la
taille de l'affichage.

2.8. Ecrans transflectifs


Le principal problème de ces
afficheurs est l'affichage dans
des milieux fortement éclairés,
utilisés par exemple pour des
affichages en vitrine et
extérieurs. Pour toutes ces
applications extérieures, la
solution est d'augmenter la
luminosité en plein jour et de
la diminuer lorsqu'il fait
sombre, mais cette technique a
des limites.
La solution utilisée
actuellement est la suivante.
Dans un écran plat standard, la
lumière extérieur (ici en jaune) va éclairée la partie cristaux liquides réduisant la
luminosité de l'image. Dans un écran transflectif, on modifie la partie "pilotage
Page 16/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
LCD" en laissant passer la lumière de l'extérieur (donc pas de réverbération),
ensuite, un filtre spécial est inséré entre la dalle lumineuse et la partie cristaux
liquides qui va renvoyer la lumière vers l'extérieur, augmentant la luminosité de
l'afficheur.
Cette technique est utilisée pour les affichages de PDA mais aussi pour des
installations de très grandes tailles. La luminosité passe de 200 à 300 cd/m² à
1200 - 1500 cd/m². Cette technologie peut-être couplée avec les technologies
tactiles.

2.9. Les écrans cathodiques

En écran cathodique, deux types


sont utilisés: les fréquences fixes
(obsolètes) et les analogiques. Les
écrans à fréquences fixes
permettent des valeurs discrètes
(généralement trois fréquences
fixes différentes par résolution).
Les modèles analogiques
détectent toutes les fréquences
inférieures à la fréquence
maximale pour se paramétrer sur
celle de la carte graphique. Lors d'un changement de fréquences en analogique,
l'écran s'éteint quelques secondes, le temps de retrouver la fréquence adéquate.
Le principe de fonctionnement d'un tube cathodique est identique à celui des
Télévisions. L'écran renferme un canon à électron qui produit un faisceau
d'électrons (1) projetés sur la dalle (la partie affichée de l'image) à travers un
mécanisme électromagnétique de positionnement de l'électron sur la dalle. Il est
constitué de deux déflecteurs haute tension, un vertical et un horizontal (2 et 3
sur le schéma). Le bout du tube est recouvert selon le type de tube d'une grille
percée de trous (Shadow Mask) ou de fils tendus (Trinitron) (4) qui permet
d'afficher uniquement à un point donné pour un pixel de l'écran. Une fois passée,
l'électron atteint la face visible du tube recouverte d'une couche luminophore
suivant les trois couleurs de base: rouge, vert et bleu. Au contact, le
luminophore s'excite et produit un flux lumineux. Pour un affichage correct sans
pertes, un luminophore doit être régénéré toutes les 13.33 ms, soit 75 fois par
seconde (75 Hertz), ce qui correspond à la fréquence image de l'écran vue plus
haut
Comme l'image est séparée en trois couleurs, le canon à électron doit envoyer
les électrons suivant 3 filtres. Les trinitron utilisent directement trois canons.
Chaque faisceau associé à une couleur est envoyé sur une zone propre de l'écran
dans un même pixel, suffisamment proches pour une juxtaposition et
suffisamment éloignée pour ne pas interférer entre eux.
Trois technologies sont (étaient) utilisées:
 le Trinitron (Sony) offre un meilleur rendu des couleurs, une image plus
lumineuse et plus précise en utilisant des fils tendus comme grille, ce qui
donne des points carrés et pas ronds (en plus de trois canons distincts).
Ces écrans Trinitron se remarquent par 1 ou 2 lignes horizontales visibles
sur l'écran.
Page 17/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 le masque d'ombre INVAR (Invar Mask) utilise une grille percée de
trous ronds, on le retrouve dans les modèles de bas de gamme mais aussi
dans des modèles supérieurs
 le masque d'ombre traditionnel en acier, obsolète.
Pour les grands écrans, de nouveaux types d'Invar Mask sont utilisés permettant
des qualités d'affichage identiques, sinon supérieures aux Trinitron.
Les écrans plats CRT utilisent un tube cathodique plat. La surface visible est donc
plate. Outre le confort de travail, leur précision d'affichage, couplé à un tube
cathodique approprié, les rendent parfait pour de nombreuses tâches: dessin,
conception assistée par ordinateur ou retouches d'images, principalement pour
de longues heures de travail. Les écrans coins carrés affichent l'image sur
l'entièreté du tube, augmentant ainsi la taille maximum de l'affichage.
Certains modèles sont traités antireflet et antistatique. Ceci se fait en recouvrant
le tube cathodique d'une pellicule spéciale.

2.10. Comparaison des technologies


2.10.1. Ecrans CRT avec les TFT et LCD

Les 2 types se distinguent par la taille de l'affichage. Les écrans cathodiques sont
désignés par la dimension du tube. La taille de l'affichage est donc inférieure que
celle annoncée. Le tableau ci-dessus reprend en gros la correspondance des
différences de tailles.

Diagonale d'écran plat Diagonale d'écran cathodique

13,3" 15"

14,1" 16"

15,1" 17"

18,1" 20"

20" 23"

Même si la technologie TFT permet un meilleur contraste que les DSTN, les
écrans cathodiques sont généralement supérieurs (mais ça évolue). Ils
permettent également de modifier la résolution sans perte de qualité, les écrans
plats ont une résolution imposée.
Sauf pour les écrans LCD et plasma de haut de gamme, le rendu des couleurs est
également supérieur pour les CRT standards. Ceci explique que les infographistes
utilisent encore souvent ces derniers.
Par contre, un écran LCD a de nombreux avantages comme l'encombrement ou
le design. Une dernière raison d'utiliser ces écrans est liée à leur consommation
plus faible. En 2008, la majorité des constructeurs ont complètement abandonné
les écrans à tubes cathodiques.

Page 18/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
2.10.2. Comparaison des technologies « plats »
On va oublier les TFT et DSTN, plus vraiment d'actualité, pour se concentrer sur
le LCD, les différentes technologies LED et Plasma.
La technologie la plus répandue est le LCD (les deux premières technologies LED
ne sont que des adaptations). Comme avantage, un prix de revient (donc de
vente) plus faible. La première technologie LED qui remplace finalement la dalle
par des LED a l'avantage de consommer moins mais pour un prix de fabrication
(pour l'instant) plus élevé. Cette solution est principalement utilisée pour les
ordinateurs portables de haut de gamme et quelques Netbook. Le principal
défaut de ces deux technologies est lié à la taille maximale de l'affichage (même
si on peut toujours les mettre un à côté de l'autre, technologie utilisée par
Matrox avec des cartes graphiques spéciales).
Pour les grandes surfaces d'affichage (à part les vidéoprojecteurs), l'OLED et le
plasma sont actuellement identiques mais la consommation du deuxième couplé
avec les avancées technologiques des composants LED les rendent quasiment
obsolètes malgré des contrastes plus élevés actuellement. C'est surtout au
niveau des très grandes tailles que le LED prend son envol pour les affichages
publicitaires. Plusieurs fabricants ont déjà arrêté la fabrication des plasmas

Page 19/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Acquisition des images : Appareil photo numérique et scanner

3.1. Les scanners


Pour l'acquisition de photos, on retrouve 3 techniques distinctes: scanner à main,
à défilement (identique aux fax) et à plat. Les deux premières ont quasiment
disparues. Tous permettent l’acquisition de différentes tailles : A4, A4+, jusqu'à
A3 et A2 pour des modèles professionnels spécifiques. Les connexions possibles
vers l'ordinateur sont les ports SCSI externe, parallèle et USB. Actuellement, ils
sont quasiment tous connectés en USB 2.0 (15 MB/s), même si l'interface USB
1.1 est compatible. C’est le seul port qui accepte de se connecter à chaud (sans
redémarrer l'ordinateur) si le logiciel est préalablement installé. La majorité des
fabricants les ont implantés dans les AIO (multifonction) qui permettent
d'imprimer, scanner et copier, voire de faxer, ... mais avec une résolution et une
qualité d'image le plus souvent inférieure.

3.1.1. Les pilotes


Les scanners sont pratiquement tous pilotés par un programme (driver)
compatible TWAIN qui sert d'interface entre les logiciels de traitement d'image
courant et le scanner pour l'acquisition. Par contre, le driver est spécifique à
chaque modèle de scanner.
Les pilotes actuels sont incluent des solutions complémentaires: reconnaissance
automatique du type de document (couleur, Noir et Blanc, textes, images,
dessins, …), correction automatique des images (amélioration des images en
agissant sur les tons, couleurs et netteté), gestion automatique des couleurs
(restitution identique des couleurs sur l'imprimante et l'écran). Certains pilotes
découpent le document en partie suivant le type (photographie, graphique,
texte, ...).

3.1.2 La résolution et la palette


La résolution correspond au nombre de pixels (points) qu'un scanner peut faire
l'acquisition par pouce, l'unité est le dpi (dot per inch, points par pouce) et peut
être différente en largeur et en longueur. Un pouce (mesure anglophone)
équivaut à 2,54mm. Elle est souvent définie dans les fiches commerciales en
résolution optique et logicielle. La résolution logicielle est une extrapolation des
points de couleurs et ne donne pas de détails supplémentaires de l'image, mais
affine les différences nuances de couleurs, augmentant la taille du fichier image.
Pour des photos standards, une résolution de 200 dpi (même 150 dpi) est
souvent suffisante, sauf si vous souhaitez agrandir l'image: doubler la taille de
l’image originale réduit la résolution par deux. Pour les sites Internet, envois par
mails, n'ont pas besoin d'une résolution importante (sauf impression) et peuvent
être de 70 dpi.
Chaque scanner utilise une palette de couleurs exprimée en bits. Les scanners
actuels utilisent une palette de 36 ou 42 bits (plus pour les modèles
professionnels): 36 bit permet la distinction entre un peu plus de 68 milliards de

Page 20/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
couleurs différentes. En niveaux de gris (noir et blanc), le nombre de nuances est
généralement divisé par 3 par rapport à celle en couleur.
Les caractéristiques d'un scanner ne se limitent pas qu'à la résolution et au
nombre de bits d'encodage des points: la qualité de l’optique donne souvent des
images de qualités différentes (c'est aussi le cas pour les appareils photo
numériques ci-dessus). La netteté des contours des points influence également la
qualité de l’image. Comme souvent en traitement d'image, à note technique
égale, les scanners des haut et milieux de gamme sont nettement meilleurs que
les prix bon marchés.
Scanner à méthodes d'impression d'imprimeries, l'impression haute qualité avec
une photo scannée en 200 dpi donne un meilleur résultat qu'un scannage de 600
dpi. Si la résolution de l'acquisition est trop haute, des lignes visibles
apparaissent à l'impression avec les imprimantes jet d'encre tous les 1 cm
environ.

3.1.3. Le détramage
A cause du mode d'impression en imprimerie, les magazines, certains journaux
et imprimés donnent des effets de quadrillage à la numérisation. Le tramage est
un traitement logiciel qui consiste à convertir les photos en une série de points
ou de lignes. Ceci fait disparaître (ou au moins l'atténue) cet effet de moiré entre
les points et les pixels qui rend l'image scannée difficilement utilisable. C'est une
option qui n'est pas implantée dans les scanners de bas de gamme et encore
plus rarement dans les modèles d'imprimantes tout en 1. L'efficacité et le temps
du traitement varient en fonction des modèles.

3.1.4 Le fonctionnement d’un scanner à plat.


Le principe de fonctionnement d'un scanner de bureau est relativement simple:
une source lumineuse se déplace prêt de la surface du document, la lumière est
réfléchie et récupérée par un capteur photosensible qui convertit la lumière en
tension électrique, en fait une valeur analogique qui est convertie en signal
digital à l'aide d'un convertisseur. Avant le transfert vers l'ordinateur, l'image est
mise en forme par un microcontrôleur.

Deux technologies différentes sont utilisées.


Le plus chère est le CCD (Charge Coupled Device ou capteur à transfert de
charge) déjà rencontré avec les équipements photo numériques. Il utilise une
technologie à semi-conducteur formée de nombreux éléments assemblés
capables de recueillir (parfois via un autre composant), enregistrer et transférer
les charges électriques reçues. Chaque CCD reprend une couleur de base sur un
Page 21/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
pixel. En cas d'exposition à une source lumineuse (lampe au Xénon
généralement), chaque CCD est chargé électriquement par des photons
lumineux, la charge de chaque CCD est transférée à tour de rôle vers un à un
amplificateur de sortie qui la convertit en signal électrique mesurable. Le capteur
est fixe, le signal lumineux à partir de la source utilise une glace qui assure la
transmission. Celle-ci additionné au cheminement de la lumière à l'intérieur du
scanner entraîne une perte de qualité du signal lumineux, dégradant l'image.
De prix inférieurs, les scanners
CIS (Contact Image Sensor ou
capteur d'images par contacts)
sont les plus courants
(notamment utilisés dans les
imprimantes multifonctions.
Basés sur une technologie
similaire au CCD, le chariot de
déplacement intègre la source
lumineuse et les capteurs lumineux de récupération de la charge lumineuse dans
les capteurs. Avantage, la lumière ne passe pas l'intérieur du scanner via un
miroir (donc moins de perte). Le défaut vient de la vitesse de déplacement du
chariot qui entraîne des pertes de netteté.
La source lumineuse est souvent constituée de LED suivant les 3 couleurs de
base, une lentille cylindrique assurant la convergence du résultat vers les
capteurs, le tout étant intégré dans une même cellule.
Sans miroir, ni objectifs, ils sont moins encombrant que les modèles CCD. Cette
technologie est utilisé dans les appareils intégrés AIO (Imprimante, scanner,
photocopieuse).
Une fois le signal lumineux récupéré sous forme de charge électrique, il est
convertit en signal électrique digital. Comme les courbes de réponses des CCD ne
sont pas parfaitement linéaire, un microcontrôleur spécialisé (éventuellement un
DEP, assure la correction suivant les différentes palettes de couleurs et la
conversion de l'image brute en un format de fichier photo informatique (Jpeg est
le plus courant). Outre le format du fichier image, le microcontrôleur intègre
différents contrôles pour assurer la compatibilité avec les logiciels de retouche
photo qui n'acceptent généralement que 8 bits par couleur de base alors doit
également s'assurer que le logiciel comprend les images. La majorité des
logiciels de traitement d'images n'acceptent que 8 bits maximum par couleur, les
scanners autorisent 10, 12 ou même 14 bits par couleur.

3.1.5. L’OCR
L'OCR, logiciel de reconnaissance de caractères, permet de traiter des textes
numérisés comme des documents éditables par Word, Writter (openOffice), …
Ces logiciels se basent sur une langue de reconnaissance. En cas de difficulté
pour reconnaître un caractère, le logiciel vérifie le mot dans le dictionnaire le plus
proche. Une reconnaissance parfaite à 100 % n'existe pas, même avec des
versions complètes du logiciel qui sont associés à des correcteurs
orthographiques pour améliorer le reconnaissance (les logiciels fournis avec le
scanner sont généralement en version lite). La taille de caractère et la police de
caractère utilisée influencent aussi le niveau de reconnaissance.

Page 22/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
3.2. L’appareil photo numérique
Le fonctionnement est simple et complexe à la fois. Comme dans un équipement
classique, l'image passe par différentes lentilles optiques. Par contre, la réception
de l'image se fait grâce à un CCD (Charged Coupled Device), une cellule photo-
sensible qui transforme la lumière en charges électriques et la transporte.
Ce composant reprend deux parties, la première récupère la charge lumineuse,
souvent par un condensateur dont la charge varie en fonction de la luminosité,
pour les modèles les plus performants une photodiode dont le rendu est meilleur,
et un mécanisme de transfert. Celui-ci va transférer les différentes charges des
points à tour de rôle sui un agencement de ligne et de colonnes.
Quelques modèles utilisent deux rangées de cellules, la première récupère les
informations et la transfère vers la deuxième directement. C'est la deuxième
matrice de CCD qui assure le transfert vers le convertisseur charge - tension
pour reproduire la photo.
Un CCD ne voit que des nuances de gris: charge nulle pour du noir, maximum
pour le blanc. En filtrant suivant les 4 nuances de couleurs (rouge, bleu et deux
nuances de vert), on obtient par exemple: 256 nuances de rouge * 256 nuances
de bleu * 256 nuances de vert soit 16.777.216 couleurs différentes (le vert est
difficile à transposer et utilise 2 matrices de CCD).

Les appareils photo-numériques MEGAPIXEL permettent plus d'un million (Mega)


de pixels dans le capteur optique (en fait, 4 millions de cellules CCD). La
résolution réelle de l'image utilise donc la résolution maximum de la fiche
technique du modèle (par exemple 1600 * 1200) divisée par 4 (un filtre rouge, 2
filtres verts et un bleu), ce qui donne le nombre réel de pixels, soit 0,48 au lieu
des 1,9 millions de pixels annoncés par le fabricant. Chaque CCD a une taille de
0,15 microns, en multipliant cette donnée par 4, on obtient en gros la taille réelle
d'un pixel, soit 60 Microns. En général, un pixel d'appareil photo numérique est
codé sur 12 bits: on obtient finalement pour une résolution de 2 Megapixel une
taille de photo de 12 MB en mode non compressé mais généralement les formats
images utilisés sont le JPG ou des formats RAW propriétaires aux fabricants. Une
dia de 35 mm reprend 100 fois plus d'informations, la photo standard est donc
nettement supérieur.
Les appareils actuels implantent différentes techniques supplémentaires pour la
prise de photo comme par exemple:
 Zoom optique, logiciel: comme pour un scanner, le zoom optique est le
zoom réel (les plus performants acceptent jusque 24 X, un numérique
standard permet généralement 5 X). Le zoom logiciel utilise une

Page 23/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
extrapolation des points, permettant une amélioration visuelle de l'image à
l'impression mais en perdant une restitution réelle de la photo, tout en
augmentant la taille du fichier.
 Afficheur LCD pour voire directement les photos sur l'appareil numérique
ou même pour le configurer.
 Mode Macro: cette fonction permet de prendre des photos d'objets petits
et proches en utilisant le zoom standard. Le mode macrophotographie
utilise des équipements spécifiques, pour la photographie d'objets de
petites tailles, insectes, ... de loin.
 Mode panoramique: permet de prendre plusieurs photos d'un panorama
et de les coller entre-elles.
 Mode caméra: permet de filmer de petits films avec votre appareil photo,
y compris le son.
 Anti-mouvement: correction automatique lors du déplacement de
l'appareil en mode prise de vue.
 Zoom supplémentaires (téléobjectifs). permet d'augmenter le niveau
du zoom interne en ajoutant un zoom supplémentaire comme dans les
appareils photos standards.

3.2.1. Types de mémoires flash


Si Sony a développé quelques modèles utilisant des disquettes insérées dans
l'appareil, cette technique est remplacée par des mémoires flash, plus rapides et
de nettement plus grosses capacités. Les mémoires flash permettent la lecture et
l'écriture comme une RAM, mais conservent comme une ROM les informations en
l'absence d'alimentation. Par contre, le nombre d'écritures est limité à quelques
milliers. Si on trouve des appareils contenant des mémoires de 64 MB, les
nouveaux appareils acceptent jusque 8 GB (on peut en rajouter suivant les types
ci-dessous). Une mémoire de 4 GB permet par exemple de sauvegarder 1240
photos en 1880 X 2130 pixels au format JPG (appareil 4 Méga pixels).

3.2.1.1. La Memory Stick


Développée à partir de 2000 par Sony et Sandisk, ce type
de mémoire série n'est quasiment fabriquée que par Sony.
Les dimensions standards du boîtier sont de 50,0 mm
(largeur) x 21,5 (Hauteur) x 2.8 mm (épaisseur). Il inclut
la mémoire flash et le contrôleur. La capacité actuelle maximum atteint les 4 GB
en Pro Duo.
On distingue plusieurs types de Memory stick:
1. Standard: vitesse de transfert de 14.4 Mb/s (19.6 Mb/s maximum)
2. Pro: incompatible avec la version standard, elle offre une vitesse de
transfert supérieure: (15mbps en standard mais jusque 160 Mbps
maximum.
3. Magicstick Duo: dérivé de la version standard, elle augmente la capacité
du media (en restant compatible). Insérée dans un lecteur standard, elle
n'accède qu'à la moitié de la capacité. Elle est basée sur la version Pro.

Page 24/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4. Magic Stick Pro Duo, dérivée des deux versions précédentes avec des
dimensions inférieures. Des adaptateurs (modèle Mark 2 de Sony)
permettent de les utiliser dans les anciens appareils.
5. Avec Magic Gate, Sony introduit un codage (protection des données).

3.2.1.2. La Secure Digital (SD – SDHC), la plus courante


Développée à partir du début des années 2000 par SanDisk (encore), Matsushita
Electronic et Toshiba, la SD Card est également utilisée dans les appareils
photo-numériques, Caméoscopes digitaux, PDA, ... Les dimensions sont
normalisées: 24mm de haut, 32mm de large et 2,1 mm d'épaisseur. Le transfert
des informations (mode série) utilise un connecteur de 9 broches
En version standard, la vitesse de transfert est de 2 MB/s. Depuis 2006, la
version Secure Digital High Capacity (SDHC) est utilisée pour les mémoires de
capacité supérieure à 2 GB. Avec ces cartes mémoires, de nouvelles normes
gèrent la vitesse de transfert à 2 Mb/s (Classe 2), 4 MB/s (classe 4) et 6 Mb/s
(classe 6).
Ces mémoires intègrent une
protection contre le piratage
(CPRM - Content Protection
Media) en cas de copie de
musique, film vidéo, ...:
limitation à 3 copies
maximum
La version MicroSD est identique. De dimensions plus petite (11 mm x 15 mm x
1 mm), elle est utilisée pour les téléphones mobiles. Elles sont utilisables en
photo numérique via un adaptateur.

3.2.1.3 La compact flash

La plus ancienne (1994) est la Compact Flash (CF en abrégé). Ici aussi, le
contrôleur est inclus dans le boîtier. Deux types sont développées, les types I
(épaisseur de 3,3 mm) et les types 2 (épaisseurs de 5 mm). Les autres
dimensions sont de 42,8 mm de largeur et 36,4 en hauteur. Les capacités
standards vont jusque 8 GB, même si la norme accepte jusque 137 GB. Ce
modèle disparaît.
Développées au préalable suivant la norme PCMCIA, elle utilise la même
technologie de transfert (en mode parallèle) si ce n'est que le nombre de broches
est de 50 au lieu de 68. Le connecteur PCMCIA accepte d'ailleurs directement les
Compact Flash. La tension d'alimentation (3,3 Volts ou 5 volts suivant le type)
est sélectionnée automatiquement lors de l'insertion de la carte.

3.2.1.4 La XD Picture Card


Commercialisées depuis 2002, les cartes Xd Picture Card sont principalement
utilisées par les appareils photos numériques de marque Olympus et Fujifilm
mais aussi dans des dictaphones et lecteurs MP3. Par rapport aux autres types
de mémoires, le contrôleur n'est pas intégré, il est repris directement dans
Page 25/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
l'appareil qui les utilise (donc prix plus élevé). Prévue comme remplaçante des
SmartMedia, elles restent compatibles en utilisant un adaptateur.
Sorti en 2005, le type M utilise des mémoires MLC (Multi Layer Cell) pour
augmenter la capacité jusque 8 MB, malheureusement au
détriment de la vitesse de lecture / écriture par rapport à la
première version.
Sorties à partir de 2006, le type H utilise une mémoire SLC
(Single Layer Cell - simple couche). Elle est la plus rapide (5
MB/s en lecture pour 4 en écriture) mais sa capacité est plus
limitée que le type M.
Tous les appareils photo-numériques acceptent le type
standard. Par contre, des incompatibilités existent entre les type H et M au
niveaux des lecteurs.
La taille maximum actuelle est de 2 GB, la norme prévoit jusque 8 GB. Les
dimensions sont de 25 mm de large, 20 mm de haut pour une épaisseur de 1,7
mm, avec un poids d'à peine 2 grammes. Le connecteur utilise 18 pins avec une
tension d'alimentation de 3,3 Volts

Page 26/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Lecteur et graveur CD / DVD, bandes, disques externes, …

4.1. Introduction
Les solutions de sauvegarde des données et programmes sont nombreuses.
Chacune a ses avantages et ses défauts. En gros, la majorité des solutions ne
permettent que de sauver les données.
 Les graveurs CD/DVD sont implantés dans
tous les ordinateurs actuels, y compris les
portables. Ils ne permettent que de sauver les
données. Autre problème, la sauvegarde n'est
pas automatique, sauf Vista et 7 qui incluent
cette fonctionnalité (mais en bloquant le graveur) avec le centre de
sauvegarde et restauration. Les données sont conservées moins de 10 ans
sur les médias.
 Les disquettes, ZIP, ... sont de trop faibles
capacités, les clés USB ne sont relativement
guère plus grosses (32 GB actuellement). De
plus, vous devez sauver uniquement des données manuellement et les
supports sont plutôt fragiles.
 Les lecteurs de bande ont un bon rapport prix / capacité mais sont lents
pour la sauvegarde, et plus encore lors de la restauration. Par contre, ils
permettent de sauver le système complet, y compris les programmes et
configurations systèmes (mais nécessitent de réinstaller Windows avant la
restauration). Cette solution permet de faire des sauvegardes à des heures
fixes automatiquement, ce qui explique son utilisation exclusivement
serveur réseau.
 Le backup de votre disque sur un deuxième disque dur (éventuellement
externe) ou connecté dans un dossier partagé en réseau d'un autre PC
permet de sauvegarder directement les données, mais pas les
programmes. Certaines solutions de disques durs externes permettent
néanmoins des sauvegardes automatiques suivant des horaires prédéfinis.
 Le clonage logiciel d'un disque dur ou d'une partition (le plus célèbre
est Ghost de Symantec, une fonction similaire est implantée dans Windows
Vista) permet de sauver l'ensemble de votre disque dur, d'une partition,
de recopier des disques durs ou même de faire des images de sauvegarde.
Malheureusement, une restauration efface tout le disque dur (ou la
partition) de destination, y compris les données non sauvegardées
(comme un CD de restauration de Windows). Le clonage nécessite le
partitionnement du disque dur (éventuellement un deuxième). La partition
principale reçoit les programmes, la deuxième intègre les données et
l'image de la partition principale reprenant Windows.
Les sauvegardes sont souvent un compromis entre la durée, la difficulté (tous les
utilisateurs ne sont pas techniciens), le coût et le niveau de sécurité souhaité
entre ces solutions. Les lecteurs de bande en SCSI pour serveurs (haute
capacité).

Page 27/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4.2. Lecteurs de CD-ROM

4.2.1. Interface
Les CD-ROM sont interfacés soit en E-IDE ou en SATA, plus rarement en SCSI.
La capacité standard d’un CD est de 640 MB (70 minutes de musique) mais plus
souvent de 700 MB (80 minutes de musiques). Les tailles supérieures (800 MB)
ne sont pas reconnues par les lecteurs standards mais peuvent également
endommager le lecteur / graveur. Les médias actuels autorisent 700 MB de
données (80 minutes). Les 286, 386 et premiers 486 utilisent une interface IDE
limitée à 540 MB. A l'époque, des cartes audio incluaient un port E-IDE dans ce
but.

4.2.2. Vitesse
La vitesse est normalisée comme X: 1 X équivaut à la vitesse de lecture d’un CD
audio, soit 150 kB/s. Cette vitesse est obtenue sur la partie externe du média et
pas lorsque le faisceau arrive vers le centre. Le lecteur diminue également
automatiquement sa vitesse en cas de difficulté de lecture (CD sale, abîmé). La
vitesse de lecture dépend aussi du temps d’accès du lecteur, différent d'un
modèle à l'autre. Les vitesses actuelles atteignent 56X

4.2.3. Le fonctionnement
Le CD permet sauver 640 (700) Méga-bytes sur un media d'un diamètre de 12
cm, comme les CD utilisés en audio.

Schéma de fonctionnement: un faisceau Vue au microscope électronique de


laser est envoyé vers le média à travers une la surface d'un CD: les données
lame semi transparente et un objectif de sont codées sous la forme de
focalisation et réfléchie (ou non) vers une cuvette (qui renvoient le faisceau)
détecteur et un amplificateur de signal. et de pics (pas de réflexion).
La lecture utilise un faisceau laser qui se déplace à la surface du CD. Les lecteurs
CD incluent une méthode de correction pour les CD abîmés, même si elle est peu
performante en données. Un CD rayé est de toute façon inutilisable. La lecture
des données se fait du centre vers le bord, sous forme de spirale.
Quatre technologies sont utilisées:

Page 28/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 le CLV (Constant Linear Velocity), obsolète. Le débit des données est
constant, la vitesse de rotation doit donc varier en fonction de la position
de la tête sur le media, plus lente à mesure que le faisceau se rapproche
de l'extérieur. Néanmoins, un lecteur 52 X implique un taux de transfert
supérieur de 52 X à un lecteur audio, ce qui est impossible à atteindre sur
la parties internes. A titre d'exemple, la vitesse de rotation sur un lecteur
4X varie entre 800 et 2120 tours par minutes. Pour un lecteur 52 X, ceci
entraînerait une vitesse variant de 10.400 à ...27.560 tours.
 Le Z-CLV est une évolution du
CLV et son principe est identique
sauf que la vitesse est constante
par paliers. Au début de la
lecture (ou de la gravure), c'est
la partie extérieure du disque qui
est utilisée. Conséquence, le flux
d'informations est élevé. Par
contre, plus on se rapproche de
la fin du disque (zone externe), plus le flux d'information à vitesse
constant est faible. Le disque tourne donc à une certaine vitesse pendant
la première partie de lecture, ensuite sur la partie suivante, la vitesse
augmente, et ainsi de suite. Cette technique en gravure intègre un
contrôle lié à une petite rupture du flux lors du passage d'un pallier à
l'autre.
 Le CAV ne travaille pas à un débit constant en faisant varier la vitesse
comme le CLV mais bien à vitesse angulaire constante. Le flux
d'informations transférées est donc constant qu'elle que soit l'endroit où se
trouve la tête de lecture.
 le PCAV est similaire (Partial Constant Angular Velocity). Cette
technologie est de type CAV mais permet des vitesses supérieures. Dans
le CAV et le PCAV, le taux de transfert est inférieure au centre par rapport
au bord du CD. Comme l'électronique (y compris le transfert vers la carte
mère) ne suivrait pas réellement pour les parties externes, le lecteur
repasse en CLV automatiquement à partir des 2/3 du disque et la vitesse
de rotation diminue afin que le débit n'augmente plus (ce que indique le
terme partial - partiel dans le nom de la technologie).

4.2.4. Les types de CD


Défini en 1982 par Philips et Sony, le CD-DA est la première norme utilisant ce
média, plus connu sous le nom de CD audio. Un CD audio peut contenir 747 MB
de données audio sur maximum 99 pistes musicales (en gros, 99 chansons),
avec 4 secondes minimum par piste. Les 47 MB supplémentaires par rapport au
CD-R viennent des bits de correction utilisés dans les CD informatiques, mais
absents en audio. Sur un CD audio, la fréquence maximum audible est de 44,1
Khz en 16 bits en stéréo (2 canaux).
Le CD-R est un CD audio avec des contrôles d'erreurs. Une partie de chaque
secteur est utilisé comme en-tête. En dernier, deux types de secteurs ont été
définis: le mode 1, le plus souvent en gravure et le mode 2 (utilisés en XA et CD-
I) ceci entraînerait une vitesse variant de 10.400 à ...27.560 tours

Page 29/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les Cd-Rom / XA et CD-I découlent de la même technologie. Le Cd-ROM / XA à
architecture avancée est plus souvent appelé CD-I pour le grand public. Il est
structuré pour permettre un mélange de différents médias de manière
interactive.
Développés pas Kodak, les CD multisessions (multiread) permettent de stocker
ses données au fur et à mesure. Si un CD classique contient une seule table de
matière, un CD multisession en contient autant que de sessions. Ceci permet
d'ajouter des fichiers sur le média et de ne pas le créer d'une seule fois comme
un CD-R normal. Par contre, la création d'une session nécessite 20 MB par table
des matières. Le CD doit également être préalablement formaté. Cette méthode
écrit secteur par secteur et utilise généralement la norme UDF. Tous les graveurs
CD actuels acceptent l'écriture sur un simple CD-R en multisessions.

4.3. Les graveurs de CD

Les CD-ROM "commerciaux" sont pressés. Par contre pour de petites séries et
sauvegardes personnelles, ils sont gravés. Les graveurs actuels acceptent les CD
gravés (CD-R) et les réinscriptibles (CD-RW). La capacité d'un CD réinscriptible
est plus faible que celle des CD-R (500 à 550 MB), lié au 130 MB (en moyenne)
utilisés par la table des données (20 MB par session). Les graveurs permettent la
lecture des CD (informatiques ou audio) mais avec un temps d'accès nettement
inférieur à celui d'un lecteur standard. La gravure permet de sélectionner les
fichiers à copier, soit de copier un CD complet (audio ou informatique).
Les technologies utilisées pour la gravure sont identiques à celles des lecteurs
(CLV, Z-CLV, CAV ou PCAV suivant les modèles). La vitesse de gravure est
identique à la vitesse de lecture des lecteurs CD-ROM: 1X correspond à 150
KB/s. Pour un CD audio de 74 minutes, la vitesse de gravure en 4X est donc de
74/4 = 18,5 minutes.
Les graveurs actuels incluent une mémoire tampon, qui évite la rupture du flux
de données pendant la gravure (techniques over-burning, Just-link, ...) que nous
détaillerons ci-dessous.
Comme pour les lecteurs, la connexion des graveurs internes est E-IDE ou SATA,
quelques anciens en SCSI. Pour les modèles externes, la connexion est en USB,

Page 30/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
même si d'anciens modèles utilisaient une interface SCSI ou même parallèle
bidirectionnelle.

Tête d'impression d'un graveur CD.

4.3.1. Over-burning / Overwriting / Dépassement de capacité


L'over-burning permet de dépasser les 640 MB et d'utiliser les CD de 700 MB /
80'. Implanté dans tous les graveurs actuels, les anciens nécessitaient un logiciel
de gravure compatible et un graveur acceptant l'écriture en mode "Disk at
Once". Certains anciens graveurs tombaient en panne lors du dépassement des
640 MB mais c'est de la préhistoire.

4.3.2. Just link et Burn-Proof


Lors de la gravure, les données doivent être envoyées à un rythme suffisant
constant. Lorsque les données à envoyer ne sont plus présentes dans le buffer, il
y a une rupture de flux. En cas de rupture, les anciens modèles stoppent la
gravure et le média est inutilisable. Les modèles actuels suspendent la gravure
lorsque des données ne sont pas présentes, et la reprend dès qu'elles sont de
nouveau accessibles dans le buffer. C'est la technologie JUST LINK (Burn-Proof
chez Plextor) utilisée dans tous les graveurs CD et DVD actuels. Un message
signalant que "365 ruptures de flux ont étés évitées" à la fin du gravage est une
commentaire du logiciel, pas un message d'erreur.

4.4. DVD-ROM
4.4.1. Introduction

Un lecteur DVD (digital versatile disc) peut lire les DVD, mais aussi tous types de
CD (audio, CD pressé, CD-R et CR-RW). La capacité est nettement supérieure:

Page 31/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
4,7 GB en simple face, simple couche, et 17 GB en double face, double couche.
Ils sont principalement utilisés pour les films vidéo.
La vitesse de lecture n'est plus notée par rapport à un CD audio: 1 X correspond
à 1350 KB / secondes (9 X supérieure).

4.4.2. Lecture vidéo


Pour les films, le lecteur est couplé avec une carte de décompression MPG-2.
Pour protéger les sorties de film au cinéma avant la sortie en cassette et DVD,
les films sont codés suivant des zones géographiques: 1 pour les Etats-Unis et le
Canada, 2 pour l'Europe, le japon, l'Afrique du Sud et le Moyen Orient), 6 pour la
Chine, ... Les zones 7 et 8 ne sont pas utilisées.
Les premiers lecteurs DVD Video et cartes de décompression intégrées
utilisaient un zonage logiciel, facile à contourner avec logiciels comme Win DVD
et d'autres. Depuis début des années 2000, le forum DVD exige que les lecteurs
de 4eme génération soient codés de manière hardware (matérielle),
conformément à la norme RPC-2. A l'achat d'un lecteur, il est ‘’neutre’’ et change
à la première lecture d'un film, quatre changements sont ensuite possibles avant
que le lecteur ne bloque sur la dernière zone utilisée.

4.4.3. Fonctionnement
Si un Cd normal émet un faisceau infra-rouge invisible sur une longueur d'onde
de 780 nanomètres, le DVD utilise une lumière rouge visible suivant deux
longueurs d'onde (soit 635, soit 650 nm), ce qui permet de lire les multicouches.
La première couche est une couche translucide, la deuxième couche est
réflexible. En lecture, le faisceau laser traverse la couche translucide pour lire les
données de la seconde, puis change de fréquence pour lire la première. Le tout
utilise un dispositif de correction d'erreurs 10 X supérieur à celui d'un lecteur CD
classique. Une mémoire tampon (un buffer) assure la lecture continue des
données entre les couches.

4.5. Graveur DVD

Page 32/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
En 2002, deux formats de graveur DVD sont vendus suivant deux groupes de
fabricants: le Forum DVD et le DVD Alliance (principalement Philips).
Actuellement, tous les graveurs sont compatibles avec les deux types de media.
 Le DVD-R (Forum), inscriptible une fois: prix relativement bon marché du
media et compatible avec près de 80 % des lecteurs.
 Le DVD+R (Alliance), également inscriptible: support est plus chère, mais
compatible avec plus de lecteurs de salon (près de 85 %).
 Le DVD-RW (Forum). 2 fois plus lent en gravure que le DVD+RW.
 Le DVD+RW (alliance) est compatible avec 65 % des lecteurs. Il est
réinscriptible environ 1000 fois.
 Le DVD-Ram (forum) est réinscriptible 100.000 fois. Ce n'est pas à
proprement un graveur de DVD puisque les média sont conditionnés dans
un plastique dur et incompatible avec un lecteur standard. Par contre, ils
acceptent tous les types de CD et DVD en lecture. La gravure est
également deux fois plus lente. La capacité maximum est de 2 fois 2,6 GB
en double face (en retournant le DVD-Ram à la fin de la première face). Ils
sont obsolètes.

4.6. Technologie LightScribe


Sortie fin 2006, cette technique permet de sérigraphier directement l'étiquette
sur le support (CD ou DVD) si le graveur et le logiciel sont compatibles. Ceci
nécessite un CD/DVD spécifique avec un revêtement spécial sur le coté à
imprimer.
Une fois la gravure du media terminée, il suffit de retourner le support dans
l'appareil pour imprimer une image - textes en niveaux de gris. Les supports
peuvent être achetés colorés pour un rendu professionnel.

4.7. Lecteurs de bande

4.7.1. Introduction
La sauvegarde sur bande utilise une bande magnétique similaire à une cassette
audio. Le prix est généralement faible. Les logiciels associés permettent de
sélectionner les dossiers / fichiers à sauvegarder (restaurer) et de les sauver
automatiquement à des dates / heures prédéfinies (par exemple, tous les jours
sauf le samedi à 19 heures. C'est le premier système de sauvegarde utilisé mais
l'augmentation de la capacité des disques durs couplés avec une faible vitesse de
transfert limitent leur utilisation, sauf dans les applications serveurs que nous
verrons en deuxième.
Ces systèmes de bande permettent les sauvegardes des documents, mais aussi
de Windows et logiciels installés. Trois méthodes de sauvegardes sont utilisées
(généralement mélangées):
Sauvegarde complète: l’ensemble de disque dur ou uniquement les dossiers de
données mais tous les fichiers. Cette méthode est la plus sûre, mais aussi la plus
longue.

Page 33/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Sauvegarde incrémentale: que les fichiers qui ont été modifiés depuis la
dernière sauvegarde complète ou incrémentale. Restaurer complètement les
données d'un dossier utilise d’abord une sauvegarde complète et ensuite les
restaurations incrémentales jusqu'à la date du jour.
Sauvegarde différentielle: tous les fichiers depuis le dernier backup complet
ou incrémental mais ne modifie pas le bit d’archivage des fichiers. La prochaine
sauvegarde les resauve.

4.7.2. Les types


Pour les stations, trois types différents sont utilisés: QIC/Travan, DAT (4mm) et
DLT. D'autres seront vus en deuxième (sauvegarde et backup réseau).
Le système QIC, obsolète, est de faible capacité (moins de 4 GB) et des vitesse
de backup relativement lentes. Différents formats de formatage des bandes QIC
sont en plus utilisés, et incompatibles.
La technologie DAT est principalement utilisée pour les petits serveurs et se
scinde en 2 catégorie suivant la largeur des bandes: 4 et 8 mm. Les capacités
actuelles sont de 36 GB en mode non compressé. L'interface est du SCSI 160
minimum. Les lecteurs DAT utilisent une tête mobile qui se salit (cassette de
nettoyage) qui usent les bandes.
La technologie DLT est plus réservée aux serveurs puisque les capacités
atteignent 800 GB en mode non compressé avec des vitesses de transfert
supérieures (SCSI 320 actuellement). Les lecteurs sont plus chères mais plus
fiables: la tête de lecture est fixe, le MTBF est de 10.000 heures, pour 2000 en
DAT

4.8. Les disquettes de grande capacité


4.8.1. Introduction
Quelques firmes ont tenté de développer un standard pour remplacer les lecteurs
de disquettes. Parmi eux: le ZIP d'IOMEGA et le LS-120 de SYQUEST (firme
disparue). Ces lecteurs utilisent tous un procédé magnéto-optique, avec une
fiabilité élevée du média.

4.8.2. IOMEGA Zip 100MB, 250MB et 750 MB


Le ZIP 100 MB est d'abord sorti interfacé en SCSI (interne et externe) pour
ensuite utiliser le contrôleur du lecteur de disquette dans ses versions internes
moins chère puisque le contrôleur est intégré sur tous les PC. Les dernières
versions internes se connectent en E-IDE comme les disques durs.
IOMEGA a sorti une version externe, le Zip 100 +, connecté sur un port SCSI ou
parallèle. En parallèle, cette version a posé divers problèmes de compatibilité
avec une imprimante connectée derrière.
La version 250 MB date de 1998. Pour les versions externes, les premières
modèles utilisaient le port parallèle, remplacé par le port USB 1.1. En interne,
l'interface est IDE ou SCSI.

Page 34/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La dernière version a une capacité de 750 MB (2002). Elle peut être interne (E-
IDE) ou externe (USB2.0, compatible 1.1 et firewall de janvier 2003). Les Zip
750 MB sont totalement compatibles avec les 250 MB (en lecture et en écriture).
Ils lisent les 100 MB mais ne peuvent pas écrire dessus.
Le lecteur IOMEGA était un standard pour les ordinateurs Mac, souvent utilisés
en imprimerie. C'est la méthode idéale pour transférer de PC vers mac.

4.8.3. Mémoires sur ports USB (clé USB)


Une autre méthode d'utiliser les ports USB pour la sauvegarde consiste à utiliser
des mémoires flash appelées clés USB directement sur le port USB 1.1 ou 2.0.
Les capacités actuelles vont jusqu'à 16 GB. La vitesse est assez lente en USB
1.1. Ces périphériques sont directement reconnus par Windows 2000, XP et
suivants (donc pas Windows 98 - sauf pilote - et inférieurs, pas compatibles
USB). Ils remplacent par exemple le click de Iomega.
Le nombre d'écritures maximales est limité à une dizaine de milliers par zone.
C'est donc un outil de transfert mais pas pour travailler directement dessus. Les
disques durs SSD ont le même problème.

4.9. Disque dur externe


Avec les connexions firewire, mais surtout l'USB 2.0 fin 2002, les disques
externes de grande capacité (jusqu'à 2 TB) sont désormais le standard en
sauvegarde personnelle. Vous pouvez également utiliser des adaptateurs, sortes
de boîtiers connectés en USB ou firewire où l'on insère un disque dur standard.
Des modèles existent pour disques durs IDE 3"5 et 2"5 (spécifiques ordinateurs
portables). Ces appareils remplacent les Jazz d'Iomega et les Sparq de Syquest,
obsolètes. Particularité de certains modèles, ils peuvent être utilisés avec un
logiciel spécifique (fournis sur le disque dur) qui permet de planifier les
sauvegardes (en jour de la semaine et heure) en sélectionnant les dossiers à
sauvegarder. C'est la solution la plus complète (mais aussi la plus simple) pour
ordinateurs personnels mais aussi petits serveurs.

4.10. Le Blu-ray
Le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD, autre
dénomination B-RD) est un format de disque numérique breveté et
commercialisé par l’industriel japonais Sony permettant de stocker et restituer
des vidéogrammes en Haute Définition. Sa dénomination provient du type de
rayon laser qu’il exploite, de couleur spectrale proche du bleu.
Son principal concurrent, le HD DVD lancé par Toshiba avec le soutien de
Microsoft a été officiellement abandonné en février 2008. Peu après, Toshiba a
rejoint officiellement le consortium Blu-ray et a présenté lors de l'IFA 2009 sa
première platine Blu-ray, la BDX2000E.

Page 35/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Il existe des lecteurs et des enregistreurs-lecteurs Blu-ray dits de salon ainsi que
des lecteurs et graveurs Blu-ray destinés à équiper les ordinateurs. Les appareils
Blu-ray doivent permettre la lecture des DVD vidéo et des CD Audio
(compatibilité ascendante).

4.10.1. Origine du nom Blu-ray


Le nom « Blu-ray » vient simplement de la technologie utilisée pour lire et graver
les données : « Blue » (bleu) et « ray » (rayon laser). Selon la Blu-ray Disc
Association, l’orthographe « Blu-ray » n’est pas une erreur, le « e » de « blue » a
été retiré afin de pouvoir déposer la marque.
 Le nom complet est « Blu-ray Disc », et non « Blue-ray Disk »;
 Le nom court est « Blu-ray », et non « Blu-Ray » ou « Blue-ray » ;
 L’abréviation correcte est « BD » (pour « Blu-ray Disc »), et non « BR » ni
« BRD ».

4.10.2. Spécificités
Le Blu-ray exploite un rayon laser bleu-violet (longueur d’onde : 405 nm),
d’ouverture numérique élevée (0,85). Par comparaison avec le laser Infrarouge
(longueur d’onde : 780nm) d’ouverture numérique 0,45 utilisé pour le CD et le
laser rouge (longueur d’onde : 650/635 nm) d’ouverture numérique 0,6 utilisé
pour le DVD, le Blu-ray permet de stocker plus d’informations sur la même
surface grâce à un rayon plus fin (diamètre du spot laser : 290 nm) induisant des
sillons de gravure plus petits et plus rapprochés (écart : 320 nm) et des alvéoles
plus courts (longueur minimale : 149 nm — 135 nm pour le modèle 27 Go
actuellement abandonné). Les premiers appareils grand public intégrant cette
technologie sont apparus fin 2006, notamment la PlayStation 3 (novembre au
Japon puis aux États-Unis), lancée le 23 mars 2007, en France.

4.10.2. Fonctions typiquement Blu-ray


Voici la liste des différentes fonctions que l'on peut retrouver pour les disques
Blu-ray. Toutefois, il faut que les disques Blu-ray utilisés soient compatibles avec
la fonction souhaitée.
 BD-Live
Cette fonction fait partie intégrante des spécifications du format Blu-ray. Il s'agit
d'une fonction permettant de connecter le lecteur Blu-ray à Internet. Grâce au
BD-Live, on peut télécharger et ajouter des contenus au programme en cours de
lecture. Il peut s'agir d'anecdotes sur le film (affichées en pop-up à l'écran),
d'une nouvelle piste sonore, d'un jeu, de scènes inédites, de nouveaux sous-
titres, d'un documentaire exclusif, d'interviews, de commentaires audio, etc. Il y
a donc encore beaucoup d'autres possibilités, y compris l'achat en ligne de
produits dérivés du film. Certains grandes compagnies cinématographiques ne
croient plus en l'avenir du BD-Live et il semblerait que son déclin soit inéluctable.
 MovieIQ
Cette fonction exploite le BD-Live et est développée par Gracenote. MovieIQ
permet aux utilisateurs d'accéder en temps réel à une base de données en ligne
via la connexion Internet présente sur les lecteurs Blu-ray Profile 2.0. Ainsi on
retrouve des informations sur le film, le réalisateur, les acteurs, etc.
Page 36/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 SeasonPlay
Cette fonction Blu-ray s'adresse aux fans de séries télévisées. Mise au point par
Buena Vista Home Entertainment, elle a pour objectif de permettre aux
spectateurs de toujours savoir exactement où ils en sont dans la saison qu'ils
regardent et de reprendre la lecture au bon endroit, même si le disque a été
retiré du lecteur.
 Cinéchat
Cette fonction Blu-ray permet via la connexion BD-Live de discuter en ligne avec
ses amis en surimpression du film. Cette fonction est éditée par Sony Pictures
Home Entertainment.
 Facebook
Cette fonction permet à l'utilisateur d'importer sa liste d'amis au sein de son
environnement BD-Live. Cette innovation de Warner a pour objectif de créer un
nouveau mode de consommation du home cinéma et de populariser les séances
communautaires.
 BD-Java
C'est un environnement de développement interactif dérivé de Java. Il donne
accès sur les disques compatibles à des fonctions comme l'image dans l'image
(Picture In Picture), la connexion à Internet pour récupérer du contenu
supplémentaire ou le stockage d'informations dans la mémoire du lecteur. Il est
complémentaire à la fonction BD-Live.
 Zones de restriction commerciale

Régions pour les disques Blu-ray standard : A : Asie de l'Est (à l'exception de


la Chine et Mongolie), Asie du Sud-Est, les Amériques et de leurs dépendances.
B : Afrique, Asie du Sud-Ouest, Europe (à l'exception de Russie), Océanie et
leurs dépendances. C : Asie centrale, Asie de l'Est (la Chine et Mongolie
seulement), Asie du Sud, central Eurasie (notamment Russie) et de leurs
dépendances.
À l’instar des lecteurs DVD et selon leur zone de commercialisation, les lecteurs
Blu-ray intègrent un verrou électronique, les rendant incompatibles avec les
disques achetés en dehors des zones ou pays pour lesquels ils sont prévus. Ainsi,
trois zones géographiques sont définies pour le Blu-ray :
 Région A : principalement le continent américain, une partie de l’Asie du
Sud-Est et de l’Océanie

Page 37/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 Région B : l’Europe, l’Afrique, l’Australie et le reste de l’Océanie
 Région C : le bloc russe et eurasien, l’Inde et l’Asie.
Ceci est principalement utilisé pour la segmentation du marché, pour la
discrimination par les prix, mais permet également aux studios de cinéma de
contrôler les différents aspects de la livraison (y compris le contenu et la date de
sortie) en fonction de la région.
Les disques peuvent également être produits sans la région de codage, de sorte
qu'ils peuvent être lus sur tous les périphériques. Les pays des grands fabricants
de disques Blu-ray (le Japon, la Malaisie, la Corée du Sud, etc) sont dans la
même région que les Amériques.
À la fin de 2008, près de 70 % de tous les disques ont été livrés sans région
(« region free »). Quelques studios maintiennent les zones de commercialisation,
cela dépend des titres.
 Profils des lecteurs
Le BD-ROM spécification définit quatre profils Blu-ray Disc de lecteur, y compris
pour les lecteurs audio (BD-Audio) qui ne nécessitent pas de décodage vidéo ou
de BD-java. Les trois profils de lecteur vidéo (BD -Video) sont tenus d’avoir une
pleine mise en œuvre du BD-java, mais avec différents niveaux de support
matériel.
BD-Video
BD-Audio
Fonction Grace Period Bonus View BD-Live

Profile 3.0 Profile 1.0 Profile 1.1 Profile 2.0

Mémoire
persistante Non 64 Kio 64 Kio 64 Kio
incorporée

Capacité
de
Non Facultatif 256 Mio 1 Gio
stockage
local

Décodeur
vidéo
Non Facultatif Obligatoire Obligatoire
secondaire
(PiP)

Décodeur
audio Non Facultatif Obligatoire Obligatoire
secondaire

Système
de fichiers Non Facultatif Obligatoire Obligatoire
virtuel

Capacité
de
Non Non Non Obligatoire
connexion
à Internet
 La gestion des droits numériques
Page 38/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Le Blu-ray Disc emploie plusieurs couches de la gestion numérique des droits.

AACS decryption process.


 AACS
Advanced Access Content System (AACS) est un standard pour la distribution
de contenu et de gestion des droits numériques. Il est développé par
l'administrateur qui octroie les licences, LLC (AACS LA), un consortium qui
comprend Disney, Intel, Microsoft, Panasonic, Warner Bros, IBM, Toshiba et
Sony.
Depuis 2006, le dispositif a subi plusieurs attaques qui ont réussi. La première
attaque s'est fondée sur un logiciel client éprouvé. En outre, les clés de
décryptage ont été extraites à partir d'un lecteur faiblement protégé (WinDVD).
Depuis les clés ont été révoquées dans les nouvelles versions. Ce n'est
seulement qu'une solution temporaire et de nouvelles clés doivent
continuellement être découvertes dans le but de décrypter les disques. Ce jeu du
chat et de la souris est passé par plusieurs cycles et, en août 2008, toutes les
clés de décryptage AACS actuelles sont disponibles sur l'Internet. Il est en effet
peu probable qu'un système de cryptage anti-piratage ne puisse pas être cassé à
plus ou moins long terme.
 BD+
BD+ a été développé par Cryptography Research Inc et est basé sur le concept
de Self-Protecting Digital Content BD + est effectivement une petite machine
virtuelle intégrée dans les lecteurs. Il permet aux fournisseurs de contenu
d'inclure des programmes exécutables sur les disques Blu-ray. Ces programmes
peuvent:
 examiner le milieu d'accueil, pour voir si le lecteur a été altéré. Chaque
licence de lecture du fabricant doit fournir à la BD + une autorisation dont
on trouve des traces dans la mémoire du lecteur qui permettent
d'identifier leurs dispositifs.
 vérifier que le lecteur des clés n'a pas été modifié.
 exécuter du code natif, peut-être pour un autre patch sécurité système.
 transformer la sortie audio et vidéo.

Si un dispositif de lecture constructeur estime que ses appareils ont été piratés, il
peut être communiqué à BD+ code qui détecte et évite la vulnérabilité. Ces
programmes peuvent être inclus dans tous les nouveaux contenus communiqués.

Page 39/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les spécifications de la BD + machine virtuelle ne sont disponibles que sous
licence pour les fabricants de dispositifs. Une liste des titulaires de permis
commerciaux à adopter est disponible sur le site Web de BD +.
La première utilisation de titres BD + ont été publiés en octobre 2007. Les
versions de la protection BD + ont été contournées par les différentes versions
de la AnyDVD HD. Un autre programme appelé à être capable de contourner la
protection BD + est DumpHD, qui est disponible avec la licence freeware et
connus pour être compatibles à la fois avec Windows et les différentes
distributions Linux.
 BD-ROM Mark
BD-ROM Mark permet de stocker une clé cryptographique sur un BD-ROM sans
que cette clé puisse être dupliquée vers un BD-R. Ce procédé est possible grâce
à l’usage d’un format propriétaire de BD-ROM, décodable uniquement avec une
puce spécifique, présente sur les lecteurs compatibles.
 Utilisation
Devant partager le marché naissant de la haute définition avec son concurrent
HD DVD, le Blu-ray s’est introduit lentement et avec difficulté dans les foyers.
Ces deux technologies nouvelles étaient en effet coûteuses mais aussi source
d’insécurité : choisir l’un des deux formats était faire un pari sur son avenir car il
était certain que l’un de ces formats n’allait pas être maintenu très longtemps.
Toutefois, la part de marché des Blu-ray sur le secteur haute définition dépassait
déjà fin 2007, celle du HD DVD, aussi bien en termes de médias vendus que de
platines, avec deux Blu-ray vendus pour un HD DVD.
À partir de la victoire du média en 2008 (Toshiba a finalement abandonné le HD
DVD le 19 février 2008), de nombreux constructeurs ont annoncé la
commercialisation de matériel compatible, et les ventes de Blu-ray constituent
aujourd’hui la quasi-totalité des ventes de média Haute-Définition.
En Europe, les ventes de Blu-ray deux ans après sa sortie ont finalement été
supérieures à celles du DVD à son époque. Toutefois, le Blu-ray a du mal à
percer mondialement. Et la PS3 est la seule console dotée d’un lecteur de Blu-
ray. Les ventes de Blu-ray discs aux États-Unis ont chuté de 40 % en
février 2008, même si Sony se targue d’avoir vu augmenter les dites ventes le
mois suivant de 2 %.
Samsung, pourtant promoteur de la démocratisation du Blu-ray dans les foyers,
annonce même la mort du Blu-ray d’ici 2013.
De plus, la technologie upscale de plus en plus prisée par le grand public
constitue une nouvelle concurrence pour les disques à haute définition et pourrait
bien faire de l'ombre au Blu-ray. Grâce aux nouveaux lecteurs DVD équipés de
prise HDMI, l’image d’un DVD sur une TV HD est sensiblement améliorée.
En 2008, seulement 9 % des personnes n’ayant pas de lecteur Blu-ray
envisagent d’en acheter un. Les disques Blu-ray restent chers, peu nombreux.
Néanmoins, le rythme mensuel des sorties Blu-ray s’accélère.
L'année 2009 marque cependant un réel tournant dans l'histoire du Blu-ray: avec
la baisse de prix très significative des lecteurs et un catalogue s'étoffant (plus de
1 300 références en France en décembre), le support est loin d'être un échec et
commence à prendre son envol, plus tardif que prévu, mais bien réel. L'arrivée
de la PlayStation 3 Slim a favorisé en partie cet essor.

Page 40/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 Blu-ray 3D
La Blu-ray Disc Association annonce en décembre 2009 l'arrivée du nouveau
standard Blu-ray 3D. Celui-ci lancé en 2010, permet de visionner des films
stéréoscopiques dans une résolution en Full HD (1080p).
Des fabricants de téléviseurs 3D proposent des systèmes 3D à lunettes passives.
Dans les faits, la résolution verticale de l'image est divisée par 2 (540 lignes pour
chaque œil au lieu de 1080). Cependant, il semble que la technique utilisée offre
tout de même une qualité Full HD.
Le nouveau standard utilise le format d'encodage Multiview Video Coding, une
extension du codec H.264 AVC.
Les films et disques Blu-ray 3D ne peuvent être lus que sur des lecteurs et
écrans 3D ready. Les disques contiennent plus de couches et un plus grand
espace de stockage qu'un disque blu-ray traditionnel. Cela nécessite une lentille
de laser plus forte et un traitement de calcul plus puissant.
 Capacité, vitesse et applications
Un disque Blu-ray double couche (abréviation « DL », de l'anglais « Dual-
Layer ») contient 50 Go, soit environ :
 4 heures de vidéo HD au format MPEG-2 avec un débit binaire de 25 Mb/s
 6 heures de vidéo HD au format H.264/MPEG-4 AVC avec un débit binaire
de 18 Mb/s
 22 heures de vidéo SD (de l'anglais « Standard Definition ») au format
MPEG-2 avec un débit binaire de 5 Mb/s (équivalent du DVD, soit
25 images par seconde à 576 pixels de hauteur).
Le taux de transfert est de 36 Mbits/sec (4,5 Mo/s) pour les lecteurs 1X et de
72 Mbits/sec (9 Mo/s) pour les lecteurs 2X actuellement disponibles sur le
marché. Les standards BD-R (disque enregistrable), BD-RE (réinscriptible) et
BD-ROM (lecture seule) font partie des spécifications Blu-ray 2.0. Les disques
pré-enregistrés BD-ROM étaient disponibles début 2007 ; le premier BD-ROM a
été gravé en novembre 2005 (Sony Pictures Home Entertainment).
Le projet de faire des disques de 100 Go et 200 Go a finalement abouti ; le
disque de 100 Go utilise quatre couches de 25 Go, tandis que celui de 200 Go
utilise six couches de 33,3 Go. Pour le moment, seuls certains appareils, comme
la PlayStation 3, peuvent lire ce format en simple et double couche. Il n’existe
actuellement aucun lecteur pour les disques de 100 et 200 Go (confirmé par
Hitachi, créateur du BD 100 Go). En janvier 2010, Sony et Panasonic annoncent
l'augmentation de la capacité des Blu-Ray. Celle-ci passera donc de 25 Go à
33 Go, soit un total de 66 Go pour les disques à double couche.
 Technologie et compatibilité
Le format BD-ROM spécifie trois codecs pour la vidéo : MPEG-2 (le standard
actuellement utilisé pour les DVD), le codec H.264/MPEG-4 AVC, et le codec VC-1
basé sur le codec Microsoft Windows Media 9. Le premier codec autorise
seulement deux heures de contenu en haute définition sur un disque Blu-ray
simple couche, mais avec les autres codecs un disque simple couche peut
contenir environ trois heures. Le MPEG-2 haute définition a un taux de transfert
d’environ 25 Mbit/s, alors que les deux autres ont un taux de transfert d’environ
15 Mbit/s pour la vidéo et 3 Mbit/s pour l’audio.

Page 41/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Les disques BD-RE (et par extension les disques BD-R) supportent maintenant le
MPEG-2 SD et le MPEG-4 HD grâce à la diffusion via la TNT HD enregistrée sans
modification du signal d’origine qui conserve ainsi sa qualité native, le 16/9 et le
son 5.1 …
Les méthodes d’encodage du flux audio incluent le PCM linéaire, le Dolby Digital
(dont le Dolby TrueHD à compression sans perte), le DTS (dont le DTS HD,
initialement DTS++, à compression sans perte).
La nécessité de compatibilité ascendante (lecture des DVD) a été prise en
compte pour les formats audio :
 À l’instar des extensions SD du DTS (DTS-ES, DTS-96/24, DTS NEO:6), le
DTS HD contient un flux DTS classique (core DTS). Les appareils non
compatibles ignorent ces extensions.
 Dolby Digital+, contient également un signal core Dolby Digital. Comme
pour le DTS il suffit d’ignorer cette extension.
 Dolby Digital TrueHD est lui radicalement différent du Dolby Digital mais la
norme Blu-ray impose en cas de présence d’une bande son TrueHD la
présence d’une bande son Dolby Digital SD. À noter qu’un certain nombre
de platines récentes savent également convertir les Dolby Digital TrueHD
en DTS pour les envoyer à un amplificateur audio numérique qui ne
saurait pas décoder les formats HD.
La spécification Blu-Ray propose le développement de contenus interactifs
évolués ainsi que des applications connectées via la plate-forme Java nommée
BD-J.
 Déclinaisons commerciales
Une spécification pour un disque Blu-ray de 8 cm a déjà été finalisée et
approuvée. Il en résulte un disque de 8 cm simple couche à une face, capable de
contenir 15 Go, soit une fois et demie la capacité d’un DVD double couche
normal de 12 cm. Ce format serait adapté pour les petits appareils portables,
comme les lecteurs vidéo ou les caméras numériques.
Un disque hybride Blu-ray/DVD a été développé par JVC et LG et attend d’être
reconnu par l’association Blu-ray Disc. Cela permettrait d’utiliser un même
disque dans les lecteurs Blu-ray et DVD. Les utilisateurs pourraient acheter un
seul disque pouvant être lu soit en définition normale soit en haute définition,
suivant le matériel utilisé. Les utilisateurs ne possédant qu’un simple lecteur DVD
pourront regarder la vidéo en définition normale, puis en haute définition
lorsqu’ils achèteront un lecteur Blu-ray.
 Enregistreurs et consoles de jeux

Page 42/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
La PlayStation 3, 1re console de jeu équipée du support Blu-ray.
Le premier enregistreur de disques Blu-ray a été dévoilé par Sony le
3 mars 2003, cependant, suite à de nombreux retards, les premières platines
compatibles Blu-ray ne devaient pas apparaître avant fin juin 2006. Le
1er septembre 2003, JVC et Samsung Electronics annoncèrent des produits
fondés sur la technologie Blu-ray à l’IFA, à Berlin, en Allemagne.
En mars 2004, Sony et Matsushita ont annoncé la vente de disques de 50 Go la
même année. Pourtant, il n’y avait alors ni lecteurs de salons, ni graveurs de
Blu-ray pour ordinateurs disponibles. Sortie en novembre 2006 au Japon puis
aux États-Unis et le 23 mars 2007 en Europe, la nouvelle console de Sony, la
PlayStation 3, est équipée en série d’un lecteur Blu-ray. C’est l’une des
premières machines de salon à être équipée de ce support. À l’image de la
PlayStation 2 et de son lecteur DVD, Sony veut se servir de la popularité des
jeux vidéo et de la marque PlayStation pour favoriser l’usage du Blu-ray.
 Stockage de données pour les ordinateurs personnels
Sony a lancé un PC portable de la série VAIO qui dispose du premier
lecteur/graveur Blu-ray (série AR). La première annonce d’un périphérique Blu-
ray était à propos de l’OPU81 par Philips, en janvier 2005 et prévu pour la
deuxième moitié 2005, mais a été repoussé.
 Technologie
 Longueur d’onde de la lumière émise par le laser

Page 43/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Cette image de 3 500 × 3 500 pixels est un agrandissement d’une portion de
1 mm2 du disque. Chaque point blanc de l’image représente sur le disque un
carré de 405 nm de long.
Cette technologie utilise une diode laser fonctionnant à une longueur d’onde de
405nm d’une couleur bleue (en fait bleue violacée) pour lire et écrire les
données. Les CD et les DVD conventionnels utilisent des lasers infrarouges et
rouges à respectivement 780nm et 650/635nm.
Au niveau de la comparaison des couleurs, la couleur visible d’un tube de lumière
noire est dominée par les émissions violacée du mercure à 435,8 nm. La diode
laser bleu violacé utilisée pour les disques Blu-ray fonctionne à 405 nm, ce qui
est nettement plus violet (plus proche de l’extrémité violette du spectre de la
lumière visible) que la partie visible de la lumière noire. Un effet secondaire du
fait que la longueur d’onde soit très petite est que plusieurs matériaux
deviennent fluorescents, et le rayon apparaît comme blanc bleuté s’il se réfléchit
sur une surface blanche (comme une feuille de papier). Si les technologies
futures projettent l’utilisation de supports fluorescents, les disques Blu-ray
fonctionnent d’une manière similaire à celle des CD et des DVD et n’utilisent pas
la fluorescence des supports pour lire les données.
Le laser bleu violacé a une longueur d’onde plus courte que celle des systèmes
CD ou DVD, et cette réduction permet de stocker plus de données sur un disque
de même taille (12 cm). La taille minimale du point sur lequel le laser peut être
focalisé est limitée par la diffraction, et dépend de la longueur d’onde de la
lumière et de l’ouverture numérique de la lentille utilisée pour le mettre au point.
En diminuant la longueur d’onde (en se rapprochant de l’extrémité violette du
spectre), en utilisant un système à double lentille avec une meilleure ouverture
numérique (meilleure qualité) et en rendant le disque plus fin afin d’éviter
certains effets optiques, le laser peut être focalisé beaucoup plus précisément sur
la surface du disque. On obtient des pointages lumineux plus précis, et ainsi il
peut stocker plus d’informations sur le disque dans un même espace. En plus des
améliorations optiques, le disque Blu-ray présente des améliorations en ce qui
concerne l’encodage des données et le rapprochement des pistes entre elles, ce
qui permet de stocker encore plus de données (voir l’article sur le disque
compact pour des informations sur la structure optique du disque).
 Technologie de revêtement de protection renforcée
L’introduction de TDK au sein de la fondation Blu-ray, annoncée le 19 mars 2004,
fut accompagnée d’un grand nombre d’indications pouvant améliorer de façon
significative l’avenir du disque Blu-ray. La technologie de protection renforcée de
TDK permettrait aux disques Blu-ray de mieux résister aux rayures, et leur
permettrait d’être nettoyés des empreintes de doigts avec un simple tissu,
procédé qui laisse des micro-rayures sur un CD ou un DVD normal.
 La guerre des supports HD
Cette association de TDK et Sony visait naturellement à rendre le BD moins
coûteux à la fabrication pour mieux rivaliser avec le concurrent HD DVD qui
certes avait des capacités maximales de stockage inférieures au Blu-ray (15 Go
par couche pour le HD DVD contre 25 Go par couche pour le BD) mais qui avait
l’avantage de pouvoir être fabriqué sur les chaînes actuelles de montage du DVD.
Avant le progrès de TDK, l'incompatibilité des deux supports au niveau de la
lecture, était un frein pour le consommateur désireux de visionner des films qui
n'étaient disponibles que sur l'un ou l'autre des deux formats. Il n'avait alors
comme solution que de se porter acquéreur d'un lecteur BD et d'un lecteur HD
Page 44/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
DVD.La première solution envisagée était de destiner le Blu-ray au stockage
informatique et le HD DVD aux films. Cette solution était calquée sur un
problème similaire ayant opposé le VHS au Betamax. Ce dernier était d’une
qualité supérieure à celle du VHS, mais sa capacité d’enregistrement était
moindre. Davantage de fabricants se sont ralliés au format inventé par JVC : le
VHS a donc été destinée au marché grand public et le Betamax à une utilisation
professionnelle dans sa version Betacam. Par analogie à cette époque, Sony et
TDK nous permettent donc d’avoir un VHS qui a la qualité du Beta.
Le 29 novembre 2004, quatre studios hollywoodiens ont annoncé leurs projets de
s’appuyer sur le HD DVD plutôt que sur le Blu-ray, bien que de façon non
exclusive : New Line Cinema, Paramount Pictures, Universal Studios et Warner
Bros. Le 8 décembre 2005, Disney et sa division de distribution Walt Disney
Home Entertainment annoncent qu'ils soutiendront le format Blu-ray. De fait,
depuis août 2006, Paramount Pictures et Warner Bros. produisent parallèlement
des versions Blu-ray de leurs films. Cependant, en août 2007, Paramount
Pictures et Dreamworks ont suspendu leur soutien au Blu-ray ; leurs films ne
seront désormais pressés que sur des disques HD DVD.
Mais la décision clé, celle qui a scellé le choix du format HD, a été celle de
Warner Bros., qui annoncent le 4 janvier 2008 l’exclusivité de leurs films au Blu-
ray à partir de mai 2008.
Le 19 février 2008, Toshiba annonçait qu’il abandonnait la technologie HD DVD
laissant le Blu-ray Disc sans concurrence. En effet, le Blu-ray offrant la plus
grande quantité de stockage et malgré son coût plus élevé par rapport au HD-
DVD, le fait que Warner Bros l'ait choisit comme support exclusif en abandonnant
définitivement le HD-DVD a joué un grand rôle. Après l'annonce de la décision de
Warner, d'autres acteurs suivront d'ailleurs bientôt dans leur soutien du seul Blu
Ray, tels que Wal-Mart.
Autres concurrents :
 HVD, qui stocke les données dans un hologramme numérique ;
 VMD, successeur de l’EVD, une technologie chinoise de disque optique en
réponse au coût des licences DVD ;
 DMD, la technologie succédant au disque fluorescent multicouches ;
 FVD (Forward Versatile Disc ou Disque polyvalent « d’avant-garde »), une
technologie Taïwanaise utilisant le laser rouge.
 Coûts décroissants
Les membres de la fondation Blu-ray ont concentré leurs efforts sur la réduction
des coûts de production, en jouant sur différents aspects. Le 15 avril 2004 par
exemple, Sony et Toppan Printing ont annoncé la réussite du développement
d’un disque Blu-ray composé à 51 % (en masse) de papier, ce qui pourrait
réduire les coûts de production.
 Compatibilité DVD
La fondation Blu-ray a, bien que ce ne soit pas obligatoire pour les constructeurs,
modifié les équipements Blu-ray afin d’assurer une rétrocompatibilité. Cet aspect
rend la migration plus attirante pour les utilisateurs, car ils ne sont pas obligés
de remplacer leur collection de DVD.

Page 45/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
 Critiques
La nécessité d’une si grande capacité pourrait a priori apparaître comme pas
totalement justifiée, notamment par le fait qu’un simple DVD peut contenir un
film en haute définition pourvu qu’il soit encodé en H.264 (ou un format de
même génération). En effet, le choix d’un meilleur encodage que le MPEG-2
(utilisé sur les DVD vidéo) permet d’augmenter la quantité d’informations
stockées dans un même volume de données. A titre d'exemple ; l'enregistrement
d'un film sur ARTE HD (son stéréo, enregistrement *.mp4 1080p) prend 4Go de
mémoire pour 1h15 de film. La capacité de mémoire des disques blu-ray permet
d'expliquer le choix des formats sonore « Dolby true HD » et « DTS HD » qui
sont moins comprimés et prennent beaucoup plus de place restituant ainsi une
qualité sonore supérieure. Néanmoins le contenu des disques évolue, et on peut
s’attendre à trouver plus d’interactivité (notamment les DVD Interactifs qui sont
souvent des jeux) ou de prise de vue différentes dans les films.
Cependant, l'arrivée des films 3D, jointe aux formats sonores haute définition
(non seulement pour la V.O., mais aussi pour d'autres langues), s'est rapidement
traduite par l'utilisation fréquente de la quasi-totalité des 50 Go prévu en double
couche : ainsi Avatar, pourtant encodé en AVC, utilise (en version 2D) 47,5 Go
sur les 50 disponibles, la V. O. en DTS HD MA nécessitant à elle seule 5 Go.
Richard Stallman appelle à boycotter les Blu-ray tant que l’AACS n’aura pas été
cassé. En effet, les systèmes de gestion des droits numériques restreignent de
manière importante l’usage légal des disques achetés.
Médias optiques futurs
Selon l’opinion de nombreux chercheurs (y compris ceux de la fondation Blu-
ray), le disque Blu-ray représente sûrement la dernière des technologies basées
sur un support plastique et avec un laser visible. Les ondes violettes et
ultraviolettes plus courtes sont absorbées fortement par le plastique utilisé dans
la fabrication des disques, et il serait difficile de fabriquer à faible coût des
lentilles de qualité supérieure. La lumière absorbée par le disque ne pourrait pas
être lue par la lentille. De plus, la plupart des plastiques s’altèrent sous les
rayons ultraviolets, changeant de couleur et se fragilisant. Un système ultraviolet
détruirait le plastique utilisé. Les technologies futures prévoient plutôt l’utilisation
de plaques de verre (qui n’absorbent pas les ultraviolets autant que le plastique),
des lasers ultraviolets et/ou des médias fluorescents multicouches.
 Des disques stockant les informations en 3 dimensions au moyen d’un
procédé holographique constituent l’évolution la plus probable de ce type
de support. Le format le plus avancé dans ce domaine est sans nul doute
l’Holographic Versatile Disc (HVD - en français disque holographique
polyvalent) ; mis au point conjointement par les sociétés InPhase et
Cypress, la capacité de stockage pourrait atteindre 3,9 To. Il était prévu
de commercialiser un premier modèle d’une capacité de 1,6 To vers 2010.
 Une autre technologie, développée par le LETI et appelée Super-
Résolution, pourrait apparaître vers 2010-2012. La capacité serait portée à
75, voire 100 Go par couche.

Page 46/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Protection électrique, onduleurs, …

5.1. Introduction
Le réseau électrique européen est alimenté en 230 V alternatif
(éventuellement comme nous l'avons vu en première du 230 ou 380 V triphasé).
Par contre, les appareils informatiques sont alimentés en basses tensions
continues (généralement compris entre + 12 et -12V). Pour transformer la
tension d'alimentation du réseau électrique en tension acceptable par les
appareils électroniques, on utilise une alimentation.
Les alimentations utilisées en informatique utilisent la technologie "A découpage". Ce
principe est non seulement adapté aux alimentations, mais également aux UPS (onduleur en
Français). Les alimentations conventionnelles ont généralement un rendement proche de 50 %
pour jusque 80 % pour les alimentations à découpage. Le rendement (le rapport entre la
puissance consommée et la puissance rendue en continu) de ces alimentations par pont
redresseur (4 diodes) après passage par un transformateur est trop faible.

5.2. Fonctionnement d’une alimentation à découpage

Avant de commencer, deux remarques s'imposent:


1. Au prix d'une alimentation PC, la réparation est peu rentable.
2. Les pièces sont difficiles à trouver. La technique de réparation est plus spécifique aux
vrais électroniciens qu'aux techniciens informatiques. De ce fait, les réparations
éventuelles sont difficiles à réaliser (sinon impossibles). En plus, les précautions en
ouvrant ces appareils sont de types "si tu mets le doigt là, c'est du 230 V alternatif, là
c'est du 380 continu, ..." Bref, si vous n'avez pas de connaissances sérieuses en
électronique analogique (transistors, haute tension). ATTENTION!

Page 47/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Prenons le schéma suivant.

La tension de départ est alternative en 230 V, elle est redressée directement par un pont
de diodes dit de Pont de Graetz sans transformateur intermédiaire, couplé avec un
condensateur (230 V en continu, 330 V en pointe sans le condensateur). Le composant suivant
est un transformateur: un transformateur parcouru par un courant continu au primaire ne
produit aucun signal au secondaire. Par contre, si vous faites passer une tension alternative au
primaire d'un transformateur, il en ressort au secondaire une tension de même forme mais de
valeur différente (une division suivant le rapport nombre de bobines entrées / sorties). A quoi
peut donc bien servir ce transformateur?
En série avec le transformateur, on insère un transistor qui va découper la tension,
permettant une tension discontinue au primaire du transformateur. La base du transistor (la
gâchette en technologie CMOS) est reliée au secondaire du transformateur via un circuit de
commande, pour la majorité des modèles via un autre transformateur (séparation galvanique
servant de protection). Ceci évite des problèmes en cas de surtension sur le réseau électrique.
A l'allumage, le réseau électrique n'est pas continue (le temps de charger le condensateur
mais aussi les imperfections de l'interrupteur). Cette tension va d'abord alimenter le circuit de
commande qui va commencer à faire hacher la tension continue aux bornes du transformateur.

Plus la proportion de hachage va être grande sur la gâchette du transistor (ou base dans
le cas d'un transistor bi-polaire), plus la tension en sortie va être grande. Le circuit de
commande va faire varier ce découpage en fonction de la tension de sortie de l'alimentation et
ainsi réguler cette tension.
Comme le pont est directement sur le 230 V alternatif, considérez que la moitié du
montage est sous 230 V. Le signal d'entrée est une tension redressée (continue), ce montage
électronique permet également de démarrer directement d'une tension continue (batteries).
Page 48/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
5.3. Perturbations du réseau électrique
Reprenons notre signal alternatif de base.
1. Coupure complète du courant provoquée généralement par un problème de réseau
électrique ou d'un disjoncteur.
2. Sur-tension, la tension du réseau est supérieure à la tension pour laquelle les
alimentations sont conçues (pensez aux diodes d'entrées). Ceci est spécifiques aux
installations proches des cabines électriques "haute tension". Même si une surtension
n'est par forcément dangereuse pour les installations informatiques (dans des valeurs
raisonnables), cette perturbation provoque des contraintes des composants de
l'alimentation qui, à terme, provoque les pannes.
3. Sous-tension, la tension est inférieure à celle pour laquelle les alimentations sont
conçues et l'alimentation ne sait plus fournir une tension suffisante en sortie. Dans le
cas des alimentations pour PC, elles descendent au moins jusque 180 V. Une sous-
tension est généralement provoquée par une augmentation soudaine de la
consommation électrique sur le réseau par le démarrage de dispositifs électriques
lourds: moteurs, compresseurs, ascenseurs, ... mais également par une distance trop
importante par rapport à la cabine haute-tension. Ces problèmes électriques peuvent
provoquer des blocages et crash inattendus. Ils réduisent également la durée de vie de
l'ordinateur.
4. Transitoires. Signaux parasites qui se superposent sur le signal électrique standard,
elles peuvent aller jusqu'à 4000 Volts, mais plus faibles généralement.
5. Micro coupures. De faibles coupures du signal électrique durant quelques
millisecondes.
6. Pics de tensions: surtensions de durée très faible (inférieure à 1/120 seconde), mais de
forte intensité (supérieure à 4000 V), généralement dus à l'arrêt de machines
électriques de fortes puissances (moteurs, climatiseurs, équipements industriels, ...)
qui dissipent la tension excédentaire sur le réseau. Ici aussi, on assiste à une usure des
composants.
7. Foudre, aussi une surtension. La foudre vient de phénomènes météorologiques
(orages) qui transfèrent de fortes tensions sur le réseau électrique mais aussi
téléphonique. Une forme de foudre remonte de la terre, liée à la géologie du sol et
donc à une zone géographique limitée, sans réelles solutions de protections, même si
la proportion est faible, moins de 1% des cas.
Comment va se comporter notre alimentation à découpage dans ces cas:
 En cas de panne complète du réseau, plus d'alimentation.
 En cas surtension (jusqu'à 280 Volts), l'alimentation à découpage va réguler la
sortie mais avec des contraintes pour les composants électroniques.
 En cas de transitoires, le redressement au primaire va réduire les effets, mais le
transformateur ne servira pas de tampon, il va juste réduire la tension. Le condensateur
et la self de lissage au secondaire vont juste les atténuer. Elles provoquent
généralement des blocages de cartes mères avec les alimentations ATX actuelles.
C'est identique pour les pics de tensions.

Page 49/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11

En cas de microcoupures, les différents condensateurs vont servir en partie de
réserves d'énergies.
 En cas de foudre, l'alimentation tombe généralement en panne mais peux aussi
mettre d'autres composants de l'ordinateurs en panne.
Ces différentes perturbations électriques ne sont analysables que par des appareils
professionnels que l'on appelle perturbographes.

5.4. Le disjoncteur
Ces appareils protègent des surtensions et de la
foudre. En cas de surtension, ils déconnectent les
appareils du réseau électrique. Les moins chères
doivent être remplacées après une seule surtension
importante, les autres permettent une remise à zéro.
Bref, ce n'est pas forcément la solution pour des
installations professionnelles, juste un premier niveau
de protection.

5.5. UPS - Onduleur


Un UPS (Uninteruptible Power Supply, onduleur en Français) inclut des batteries qui
alimentent les appareils connectés lors d'une coupure de courant, déconnectent les appareils
du réseau en cas de surtension / foudre et régularise la tension du réseau. Trois schémas sont
utilisés:

 On-line
 Line-interactive
 Off-line.
Les UPS actuels se connectent avec un logiciel à l'ordinateur via un port USB (série
pour d'anciens modèles), ce qui permet d'éteindre le PC proprement (y compris sauvegarde de
données) en cas de coupure prolongée. Les onduleurs permettent typiquement une
alimentation de 10 minutes, le logiciels coupe l'ordinateur au minimum avec une sécurité de 5
minutes mais c'est paramétrable. Certains BIOS permettent de redémarrer le PC lorsque la
tension est rétablie.
La puissance d'un UPS est donnée en VA (Volts - ampères). L'équivalence pratique avec
la puissance en Watts est de 1,6. Par exemple, une consommation de 350 Watts nécessite un
onduleur de 350 X 1,6 = 560 VA. Une station standard consomme dans les 300 Watts. Ceci
conditionne le choix de la puissance. En cas de sous puissance de l'appareil de protection, il
sera endommagé ou disjonctera en cas de coupure. Les imprimantes laser ne doivent pas être
protégées, à cause de la brusque consommation de courant lors du début d'impression.
Reste les batteries- accumulateurs. Elles sont généralement au plomb avec une tension
de service de 12 Volts continu, parfois connectées en série pour atteindre 24 Volts et en
parallèle pour augmenter la durée d'alimentation (charge plus importante).

Page 50/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Ces batteries doivent être complètement déchargées régulièrement, ceci pour éviter
l'effet mémoire de recharge, tous les 6 mois en moyenne. C'est identique pour les
ordinateurs portables, GSM, ...
Certains UPS incluent des protections pour les câbles Ethernet et lignes téléphoniques.
5.5.1. Onduleur Off-line

Régulation de tension

En noir, l'évolution du réseau


Schémas de fonctionnement d'un onduleur Off-line électrique, en vert la tension de
sortie du l'onduleur.

Les modèles Off-line sont les plus courants et utilisés pour les ordinateurs individuels,
les puissances varient de 420 à 800 VA. Le réseau électrique est séparé de l'appareil par un
relais qui s'ouvre en cas de sur / sous tension. En fonctionnement normal, le signal d'entrée est
filtré pour éliminer une partie des parasites et le convertisseur charge les batteries.
En cas de coupure du réseau électrique ou si la tension est inférieure à 176 Volts ou
dépasse les 280 Volts, le relais s'ouvre, dissociant le montage du réseau électrique. Le
convertisseur recrée la tension de sortie à partir de l'énergie des batteries. Le temps de
réaction du relais est élevé (quelques millisecondes) et cette technique ne corrige pas les
micro-coupures.
5.5.2. Onduleur Line Interactive
Similaires aux off-line, ces onduleurs intègrent en plus un booster qui permet d'injecter
une tension supplémentaire en cas de variations de tensions, mais surtout de baisses
prolongées. Le circuit de compensation va juste "booster" la tension de sortie pour des
tensions d'entrées entre 176 Volts (le minimum) et 205 Volts , diminuant les contraintes de
l'alimentation des équipements protégés. Pour des tensions d'entrées inférieures à 176 Volts
ou supérieur à 280 volts, le fonctionnement est identique aux modèles off line.

Page 51/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
Schémas d'un line-Interactive Régulation de tension

5.5.3. Fonctionnement d’une alimentation à découpage

Le fonctionnement d'un onduleur On-Line est nettement différent. La tension d'entrée


est systématiquement redressée et alimente en permanence les batteries: la tension est donc
stable. Cette tension de 12 ou 24 Volts est ensuite retransformée en tension alternative de 230
Volts en sortie.
Lors d'une coupure de tension du réseau électrique, les accumulateurs vont assurer
l'alimentation électrique des équipements connectés via le convertisseur continu / alternatif. Si
l'alimentation du réseau passe en sous tension ou en cas d'une courte baisse de tension, la
source d'alimentation utilisée va être le réseau électrique aidé par la charge des batteries, les
deux sont donc utilisées simultanément, augmentant la durée de la protection, à la différence
des autres types d'UPS). Seul problème, les accumulateurs au plomb sont pratiquement
utilisés en permanence, et finalement à remplacer plus souvent (les batteries représentent
quasiment 2/3 d'un prix d'un onduleur).
Généralement, ces modèles utilisent deux circuits de by-pass. Le premier permet
d'alimenter les ordinateurs sans passer par l'électronique de l'onduleur, utilisé lors du
remplacement des batteries ou lors d'une réparation de l'onduleur. Le deuxième by-pass est
similaire aux off-Line et augmente la durée de vie des batteries.
5.6. Comparaison des protections
Les couleurs utilisées déterminent les risques en fonction des problèmes du réseau
électrique.
Tension Line
Disjoncteur Off-line On-line
d'entrée Interactive
Alimentations
relais ouvert, alimentation uniquement par les
<180V plus d'alimentation
par les batteries batteries et le
réseau
Alimentation
via le réseau
électrique, Alimentation
aidé par le par le réseau
Fonctionnement fonctionnement via le
180 - 220 V booster pour et les
normal réseau électrique
des tensions batteries si
comprises nécessaires
entre 176 et
205 volts.

Page 52/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11
220 - 240 V Fonctionnement normal
Fonctionnement Alimentation
240 - 280 V Alimentation via le réseau.
normal par le réseau
>280 V Coupure brusque Fonctionnement par batterie.
Alimentation
par batteries
Haute-tension, Fonctionnement par batteries, attention et coupure du
Coupure brusque
foudre au délai d'ouverture du relais. disjoncteur
(remise à zéro
obligatoire)
Pic de courte
durée totalement
Aucune détection Protection partielle
Micro- protégé
coupures
La protection électrique reste un compromis entre le prix des appareils de protection et
l'importance du matériel à protéger. La sécurité d'un serveur informatique d'entreprise
nécessite au minimum un onduleur online, alors qu'un ordinateur personnel se contentera
probablement d'un disjoncteur. L'arrêt d'une heure de production revient nettement plus chèr
que le prix d'un UPS. Attention, Vous ne pouvez pas mettre d'onduleur pour protéger une
imprimante laser. Dans ce cas, la seule possibilité de protection électrique est le disjoncteur.

Page 53/53
CCI / Périphériques informatique / Ver 1.0 /JCV/ 05.10.11

Vous aimerez peut-être aussi