0% found this document useful (0 votes)
22 views18 pages

533 D 30 D 7 B 7 F 69

Pdf

Uploaded by

zoedivine03
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
22 views18 pages

533 D 30 D 7 B 7 F 69

Pdf

Uploaded by

zoedivine03
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 18

1- La naissance de l’ordinateur :

2- Cinq générations d'ordinateurs :

A- Première Génération (De 1945 à 1956) :


B- Seconde Génération (De 1956 à 1963) :

D- Quatrième Génération (De 1971 à nos jours) :


C- Troisième Génération (De 1964 à 1971) :

E- Cinquième Génération :
1- La naissance de l’ordinateur :

A L’origine était le boulier. Cette invention, appelée aussi abaque, est


en fait une machine à calculer qu’on trouvait déjà à Babylone en
3000 avant notre ère.

Les logarithmes, inventés par l’Ecossais John NAPIER (1550-1617),


permirent dès 1620 l’utilisation de la règle à calcul.

- John NAPIER -

En 1623, William SCHICKARD (1592-1635) inventa la 1ère machine à


calculer mécanique.
En 1642, Blaise PASCAL (1623-1662) inventa à son tour une machine à
additionner destinée à aider son père, percepteur.

En 1673, Gottfried Wilhelm LEIBNIZ (1646-1716) ajouta la multiplication


et la division.

- William SCHICKARD, Blaise PASCAL & Gottfried Wilhelm LIEBNITZ


-

Dès 1820, les premières calculatrices mécaniques apparurent avec les


quatre fonctions (addition, soustraction, multiplication, division).

En 1834, Charles BABBAGE (1792-1871) mit au point une machine


inspirée du principe des cartes perforées du métier de Joseph-Marie
JACQUARD (1752-1834) qui permettait d’évaluer des fonctions.
- Charles BABBAGE (à gauche) & sa fameuse machine à carte -

L’Anglais Williams JEVONS (1835-1882) construisit en 1869 une machine à


résoudre les problèmes.

En 1890, Herman HOLLERITH inventa la 1ère carte perforée moderne.


- Willams JEVONS & Herman HOLLERITH -

Les mathématiques connurent une évolution remarquable jusqu’à la


Seconde Guerre Mondiale et celle-ci permit de faire naître rapidement
l’ordinateur électronique.

En Allemagne, en 1938, Konrad ZUSE (1910-1995) construisit le 1er


ordinateur programmable : le Z 3.

En 1944, l’Américain Howard AIKEN (1900-1973) élabora le Mark I


d’IBM, calculateur électromécanique (17 mètres de long et 2,50 mètres de
haut).
- Konrad ZUSE & Howard AIKEN -

John MAUGHLY (1907-1980) et John ECKERT (1919-1995), sur des idées


de John ATANASSOFF (1904-1985), mirent au point l’ENIAC, ordinateur à
lampes, qui permit dès 1943 la mise au point de la bombe H (il occupait une
place de 1500 m2 et fut terminé en 1946).

- L'ENIAC (Electronic Numerical Integrator And Computer) -


Avec John VON NEUMANN (1903-1957), ils construisirent l’ordinateur
EDVAC, puis l’UNIVAC.

- l'EDVAC (Electronic Discrete Variable Computer) & John VON


NEUMANN -

F. WILLIAMS (né en 1911) produisit l’ordinateur Manchester Mark I ,


considéré comme le 1er ordinateur à mémoire, dès 1948.

L’invention du transistor en 1947 par John BARDEEN, Walter BRATTAIN


et William SHOCKLEY transforma l’ordinateur. Pour cette découverte, ils
reçurent le Prix Nobel de physique en 1956.
- John BARDEEN, Walter BRATTAIN & William SHOCKLEY -

En 1959, John KILBY (Texas Instruments) et Robert NOYLE inventèrent


les circuits intégrés.

En 1960, IBM et Fred BROOKS conçurent une série d’ordinateurs de


tailles variées (System 360).

Ted HOFF (né en 1937) et Federico FAGGIN à leur tour conçurent le


premier microprocesseur en 1971. C’est aussi en 1971 qu’apparut le
premier micro-ordinateur.

- Ted HOFF & Federico FAGGIN -

Les années 70 virent aussi naître les super-ordinateurs. Seymour CRAY (né
en 1925) créa le CRAY-1 en mars 1976. Il pouvait exécuter 160 millions
d’opérations par seconde.
- Seymour CRAY -

En 1976 toujours, grâce à Steve WOZNIAK e t Steve JOBS (Apple


Computer) apparut le micro-ordinateur personnel.

Steve WOZNIAK & Steve JOBS -

C'est en 1981 que l'on eut à subir les premiers virus informatiques (leur
nom est dû à Leonard ADLEMAN).

En 1981 encore, le premier ordinateur vraiment portable fut mis sur le


marché.

En 1987, l’US National Science Foundation démarra le NSFnet qui devait


devenir une partie de l’Internet actuel.
Il est très difficile de nos jours de suivre l’évolution de l’ordinateur
tellement les techniques modernes évoluent à grande vitesse. En effet, cette
évolution suit la loi de MOORE : « On peut placer quatre fois plus de
transistors sur une puce tous les trois ans ». On devrait ainsi avoir un
milliard de transistors sur une puce aux alentours de 2010.

2- Cinq générations d'ordinateurs :

Avec le début de la Seconde Guerre mondiale, les


gouvernements pensèrent à développer les
ordinateurs afin d'exploiter leur importance
stratégique potentielle; cela permit d'accroître les
fonds alloués à la recherche et de faire avancer les
progrès technologiques. En 1941, l'ingénieur Konrad
Zuse avait développé un ordinateur dénommé Z3, destiné à
concevoir des avions et des missiles.
Les Alliés, malgré cela, firent de plus amples efforts pour
développer des ordinateurs plus puissants. En 1943, les Anglais
terminèrent un ordinateur destiné au décodage des messages
secrets allemands, le Colossus. L'impact de cet ordinateur sur le
développement général de l'informatique fut plutôt limité, et cela
pour deux raisons: premièrement, le Colossus était destiné à une
tâche particulière, et deuxièmement, l'existence de la machine fut
tenue secrète pendant de nombreuses années après la fin de la
Seconde Guerre mondiale.

A - Première Génération (De 1945 à 1956) :


Avec le début de la Seconde Guerre mondiale, les gouvernements
pensèrent à développer les ordinateurs afin d'exploiter leur
importance stratégique potentielle; cela permit d'accroître les fonds
alloués à la recherche et de faire avancer les progrès
technologiques. En 1941, l'ingénieur Konrad Zuse avait développé
un ordinateur dénommé Z3, destiné à concevoir des avions et des
m i s s i l e s .
Les Alliés, malgré cela, firent de plus amples efforts pour
développer des ordinateurs plus puissants. En 1943, les Anglais
terminèrent un ordinateur destiné au décodage des messages
secrets allemands, le Colossus. L'impact de cet ordinateur sur le
développement général de l'informatique fut plutôt limité, et cela
pour deux raisons: premièrement, le Colossus était destiné à une
tâche particulière, et deuxièmement, l'existence de la machine fut
tenue secrète pendant de nombreuses années après la fin de la
Seconde Guerre mondiale.

Mais les efforts américains apportèrent une réelle pierre à l'édifice.


Howard H. Aiken (1900-1973), un ingénieur d'Harvard travaillant
avec IBM, réussit à construire un calculateur entièrement
électronique en 1944. Le but de cet ordinateur était de créer des
tableaux de correspondances balistiques pour la U.S. Navy. Il
mesurait près de la moitié d'un terrain de football et contenait 800
kilomètres de câbles. Le Harvard-IBM Automatic Sequence
Controlled Calculator, ou Mark I, était un ordinateur à relais
électromécanique. Les calculs étaient lents (de 3 à 5 secondes par
calcul) et les séquences de calculs ne pouvaient être modifiées. Il
pouvait toutefois effectuer aussi bien de l'arithmétique de base que
des opérations sur des équations complexes.

Un autre ordinateur dont le développement avait été accéléré


pendant la guerre était l'Electronic Numerical Integrator and
Computer (ENIAC), produit d'un partenariat entre le gouvernement
américain et l'Université de Pennsylvanie. Composé de 19000 tubes
à vide, 70000 résistances et de 5 millions de soudures, l'ordinateur
était une imposante machinerie consommant 174 KW d'énergie
électrique, soit assez d'énergie pour alimenter tout un quartier de
P h i l a d e l p h i e .
Développé par John Presper Eckert (1919-1995) et John W. Mauchly
(1907-1980), l'ENIAC était un ordinateur capable de calculer mille
fois plus rapidement que le Mark I.

Au milieu des années 40, John von Neumann (1903-1957) rejoignit


l'équipe de l'Université de Pennsylvanie et initia des recherches sur
le développement d'ordinateurs qui resteront d'actualité pendant
les 40 années à venir. Von Neumann construisit l'Electronic Discrete
Variable Automatic Computer (EDVAC) en 1945, utilisant une
mémoire qui servait à la fois au stockage du programme et des
données. Cette mémoire "stockée" ainsi qu'une autre technique
propre à l'EDVAC permettait à l'ordinateur d'être stoppé n'importe
où dans le programme et de pouvoir continuer par la suite, ce qui
permit une plus grande souplesse dans la programmation.
L'élément-clef de l'architecture de von Neumann était l'unité
centrale de calcul (Central Processing Unit), qui permettait de
c o o r d o n n e r t o u t e s l e s f o n c t i o n s d e l ' o r d i n a t e u r.
A partir de 1950, les calculateurs utilisent des tubes à vide
miniaturisés consommant moins d'énergie.

En 1951, l'UNIVAC I (UNIVersal Automatic Computer), construit par


Re m i n g t o n Ra n d , d e v i n t un d es p r em i e r s o r d i n a t eu r s
commercialisés à prendre avantage de toutes ces découvertes. Le
bureau de recensement américain et la General Electric en
utilisèrent tous deux. Un des plus prestigieux travaux réalisés sur
un UNIVAC fut la prédiction du gagnant des élections
p r é s i d e n t i e l l e s d e 1 9 5 2 , D w i g h t D . E i s e n h o w e r.

La première génération d'ordinateurs était caractérisée par le fait


que les instructions correspondaient spécialement à la tâche pour
laquelle l'ordinateur avait été construit. Chaque ordinateur avait son
propre jeu de codes binaires, appelé Langage Machine, qui lui
indiquait comment fonctionner. Cela rendit les ordinateurs de cette
génération difficiles à programmer et limita leur souplesse et leur
vitesse. Une autre caractéristique de ces ordinateurs était
l'utilisation de tubes à vide, en partie responsables de leur grande
taille, et de tambours magnétiques, ancêtres des disques durs, pour
le stockage des données.
La première génération voit également apparaître la
commercialisation des premiers ordinateurs. Pour résoudre des
problèmes scientifiques et de gestion, elle est surtout marquée par
la volonté de trouver des matériaux permettant d'accroître la
fiabilité des mémoires (tubes à vide, tambour magnétique, puis
tores de ferrite) et l'apparition des premiers langages évolués de
programmation (Fortran en particulier). On peut noter aussi la
construction du premier ordinateur Français, le Cuba.
En 1952, parmi les innovations, on peut citer : la bande magnétique,
les disques magnétiques, les imprimantes et les écrans des
v i s u a l i s a t i o n s .

B- Seconde Génération (De 1956 à 1963) :

En 1948, l'invention du transistor allait grandement changer le


développement des ordinateurs. Le transistor remplaçait
avantageusement les tubes à vide utilisés alors dans les
télévisions, radios et bien sûr ordinateurs. Depuis, la taille des
m a c h i n e s é l e c t r o n i q u e s n ' a c e s s é d e d i m i n u e r.
Les transistors furent utilisés pour la première fois dans un
ordinateur en 1956. Couplés aux dernières avancées
technologiques concernant la mémoire à tores magnétiques (tores
de ferrite), les transistors amenèrent les ordinateurs dans leur
seconde génération, où ils étaient plus petits, plus rapides, plus
fiables et moins gourmands en énergie.
Les premiers ordinateurs de taille à profiter des avantages de la
technologie des transistors furent le Stretch d'IBM et le LARC de
Sperry-Rand. Ces ordinateurs, spécialement créés pour les
laboratoires s'occupant de l'énergie atomique, pouvaient traiter
énormément de données, conformément aux exigences des
scientifiques de l'atome. Mais ces machines étaient fort chères, et
bien trop puissantes pour les faibles exigences du secteur
financier. Seuls deux LARCs furent installés - un au Lawrence
Radiation Labs et l'autre dans l'U.S. Navy Research and
Development Center à Washington, DC. La seconde génération
d'ordinateurs remplaça également le langage machine par
l'a ssembleur, pe rmetta nt l'util isation d'abréviati ons en
remplacement de longs codes binaires.

Jusqu'aux années 60, il y eut un certain nombre d'ordinateurs de la


seconde génération ayant connu un certain succès commercial,
notamment dans le secteur financier, des universités ou du
gouvernement, par des compagnies telles que Burroughs, Control
Data, Honeywell, IBM, Sperry-Rand et beaucoup d'autres.
Ces ordinateurs de la seconde génération contenaient des
transistors à la place des tubes à vide, mais également des
périphériques courants pour les ordinateurs modernes: imprimante,
enregistreur à bande magnétique, disques magnétiques, mémoire,
système d'exploitation et programmes stockés dans la mémoire de
l'ordinateur. Un des plus importants exemples que l'on puisse
donner est l'IBM 1401, qui fut universellement accepté par
l'industrie, et qui est souvent considéré comme étant le modèle de
l'industrie informatique. En 1965, la plupart des grosses
transactions financières étaient effectuées sur des ordinateurs de
la seconde génération.

Ce furent les programmes stockés en mémoire et les langages de


programmation qui donnèrent aux ordinateurs la flexibilité
nécessaire pour devenir utilisables dans les secteurs financiers.
Les programmes étaient dorénavant stockés en mémoire centrale,
ce qui signifie qu'une instruction pouvait directement être
remplacée par une autre en vue d'effectuer une autre fonction.
Les premiers traitements automatisés des salaires furent
notamment mis en place. Des langages de haut niveau comme les
Cobol (COmmon Business-Oriented Language) et FORTRAN
(FORmula TRANslator) firent leur apparition. Ils remplacèrent le
langage machine et l'assembleur par des mots, des phrases et des
formules mathématiques beaucoup plus proches du langage
naturel, rendant les ordinateurs beaucoup plus faciles à
programmer. De nouveaux métiers émergèrent (programmeur,
analyste, expert) et l'industrie du logiciel se développa avec les
ordinateurs de la seconde génération.
C- Troisième Génération (De 1964 à 1971) :
Bien que les transistors représentent une nette amélioration par
rapport aux tubes à vide, ils généraient encore beaucoup de chaleur
en consommant beaucoup d'énergie, et donc endommageaient les
parties internes sensibles de l'ordinateur. Le cristal à base de
quartz élimina ce problème. Jack Kilby, un ingénieur de Texas
Instruments, développa le circuit intégré (IC) en 1968. Le circuit
intégré combinait trois composants électroniques sur un petit
disque de silicium, fait de quartz. Résultat, les ordinateurs
devinrent de plus en plus petits, puisque plus de composants
étaient mis sur un seul support. Un autre développement propre à
la troisième génération est l'utilisation d'un système d'exploitation
(OS - operating system) qui permettait de faire tourner plusieurs
programmes différents sur une même machine avec un programme
central contrôlant et coordonnant la mémoire centrale de
l ' o r d i n a t e u r .
Les circuits intégrés permettent aussi de réduire considérablement
le le coût du matériel. La troisième génération est particulièrement
marquée par la vulgarisation de l'ordinateur, créant un nouveau
marché, celui du grand public. On s'oriente alors vers l'élaboration
de langages de plus en plus proches des langues naturelles, avec
notamment l'apparition de langages puissantes tels que : PL/1,
Pascal (1970), etc. La troisième génération constitue l'apothéose
d'une informatique où les ordinateurs sont énormes, surpuissants
et centralisent les traitements.

D - Quatrième Génération (De 1971 à nos jours) :


Après les circuits intégrés, les seules améliorations importantes à
réaliser étaient la réduction de la taille de ces mêmes circuits. Le
LSI (Large Scale Integration) était une technique permettant de
placer plusieurs centaines de composants simples (transistors,
diodes, etc.) sur un même support de silicium.
Dans les années 80, on vit naître le VLSI (Very Large Scale
Integration), autorisant l'implantation de plusieurs centaines de
milliers de composants sur un support de même surface. Et
finalement, l'ULSI (Ultra Large Scale Integration) permet aujourd'hui
de placer plusieurs millions de composants sur un même support.
La possibilité de placer autant de composants sur un support d'à
peine la taille d'une pièce de 50 centimes permit de réduire la taille
et le prix des ordinateurs. Cela eut également pour conséquence
l'amélioration de leurs performances, et donc de leur puissance,
mais également de leur fiabilité.
L'Intel 4004 développé en 1971, le premier microprocesseur, était le
premier circuit intégré incorporant tous les éléments d'un
ordinateur dans un seul boîtier: unité de calcul, mémoire, contrôle
des entrées/sorties. Alors qu'il fallait auparavant plusieurs circuits
intégrés différents, chacun dédié à une tâche particulière, un seul
microprocesseur pouvait assurer autant de travaux différents que
possible. Très rapidement, des objets quotidiens tels que fours à
micro-ondes, télévisions et automobiles à moteur à injection
électronique ne tardèrent pas à être équipés de microprocesseurs.

Une telle généralisation des ordinateurs amena des constructeurs


tels que Commodore, Radio Shack et Apple à lancer sur le marché
des micro-ordinateurs prévus pour pouvoir être utilisés par tout un
chacun, et ce dès 1975. Au tout début des années 80, les jeux vidéo
tels que Pac Man et la console de jeux vidéo familiale Atari 2600
initièrent l’intérêt des consommateurs pour des ordinateurs
familiaux plus performants et surtout programmables.
C'est l'avènement de la micro-informatique. L'intégration de plus en
plus poussée permet l'apparition des micro-ordinateurs, donnant
naissance à l'informatique individuelle. La construction des gros
ordinateurs n'est pas pour autant abandonnée. La recherche sur les
langages non plus (Ada, Prolog, etc.) mais une nouvelle race
d'ordinateurs apparaît : l'ordinateur domestique (voir familial) qui
permet de jouer, d'apprendre, de gérer son budget, etc. Un langage
simplifié de programmation est inventé pour traiter des problèmes
relativement simples : Le Basic.

En 1981, IBM lança son ordinateur personnel, le PC, à utiliser à la


maison, au bureau ou dans les écoles. Les années 80 virent une
véritable explosion des clones de compatibles PC, faisant de cet
ordinateur une machine de plus en plus abordable.

Le nombre d'ordinateurs personnels fit plus que doubler de 1981 à


1982, passant de 2 millions d'unités à 5,5 millions. Dix ans plus
tard, ce sont 65 millions d'ordinateurs personnels qui sont utilisés.
Les ordinateurs continuèrent de diminuer en taille, jusqu'à la
création des Laptops, ordinateurs portables tenant dans une
sacoche, puis Palmtops, ordinateurs tenant dans la main. La
concurrence directe des IBM PC fut la lignée des Macintosh
d'Apple, née en 1984. Les Macintoshs furent les premiers
ordinateurs équipés d'un système d'exploitation graphique, le
Finder, qui permettait à ses utilisateurs de bouger des icônes avec
une souris plutôt que de taper des instructions sur un clavier.

Comme les ordinateurs étaient de plus en plus répandus, de


nouvelles façons d'exploiter leur potentiel apparurent. Devenant de
plus en plus puissants tout en diminuant de taille, ils purent être
reliés entre eux ou mis en réseau, pour partager de la mémoire, des
logiciels, des périphériques, des informations et pour communiquer
entre eux. En opposition aux mainframes, ces puissants
ordinateurs distribuant du temps machine entre plusieurs
terminaux, les ordinateurs en réseau permettent à leurs utilisateurs
de s’associer autour de ce même réseau. Utilisant soit un
branchement direct, appelé notamment LAN (Local Area Network)
ou les lignes téléphoniques, ces réseaux peuvent prendre
d'énormes proportions.

Internet, par exemple, relie entre eux plusieurs millions


d'ordinateurs répartis sur la planète entière. Durant les élections
américaines de 1992, le vice-président et candidat Al Gore promit le
développement des "autoroutes de l'information". En attendant le
développement de ces réseaux spécialisés dans le transport
d'informations à haut débit, Internet sert essentiellement à envoyer
et recevoir du courrier électronique, "courrier" ou "Email", et ce de
n'importe où dans le monde.

E- Cinquième Génération :
Définir les ordinateurs de la cinquième génération est plutôt
difficile, puisque nous sommes en train de les créer. L'exemple le
plus connu de ce que pourrait être un ordinateur de la cinquième
génération est le fameux HAL9000 décrit par Arthur C. Clarke dans
son roman 2001: L'Odyssée de l'espace. HAL assure toutes les
fonctions d'un ordinateur de cinquième génération telles qu'on
pourrait les définir. Usant d'intelligence artificielle, HAL peut
raisonner de manière suffisante à alimenter une conversation orale
avec ses utilisateurs, utiliser des caméras vidéo comme
instruments de vision et apprendre de ses propres expériences.

Bien que la conception de HAL9000 soit assez éloignée de


l'approche qu'ont les ingénieurs actuels, beaucoup de ses
fonctions ne le sont pas. En utilisant les dernières avancées
technologiques, les ordinateurs pourraient comprendre le langage
naturel et imiter la pensée humaine.
La traduction simultanée des langues étrangères est aussi un but
majoritaire des ordinateurs de la cinquième génération. Cela
semblait être une tâche relativement facile au début, du moins
jusqu'à ce que les programmeurs réalisent que la compréhension
humaine repose plus sur le contexte et le sens que sur une simple
traduction mot à mot.

Beaucoup de progrès dans la construction des ordinateurs et la


technologie en général ont été faits. Un de ces progrès concerne le
calcul parallèle, qui remplace la simple unité de traitement décrite
par von Neumann par un ensemble de processeurs travaillant en
parallèle sur les mêmes problèmes. Un autre progrès est la
technologie des supraconducteurs, qui éliminent la résistance à la
conductivité électrique et permettent d'améliorer les vitesses de
transmission de l'information.
Les ordinateurs d'aujourd'hui présentent d'ores et déjà quelques
attributs des ordinateurs de la cinquième génération. Par exemple,
des systèmes experts aident les médecins à réaliser des
diagnostics en appliquant les prescriptions qu'un médecin
utiliserait pour répondre aux besoins d'un patient. Mais cela
prendra encore de nombreuses années avant de pouvoir utiliser
des systèmes experts dans de grands champs d'application
différents..

You might also like