Resume Cours Informatiques Generales
Resume Cours Informatiques Generales
Resume Cours Informatiques Generales
Le cours "COURS D'INFORMATIQUE GENERALE" du Prof. YENDE R. Grevisse est un cours qui vise à
fournir aux étudiants une introduction complète à l'informatique. Le cours est divisé en plusieurs
parties distinctes. Voici un résumé détaillé de chaque partie :
- Définition de l'informatique
- Historique de l'informatique
- Subdivision de l'informatique
- Concepts de base tels que l'information, les données, le traitement de l'information, les systèmes
informatiques et les systèmes d'information
- Langages informatiques
- Caractéristiques de l'ordinateur
- Systèmes de numération tels que le système décimal, le système binaire, le système octal et le
système hexadécimal
- Codage des caractères à l'aide de différents codes tels que le code DCB, le code Baudot, le code
ASCII et le code EBCDIC
- Historique de l'Internet
- Finalités de l'Internet
En résumé, ce cours aborde les concepts fondamentaux de l'informatique, les composants et les
fonctionnalités des ordinateurs, le codage et la représentation des informations, les systèmes
d'exploitation, les logiciels informatiques, ainsi que l'Internet et le World Wide Web. Il offre aux
étudiants une compréhension approfondie de ces sujets essentiels.
Définition :
L'informatique est le domaine d'étude et de pratique qui concerne le traitement automatique de
l'information à l'aide de machines. || L’informatique est la science du traitement automatiques de
l’information à l’aides des machines telles que des ordinateurs.
Historique de l'informatique :
L'histoire de l'informatique remonte à plusieurs milliers d'années, avec des développements
significatifs à travers différentes civilisations. Cependant, l'émergence de l'informatique moderne
est généralement attribuée à l'invention de l'ordinateur électronique dans les années 1940. Le
premier ordinateur électronique programmable, appelé ENIAC (Electronic Numerical Integrator
and Computer), a été développé aux États-Unis en 1946. Depuis lors, l'informatique a connu une
évolution rapide, marquée par des avancées technologiques majeures, l'essor des réseaux
informatiques et l'émergence d'Internet.
- Vers 500, les civilisations méditerranéennes utilisent l’abaque pour effectuer des calculs,
tandis que le boulier est d’usage en Chine et au Japon.
- En 1614, NEPER présente sa théorie des logarithmes : les tables de Neper permettent de
transformer des multiplications compliquées en simple additions.
- En 1641, Blaise PASCAL (âgé alors de 19 ans) invente la machine à calculer nommée «
Pascaline » ne pouvant effectuer que deux opérations (l’addition et la soustraction) avec
des nombres de 6 chiffres, destinée à aider son père qui était percepteur.
- En 1673, Gottfried Wilhelm LEIBNIZ (1646-1716) modifia la « Pascaline » en y ajoutant la
multiplication, la division ainsi que l’extraction de la racine carrée. LEIBNIZ inventa aussi le
système binaire, système de numération qui sera approprié aux futurs ordinateurs.
- En 1728, l’ingénieur Français FALCON construisit une commande de métier à tisser à l’aide
d’une planchette de bois muni de trous. Il s’agit de la première machine capable d’exécuter
un programme.
- En 1806, Joseph Marie JACQUARD perfectionne le système de FALCON en remplaçant les
planches par des cartes perforées.
- En 1812, le mathématicien anglais Charles BABBAGE (1792-1871) conçoit une machine
différentielle et appareil mécanique pouvant effectuer des calculs mathématiques simples
avec une précision pouvant atteindre 31 chiffres. Il fut abandonné cette construction pour
des raisons financières.
Plus tard, il conçoit une machine analytique à cartes perforées afin d’effectuer des calculs plus
compliqués. Cette réflexion sur la mécanisation du calcul annonce l’informatique.
- En 1936, Alan Turing infirme la théorie de Kurt GODEL et démontre qu’on ne peut pas tout
calculer de manière automatique. Il imagine pour sa démonstration un outil qui inspire
encore le fonctionnement de nos ordinateurs. Une machine universelle qui manipule des
informations des lettres ou des chiffres suivant des règles définies dans une table. C’est la
machine de Turing.
- En 1937 : la mise au point de Mark I d'IBM (International Business Machines) permet de
calculer 5 fois plus vite que l'homme. Il est constitué de 3300 engrenages, 1400
commutateurs et 800 km de fil. Les engrenages seront remplacés en 1947 par des
composants électroniques.
- En 1943 : le Colossus 1 est mis au point en Angleterre, durant la Deuxième guerre
mondiale.
- En 1948 : Invention du transistor qui va permettre de rendre les Ordinateurs moins
encombrants et moins coûteux.
- En 1949 : mise au point de l’UNIVAC (UNIVersal Automatic Computer). Il Utilise des bandes
magnétiques en remplacement des cartes perforées. Il est composé de 5000 tubes, sa
mémoire est de 1000 mots de 12 bits, il peut réaliser 8333 additions ou 555 multiplications
par seconde. Sa superficie au sol est de 25m².
- En 1958 : mise au point du circuit intégré, qui permet de réduire encore la taille et le coût
des ordinateurs.
- En 1960 : la mise au point du premier ordinateur à base de transistors :l’IBM 7000.
- Aujourd'hui..., les ordinateurs parlent, entendent, voient et se déplacent.Et au XXIème
siècle...des ordinateurs qui pensent. Cependant, les chercheurs américains partent du
principe que les ordinateurs actuels, même les plus puissants, ne seront jamais aussi
intelligents qu'un cerveau vivant. Il faut donc inventer des ordinateurs capables de penser
par eux-mêmes et plus seulement d'exécuter un programme écrit par l'homme.
Subdivisions de l’informatique :
L’informatique qui est née de la physique, l’électronique, Mathématiques et autres domaines très
complexes de la science est une science à l’intérieur de laquelle, on dénombre plusieurs disciplines,
dont on subdivisera en cinq domaines :
2. L’informatique systématique et logique : c’est un domaine qui étudie les architectures des
systèmes informatiques dans lesquelles interviennent les ordinateurs, les réseaux
d’interconnexions des ordinateurs, …
4. L’informatique méthodologique : c’est un domaine qui s’occupe de la recherche sur les méthodes
de programmation et d’exploitation des systèmes informatiques. C’est dans ce contexte, qu’il faut
placer le « génie logiciel ».
Concepts de base :
Information : L'information est une donnée qui a été traitée et a acquis une signification.
Elle peut être représentée sous différentes formes (texte, images, vidéos, etc.) et être
utilisée pour prendre des décisions, communiquer ou résoudre des problèmes.
Données : Les données sont des faits bruts, non traités, qui peuvent être collectés et
enregistrés. Elles peuvent être structurées (organisées selon un modèle) ou non structurées
(sans organisation prédéfinie).
Traitement de l’information : Il s'agit de l'ensemble des opérations effectuées sur les
données pour les transformer en information utile. Le traitement de l'information
comprend des opérations telles que la collecte, la saisie, le stockage, le traitement,
l'analyse et la présentation des données.
Systèmes informatiques : Ce sont des ensembles interconnectés de matériel, de logiciels et
de données qui permettent de traiter l'information. Un système informatique comprend
généralement un ou plusieurs ordinateurs, des périphériques, des réseaux et des logiciels.
Systèmes d’information (SI) : Ce sont des systèmes qui permettent de collecter, de stocker,
de traiter et de diffuser des informations dans une organisation. Les systèmes
d'information sont utilisés pour gérer les données et soutenir les opérations commerciales,
la prise de décision et la planification stratégique. NB : il existe plusieurs typologies de
SI( le SI automatisé ;le SI manuel etc …..)
Langages informatiques :
On appelle « langage informatique » un langage destiné à décrire l'ensemble des actions
consécutives qu'un ordinateur doit exécuter.
Les langages informatiques sont des langages formels utilisés pour écrire des programmes
informatiques. Ils permettent aux programmeurs de communiquer avec l'ordinateur et de spécifier
les instructions à exécuter. Il existe de nombreux langages informatiques, chacun ayant ses propres
caractéristiques et utilisations spécifiques. Certains exemples courants de langages informatiques
sont : le langage C, le langage Java, le langage Python, le langage JavaScript, etc. Chaque langage
informatique a sa syntaxe et sa sémantique propres, ce qui détermine comment les instructions
doivent être écrites et interprétées par l'ordinateur. Les langages informatiques peuvent être
classés en langages de bas niveau (proches du langage machine) et en langages de haut niveau
(plus abstraits et plus proches du langage humain).
Un ordinateur est une machine électronique complexe qui fonctionne grâce à des dispositifs
optiques, électromécaniques ou électromagnétiques. Son fonctionnement est guidé par des
programmes créés par l'homme. L'ordinateur est inerte sans alimentation électrique ou
programme, il n'a pas d'initiative propre et son "quotient intellectuel" est nul. Pour bien utiliser un
ordinateur, il est important de comprendre son fonctionnement.
L'ordinateur travaille sur des données binaires, représentées par des suites de 0 et de 1. Chaque
information est représentée par une série de bits, où chaque bit peut prendre la valeur 0 ou 1. À
chaque top d'horloge, les données en cours de traitement sont modifiées. Entre deux tops
d'horloge, l'ordinateur est inactif.
La codification des informations en binaire et leur conversion inverse sont réalisées selon des
conventions établies. Par exemple, la séquence 0101 représente la valeur 5 en binaire pur sur 4 bits,
et la séquence 01010001 représente la lettre Q en majuscule selon le code ASCII (American
Standard Code for Information Interchange).
En résumé, l'informatique utilise les ordinateurs pour traiter des informations en binaire, en
suivant un rythme d'horloge interne. Comprendre le fonctionnement de l'ordinateur et les
conventions de codification permet une utilisation efficace de cet outil.
2. Systèmes d'exploitation : Étudier les logiciels qui contrôlent et coordonnent les ressources
matérielles de l'ordinateur. Les systèmes d'exploitation permettent de gérer les fichiers, les
processus, la mémoire, les périphériques, etc.
3. Programmation : Apprendre à écrire des instructions ou des programmes pour l'ordinateur. Cela
peut inclure des langages de programmation tels que C, Java, Python, etc. La programmation
permet de créer des logiciels et d'automatiser des tâches.
5. Sécurité informatique : Comprendre les mesures et les techniques pour protéger les systèmes
informatiques contre les menaces et les attaques. Cela inclut la confidentialité des données,
l'authentification, la gestion des accès, la détection d'intrusion, etc.
L'étude de l'ordinateur est essentielle dans le monde moderne, car l'informatique est devenue
omniprésente. Comprendre les principes et les concepts de base de l'ordinateur permet d'utiliser
efficacement la technologie, de résoudre des problèmes complexes et de contribuer au
développement de nouvelles applications et innovations.
2. Gérer des données : Lorsque vous travaillez sur un ordinateur, vous voulez souvent enregistrer les
résultats de votre travail, que ce soit un document, un e-mail ou une image. L'ordinateur doit donc
être capable de stocker et d'organiser ces données pour que vous puissiez les retrouver
ultérieurement.
En résumé, un ordinateur calcule, gère des données et communique. C'est un outil polyvalent qui
nous permet d'accomplir de nombreuses tâches dans notre vie quotidienne et professionnelle.
2. Stockage de données : Il permet de ranger et de retrouver des informations, comme des fichiers
et des programmes.
3. Communication : Il permet d'échanger des données avec d'autres ordinateurs via Internet,
comme l'envoi d'e-mails ou le partage de fichiers.
5. Création de contenu : Il est utilisé pour créer des documents, des images, des vidéos, de la
musique et d'autres types de contenu.
6. Gestion de l'information : Il aide à organiser et à trouver des informations dans des bases de
données et des systèmes de fichiers.
7. Divertissement : Il permet de jouer à des jeux, de regarder des films, d'écouter de la musique et
de naviguer sur Internet.
En résumé, un ordinateur traite, stocke, communique, automatise, crée, gère et divertit. C'est un
outil polyvalent qui peut être utilisé dans de nombreux domaines de la vie quotidienne et
professionnelle.
2. Première génération : le tube à vide (1945-1955) - Les tubes à vide sont utilisés comme
composants électroniques dans les ordinateurs. Des machines célèbres comme l'ENIAC sont
construites, mais elles sont volumineuses, consomment beaucoup d'énergie et génèrent beaucoup
de chaleur.
4. Troisième génération : le circuit intégré (1965-1980) - Les circuits intégrés, également appelés
puces électroniques, sont introduits. Ils regroupent plusieurs transistors sur une seule puce de
silicium, ce qui permet de réduire encore la taille des ordinateurs et d'augmenter leur capacité de
traitement.
5. Quatrième génération : l'essor des ordinateurs personnels (1980-) - Les ordinateurs personnels
deviennent populaires et accessibles au grand public. Ils sont utilisés à des fins personnelles,
professionnelles et de divertissement. Cette génération est caractérisée par une grande diversité de
performances et d'applications.