Il 0% ha trovato utile questo documento (0 voti)
3 visualizzazioni19 pagine

Progetto Italiano

Il documento tratta dell'evoluzione dei computer, partendo dagli strumenti di calcolo antichi come l'abaco e la macchina di Anticitera, fino ad arrivare ai calcolatori moderni. Viene evidenziato il contributo di figure chiave come Charles Babbage e Ada Lovelace, nonché lo sviluppo di macchine programmabili nel XX secolo, culminando con i primi computer elettronici come l'ENIAC e l'UNIVAC I. La narrazione sottolinea l'importanza storica di ciascun passo nell'evoluzione della tecnologia informatica.

Caricato da

admirxhepa84
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato DOCX, PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
3 visualizzazioni19 pagine

Progetto Italiano

Il documento tratta dell'evoluzione dei computer, partendo dagli strumenti di calcolo antichi come l'abaco e la macchina di Anticitera, fino ad arrivare ai calcolatori moderni. Viene evidenziato il contributo di figure chiave come Charles Babbage e Ada Lovelace, nonché lo sviluppo di macchine programmabili nel XX secolo, culminando con i primi computer elettronici come l'ENIAC e l'UNIVAC I. La narrazione sottolinea l'importanza storica di ciascun passo nell'evoluzione della tecnologia informatica.

Caricato da

admirxhepa84
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato DOCX, PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 19

PROGETTO

Uso aiderno della tecnologia

Materie:Lingua italiano

Classe:8A

Schuola:”Mrekullia”

Lavoro:Noel Xhepa
Rajan Masha
EVOLUZIONE DEI COMPUTER

Antichità e Medioevo

Le prime importanti esigenze di calcolo riguardarono principalmente l'astronomia,


disciplina legata da un verso a concezioni religiose o comunque spiritualiste, e per altro
verso ad applicazioni estremamente pratiche come quelle per la navigazione marittima.
A parte l'abaco, che è il più antico strumento di calcolo usato dall'uomo, le
prime macchine costruite per effettuare operazioni di calcolo, tali che ad un
variabile input dell'utente producessero un corrispondente output come effetto di un
processo dei dati immessi determinato da una regola matematica o logica, sono molto
antiche.
L'esempio più antico conosciuto di calcolatore meccanico è quello della macchina di
Anticitera (circa 200-100 a.C.) Era in grado di calcolare il calendario e la posizione dei
corpi celesti. Recentemente sono stati ritrovati altri frammenti della macchina, nello
stesso fondale marino dove erano stati trovati i 3 frammenti principali (in una zona
ricoperta da rocce, cadute in un momento successivo all'affondamento della nave in
seguito a un terremoto). Questi frammenti ampliano le possibilità di calcolo della
macchina.
Funzioni essenzialmente analoghe avevano alcuni strumenti della marineria, fra i quali
va menzionato l'astrolabio, con il quale in pochi secondi era possibile ottenere risultati
altrimenti assai faticosi da elaborare in ordine alla posizione (punto nave) ed all'ora del
giorno, con istintiva e sottintesa applicazione della trigonometria nautica ai dati di base
della posizione degli astri. Memorabile in proposito resta l'opera degli astrolabisti
moreschi, soprattutto quelli della Scuola di Siviglia, che fra il Duecento ed
il Trecento realizzarono macchine di estrema complessità e raffinatezza (anche
estetica).

Età Moderna
Personaggio chiave del XVII secolo è Nepero, che non solo con i
suoi bastoncini fornisce uno strumento di calcolo per le moltiplicazioni ma con le
teorizzazioni sui logaritmi permette nel 1632 al matematico inglese William Oughtred di
realizzare il regolo calcolatore, con il quale si resero immediate molte operazioni
matematiche. Il primo a documentare l'uso di ruote dentate per la realizzazione di uno
strumento di calcolo meccanico è Guidobaldo Dal Monte nel 1609[2]. La macchina
calcolatrice di Wilhelm Schickard, del 1623, consente di sommare e sottrarre numeri
fino a sei cifre. Le cifre da sommare sono immesse posizionando delle ruote che
collegate a degli ingranaggi producono l'avanzamento di altre ruote che si
posizioneranno sul risultato finale. Di questa macchina sono rimasti soltanto i progetti,
la sua ideazione rimase infatti per lungo tempo non nota, non fornendo contributi al
successivo sviluppo di strumenti meccanici di calcolo.
Poco dopo, sempre intorno al 1642 il filosofo francese Blaise Pascal realizzò la sua
celebre pascalina, per operazioni di somma e sottrazione; sulla base di questa, non
tardò Leibniz (1673) a realizzare una macchina capace di moltiplicare e dividere. Tra le
prime macchine in grado di eseguire i calcoli in modo automatico attraverso ingranaggi
meccanici mossi da contrappesi, figura anche quella inventata e realizzata nel 1709 dal
veneziano Giovanni Poleni.[3]
L'ingegnere tedesco J. H. Müller in un libro pubblicato nel 1786 descrisse l'idea di una
macchina da calcolo in grado di effettuare le quattro operazioni fondamentali
(addizione, sottrazione, moltiplicazione, divisione) impostando i valori di partenza e
mettendola in funzione girando una manovella a mano, finché la macchina dava il
risultato finale. Müller non poté mai realizzare la macchina per mancanza di fondi.
Nell'Ottocento si svilupparono i rudimenti dell'elaborazione basata sul sistema numerico
binario (0,1) e le schede perforate, e ne nacquero le prime applicazioni.
Nel 1833 Charles Babbage (1791-1871) progettò la macchina analitica, il primo vero
calcolatore programmabile, in senso moderno, della storia. Venne realizzato solo
il mulino, la ALU, ma non ne fu mai realizzato un prototipo completo. Era il primo
esempio di un progetto di macchina dotata di un'unità di memoria e un'unità di calcolo.
Nel 1842 la contessa di Lovelace, Ada Byron (1815-1852), figlia del poeta Lord Byron,
scrisse i primi programmi della storia pensati per la macchina analitica di Babbage.
Nel 1854 il maestro di scuola elementare irlandese, George Boole (1815-1864),
inventò l'algebra booleana basandosi sul codice binario.
Nel 1858 la prima macchina differenziale mise piede sul territorio degli Stati Uniti, dato
che l'Osservatorio astronomico Dudley di Albany (New York) importò il calcolatore
automatico meccanico realizzato dagli svedesi Goerg ed Edward Scheutz, basato sul
progetto di Babbage e da quel momento gli americani cercarono di sviluppare in proprio
i filoni di ricerca scientifica e tecnologica.[4]
Nel 1889 Herman Hollerith (1860-1929) brevettò l'utilizzo di schede perforate la cui
lettura avveniva mediante l'analisi di circuiti elettrici (chiusi in corrispondenza dei fori
della scheda) e fondò nel 1896 la società Tabulating Machine Company, che
nel 1924 sarebbe divenuta la IBM. La macchina di Hollerith fu utilizzata per
l'elaborazione del censimento degli Stati Uniti.
Nel 1904 John Ambrose Fleming inventa il tubo a vuoto, progenitore delle valvole
termoioniche.

Il Novecento
Tra gli "antenati" del personal computer, prima ancora dell'avvento dell'era digitale, è
spesso citato anche il progetto Memex. Si trattava di un sistema di archiviazione ideato
dallo scienziato e tecnologo statunitense Vannevar Bush negli anni trenta e mai
realizzato.
Il memex (dalla contrazione di memory expansion) era un sistema nel quale un singolo
individuo avrebbe potuto registrare i propri libri, il proprio archivio e le proprie
comunicazioni personali, meccanizzato in modo da poter essere consultato con
eccezionali velocità e versatilità, una sorta di "estensione privata" della sua memoria. Le
sue caratteristiche rivoluzionarie ne fanno un antenato dell'odierno personal computer.
Era un dispositivo di tipo elettro-ottico, che all'epoca rappresentava la più avanzata e
promettente forma di archiviazione delle informazioni. Il memex era descritto come una
"scrivania" dotata di "schermi traslucidi", una tastiera, un set di bottoni e leve.
La "Bomba" polacca (1938)
Il calcolatore denominato Bomba venne progettato nel 1932 e realizzato nel 1938 dal
matematico polacco Marian Rejewski per decifrare i messaggi tedeschi prodotti dalla
macchina Enigma ideata da Arthur Scherbius. La bomba tuttavia era una
"macinanumeri", ossia un calcolatore che usava il metodo forza bruta, e che non
permetteva alcuna diversa programmazione, se non tramite riassemblaggio e modifiche
al meccanismo. Tale calcolatore venne poi sfruttato come base di partenza per lo
sviluppo e la realizzazione della macchina britannica Colossus nel 1944, dopo che il
regime tedesco ebbe cambiato il sistema di codifica dei messaggi della macchina
Enigma.
Lo Z1 (1939)
Nel 1939 Konrad Zuse (1910-1995) costruì lo Z1, primo di un'innovativa serie di
calcolatori elettromeccanici basati sul sistema binario e programmabili, funzionanti
prima a memorie elettromeccaniche e poi a relè (Z2, Z3). La macchina presentava una
struttura già del tutto analoga a quella dei computer moderni, con la distinzione tra unità
di memoria ed unità di calcolo, e funzionava alla velocità di clock di un solo Hertz,
generata da un motore elettrico. Gli studi di Zuse e quelli di John Vincent Atanasoff,
inventore della memoria rigenerativa, furono la base principale per l'elaborazione
dell'architettura di von Neumann. Il convegno internazionale di Informatica
del 1998 riconobbe a Konrad Zuse con il suo "Z1" il ruolo di inventore del primo
computer programmabile funzionante della storia.
L'ABC (1939)
Nel 1939 il Dr. John Vincent Atanasoff e Clifford E. Berry dell'Iowa State
University costruiscono l'Atanasoff Berry Computer (conosciuto come ABC), il primo
computer digitale totalmente elettronico; rappresenta uno dei maggiori passi avanti della
storia dei calcolatori. L'Atanasoff-Berry Computer introdusse molte innovazioni nel
campo dei calcolatori. Introdusse i numeri binari in un computer digitale (lo Z3 utilizzava
i numeri binari ma era un calcolatore elettromeccanico) e la loro gestione, il calcolo
parallelo, le memorie rigenerative e una separazione tra dati e istruzioni.
Un computer era considerato una specie di macchina per fare i conti molto
velocemente, la naturale evoluzione delle calcolatrici usate durante la seconda guerra
mondiale. Era normale perforare una serie di schede per fornire non solo l'input, ma
anche i rudimenti di quello che oggi prende il nome di sistema operativo.
Questi primi calcolatori erano molto lenti, ed era normale che il risultato del calcolo
venisse presentato varie ore, se non giorni, più tardi. Tra un input e l'altro, inoltre, il
computer rimaneva inattivo, proprio come una macchina calcolatrice.
Lo Z3 (1941)
Il primo computer Turing-completo basato sul sistema numerico binario e totalmente
programmabile fu lo Z3, costruito in Germania da componenti riciclati di telefonia dal già
citato Konrad Zuse, che lo realizzò praticamente da solo, nel 1941. Lo Z3 venne poi
distrutto in un bombardamento dagli Alleati, e per molti anni ne venne ignorata perfino
l'esistenza; di conseguenza il primato di primo computer della storia era stato
riconosciuto alla macchina statunitense "ENIAC".
Harvard Mark I (1943)
L'Aiken-IBM Automatic Sequence Controlled Calculator Mark I (comunemente
abbreviato ASCC, soprannominato Harvard Mark I) è uno dei
primi computer digitali elettromeccanici della storia.
L'Harvard Mark I è stato completato nel gennaio 1943, finanziato dall'IBM e progettato
da Howard Hathaway Aiken, del dipartimento di fisica dell'Università di
Harvard (Cambridge), che venne affiancato nel suo lavoro dagli ingegneri meccanici C.
D. Lake, F. E. Hamilton e B. M. Durfee.
Il Colossus (1944)
Abbiamo poi il citato Colossus, costruito nel 1944 presso il GCHQ di Bletchley
Park nel Buckinghamshire come parte del programma condotto da Alan Turing con
l'aiuto dell'esperto in centralini telefonici T. H. Flowers. Faceva parte del progetto bellico
per decifrare i messaggi tedeschi prodotti da Enigma. A Bletchley Park, non lontano
da Londra, erano stati raccolti centinaia di esperti di enigmistica, maestri di scacchi,
matematici, meccanici di precisione ed elettrotecnici: lo scopo era di cercare di
interpretare i circa 2.000 messaggi segreti intercettati ogni giorno al nemico, molti
provenienti addirittura da Adolf Hitler. I risultati furono importanti, tanto che negli anni
successivi si continuò a migliorare l'apparato e a costruirne di nuovi, fino ad avere ben
211 macchine operative nel maggio del 1945, con 2000 tecnici che le assistevano. Il
progetto era talmente segreto, che Winston Churchill ne ordinò la distruzione alla fine
della seconda guerra mondiale. Solo negli anni novanta, in seguito alla
declassificazione dei relativi documenti, si è giunti a conoscenza della sua esistenza.
Anche questa macchina era Turing-completa.
Calcolatori per l'esercito
Vennero poi gli enormi calcolatori a valvole realizzati a fini bellici dall'Esercito degli Stati
Uniti tra il 1944 e il 1951, quali il già citato "ENIAC" e l'EDVAC (uno dei primi dotato di
programma memorizzato). L'"ENIAC", che godette di una presentazione
"hollywoodiana" che suscitò molto scalpore (anche per i grandi effetti luminosi),
influenzò gran parte della cinematografia di fantascienza e diede origine alla definizione
di "cervello elettronico".[4] Fu poi la volta dell'EDSAC, il primo dotato di caratteri
alfabetici (ma privo di tastiera, che venne inventata nel 1926).
Small Scale Experimental Machine (1948)
Lo Small Scale Experimental Machine (traducibile dall'inglese come "macchina
sperimentale in scala ridotta", sigla SSEM, soprannominato Manchester Baby "bimbo di
Manchester" o Baby) è, tra quelli di cui si ha notizia, il sesto computer elettronico
digitale della storia, dopo l'IBM 603 Electronic Multiplier. L'importanza storica del SSEM
è notevole in quanto è il primo computer elettronico a programma memorizzato della
storia[5] e il primo computer della storia basato sull'architettura di von Neumann.

Anni 1950-1980
Nel 1950 venne realizzata la prima unità a nastro e venne concepita l'idea di interfaccia
a schermo (che fu però prodotto la prima volta solo nel 1965). Nel 1954 la Texas
Instruments iniziò a produrre in serie i transistor, che erano stati utilizzati in un computer
per la prima volta nel 1947. Nel 1955, IBM iniziò ad utilizzare memorie a nuclei di ferrite,
molto più economiche di qualunque altro metodo di immagazzinamento di dati binari
dell'epoca, tanto che furono sostituite dai chip di memoria solo negli anni settanta,
mentre il primo computer totalmente transistorizzato fu il TX-0 del 1956.

UNIVAC I (1951)
L'UNIVAC I (UNIVersal Automatic Computer I) fu il primo computer commerciale creato
negli Stati Uniti. Fu progettato da J. Presper Eckert e John Mauchly (già progettisti
dell'ENIAC) i quali ne iniziarono lo sviluppo all'interno della loro società, l'Eckert-
Mauchly Computer Corporation.
Nel 1950 la società fu assorbita dalla Remington Rand, che creò una "divisione
UNIVAC" con a capo gli stessi Eckert e Mauchly. Il progetto fu completato l'anno
seguente e l'UNIVAC I venne consegnato all'United States Census Bureau il 31
marzo 1951 e messo in funzione il 14 giugno seguente[6].

"Whirlwind", il simulatore di volo (1951)


Fin dagli inizi, però, vi fu un'eccezione alla regola del "macinanumeri": la Marina Militare
degli Stati Uniti finanziò nel 1944 un progetto del Massachusetts Institute of
Technology volto a realizzare un simulatore di volo, completamente elettronico. Il
risultato di questi sforzi fu Whirlwind, il primo computer che reagiva in tempo reale alle
azioni dell'utente (il pilota), invece di attendere l'input e dare risposte. Jay Forrester, a
capo del progetto, comprese che l'importanza di avere un computer che potesse reagire
in tempo reale superava quella del simulatore di volo. Forrester convinse la Marina ad
ampliare il progetto, nel 1948, per realizzare un computer general purpose. Ottenne un
milione di dollari l'anno, tuttavia la Marina non era più interessata al progetto e
minacciava di tagliare i fondi. Ciò che impedì la chiusura del progetto furono i test
nucleari compiuti dall'Unione Sovietica, iniziati nell'agosto 1949. L'Aeronautica Militare
degli Stati Uniti, temendo un attacco a sorpresa con bombardieri a largo raggio,
commissionò al MIT un sistema di allarme interamente basato sulle tecnologie più
avanzate, in cui computer come Whirlwind coordinassero la sorveglianza radar e il
puntamento dei bersagli. Nel 1951 Jay Forrester presentò la versione definitiva di
Whirlwind: otto armadi di valvole. Le prestazioni, per l'epoca, erano eccezionali,
essendo paragonabili a quelle dei personal computer dei primi anni ottanta, quali ad
esempio quelle del TRS-80. Fu anche il primo computer ad essere utilizzato, in qualche
modo, come personal computer: si prenotava per 15 minuti di utilizzo e si potevano
scrivere e poi lanciare dei programmi, compiere simulazioni e altro ancora. Il 20
aprile 1951 Whirlwind dimostrò la fattibilità del progetto, tracciando le rotte di tre aerei
dai dati acquisiti tramite i radar e calcolando le traiettorie d'intercettazione in modo da
portare l'aereo "difensore" entro un chilometro dagli "aggressori". La macchina divenne
dunque il cardine del Progetto Lincoln, il quale portò nel 1956 alla nascita
di SAGE: Semi-Automatic Ground Environment.

BESM (1953)
Il primo computer sufficientemente piccolo fu inventato nel 1953 in Unione
Sovietica da Sergej Lebedev, e chiamato BESM[7]. Il progetto fu appoggiato dal Partito
Comunista e mandato avanti, ma non fu prodotto in serie a causa dell'opposizione del
Ministero della costruzione di macchine e strumenti. Nel 1965 con la riforma di Kosygin,
definito l'inizio del passaggio all'economia Capitalista dell'URSS, il progetto fu
lentamente abbandonato, e completamente fermato nel 1967[8].

Nascita del SAGE (1956)


Il SAGE era un sistema dislocato su tutto il territorio continentale degli USA, con 23
centri operativi, ognuno dei quali era dotato di due computer, anche se poteva
funzionare con uno solo, e poteva ospitare fino a 50 operatori. Il sistema non venne mai
impiegato in combattimento e fu dismesso nel 1984.
La creazione di SAGE portò alla nascita della Silicon Valley dell'Est, in quanto il
Progetto Lincoln divenne il Laboratorio Lincoln e fu spostato a Lexington, vicino
a Boston nel 1952: ben presto, altre organizzazioni high-tech lo seguirono. Inoltre,
SAGE favorì l'inserimento della tecnologia resa disponibile da Whirlwind nel mondo
degli affari: l'IBM, forte dell'esperienza derivante dall'essere il principale fornitore di
computer del programma, creò un sistema di biglietteria nazionale in tempo reale per
l'American Airlines.
Il sistema divenne operativo nel 1964 col nome di SABRE, Semi-Automatic Business-
Related Environment, che divenne il riferimento per tutti i sistemi successivi di
transazioni sul punto vendita.

CEP - la prima calcolatrice elettronica italiana


Nel 1957 il Centro Studi dell'Università di Pisa realizza la macchina pilota, in scala
ridotta, della Calcolatrice Elettronica Pisana (CEP). Il progetto, interamente italiano,
nacque dall'esigenza di disporre di una calcolatrice elettronica per la ricerca scientifica e
dalla contemporanea difficoltà finanziaria di acquisto. Fu Enrico Fermi a lanciare l'idea
di costruirne una in casa, sfruttando parte dei finanziamenti per il sincrotrone di
Frascati. L'organizzazione e sviluppo del progetto è dovuto in particolare a Marcello
Conversi, Direttore del Dipartimento di Fisica, e Alessandro Faedo, matematico, poi
preside della facoltà di Scienze.
Contribuì al progetto anche Olivetti, che da quel progetto trasse lo spunto per lo
sviluppo del calcolatore ELEA.

Il PDP-1 (1960)
I 15 minuti messi a disposizione su Whirlwind ispirarono tra i più giovani utilizzatori del
sistema a realizzare macchine che permettessero a chiunque di sfruttare la potenza
della nuova tecnologia. Fu così che due di loro, Kenneth Olsen e Harlan Anderson,
nel 1957 costituirono una piccola società per commercializzare computer interattivi:
la Digital Equipment Corporation (DEC). Il mercato, però, rimase diffidente: il primo
elaboratore programmabile immesso sul mercato dalla DEC, il PDP-1 del 1960,
vendette solo 49 esemplari. Un numero rispettabile per l'epoca, ma certo molto lontano
da quello del boom dell'informatica che sarebbe giunto vent'anni dopo.
Il PDP-1 tuttavia fu tecnicamente un successo: aveva un monitor a tubo
catodico integrato, poteva trovare posto in una piccola stanza e forniva una rispettabile
potenza di calcolo per il suo costo di "soli" 120.000 dollari. Ma, cosa molto più
importante, lo standard del PDP-1 era "aperto": tutti i dettagli costitutivi erano a
disposizione, in modo da fornire agli utenti "avanzati" la possibilità di personalizzare o
migliorare la macchina in caso di necessità: cosa che, per inciso, avvenne
puntualmente.

Simbiosi uomo-macchina
Se nel 1958 vi erano 2.500 computer negli Stati Uniti, essi salirono a 6.000 nel 1960,
per salire a 20.000 nel 1964 e 63.000 nel 1969.[senza fonte] Con un articolo del 1960 dal
titolo Man-Computer Symbiosis, lo psicologo Joseph C.R. Licklider espone le sue idee
sull'interazione tra la logica algoritmica dei computer e quella euristica umana. Licklider
aveva partecipato al progetto SAGE, e riteneva che il vero SAGE dovesse comprendere
una rete di "centri di pensiero", in cui al posto dei radar ci fossero terminali interattivi, in
grado di interfacciarsi con dei computer contenenti vaste biblioteche.
Con il Progetto MAC del MIT, cominciò a studiare gli effetti dell'impiego dei computer su
vasta scala: anche se non era possibile affidare una macchina a chiunque, dato il costo,
si potevano comunque installare terminali interattivi, che grazie al time-
sharing consentivano a molti utenti in contemporanea l'accesso alle risorse del
computer centrale. Assunto dall'Advanced Research Projects Agency (ARPA) nel 1962,
Licklider continuò il suo progetto coi fondi del Pentagono, dando vita alla prima
comunità virtuale intorno al 1965. Il progetto MAC aveva i suoi bulletin-board, uno
scambio di freeware e naturalmente i suoi hacker.
Nel 1962 viene creata la tastiera Teletype, con cui viene equipaggiato il CDC 3600.
Nello stesso anno viene concepito il concetto di time sharing e creata la
prima sketchpad. L'anno seguente viene ideato il codice ASCII
Douglas Engelbart, all'epoca ingegnere in una società di Menlo Park, California, aveva
sviluppato idee simili a quelle di Licklider, ma i suoi capi erano rimasti scettici. Dopo
aver letto alcuni suoi scritti pubblicati nel 1963, Licklider cominciò a finanziare le
ricerche di Engelbart, in quanto riteneva perseguissero i medesimi scopi. Grazie ai fondi
dell'aeronautica, della NASA e dell'ARPA, Engelbart realizzò quanto mancava alla
nascita del moderno personal computer: il mouse, le "finestre" di dialogo, la
videoscrittura a tutto schermo, l'ipertesto, l'aiuto sensibile al contesto, e molto altro.

Dalla stanza del computer al computer da tavolo


(1965)
Dato il "successo" del PDP-1, a partire dal 1964 la DEC puntò a realizzare un computer
usufruibile da parte di piccoli gruppi o da singole persone. Basandosi su LINC, un
progetto sperimentale del Lincoln Laboratory, e sfruttando la rapida evoluzione delle
componenti elettroniche e di archiviazione, nell'aprile del 1965 fu immesso sul mercato
il primo esemplare del PDP-8.
Incredibilmente piccolo e leggero per l'epoca, e con un prezzo di 18.000 dollari, il PDP-8
cominciò ben presto a fare bella mostra di sé in decine di laboratori e addirittura nelle
scuole. Fu il capostipite della famiglia dei cosiddetti minicomputer, il cui nome fu coniato
nei laboratori londinesi della DEC parafrasando l'indumento più in voga all'epoca:
la minigonna.
Il PDP-8 scatenò la corsa al computer sempre più piccolo e più potente, tanto che a
metà degli anni settanta la DEC e le sue concorrenti cominciarono a penetrare nel
dominio finora incontrastato della IBM: i mainframe.
Nell'ottobre 1965 venne presentato al BEMA di New York il calcolatore Olivetti
Programma 101, considerato da una parte della storiografia informatica il primo
personal computer della storia.
Nel 1969 vi erano 63.000 computer negli Stati Uniti. Nel 1973 il loro numero salì a
105.000; in Italia 4.400 (nel 1969 erano 2.500).

I minicalcolatori europei
Da questo versante dell'Oceano, l'Europa non stette a guardare: dalla metà degli anni
sessanta l'azienda pubblica Selenia del gruppo STET progettò e produsse il Selenia
Gp-16, uno dei primi (se non il primo) microcalcolatori europei di terza generazione.
Concepito principalmente per usi industriali, trovò applicazioni nelle torri di controllo
degli aeroporti e nella prima centrale telefonica elettromeccanica italiana (seconda in
Europa per pochi mesi), i "Gruppi speciali" di CSELT.

Lo Xerox Alto (1970)


Dai laboratori Xerox di Palo Alto nel 1970 nasce un progetto molto in avanti sui suoi
tempi, che vedrà la prima luce due anni dopo, nel 1972: lo Xerox Alto. Prodotto
dallo Xerox Palo Alto Research Center (Xerox PARC), è il primo computer nella storia
ad essere dotato di un display bitmap a finestre con capacità di sovrapposizione,
connesso alla prima stampante laser, collegato alla prima rete Ethernet in local area
network (LAN), e dotato del primo linguaggio orientato ad oggetti: lo Smalltalk. Lo Xerox
Alto rimarrà un concept computer, ma darà il via al progetto Xerox Star (1981), il primo
computer in assoluto sul mercato dotato di interfaccia GUI a icone, con mouse, i cui
concetti e le cui soluzioni ispireranno tutto il mondo dell'informatica di là da
venire. Apple Lisa e poi il Macintosh, Microsoft Word e Microsoft Windows, Xerox
Ventura, l'interfaccia GEM, eccetera, sono tutti debitori in vario modo dello Xerox Star,
diretto discendente dello Xerox Alto.

Il primo computer a microprocessore: il Micral N


(1973)
Nel 1973 l'istituto francese INRA realizzò il primo microcomputer commerciale a fare
uso del microprocessore (Intel 8008). L'istituto, che non aveva fondi per un calcolatore
di grandi dimensioni, realizzò questo computer ad opera dei ricercatori Gernelle,
Lacombe, Benchetrit e Beckmann.

Computer fatti in casa: i microcomputer (1975)


Contemporaneamente, il fascino del "fai da te" dell'elettronica venne contagiato dalla
febbre dei computer: il numero ormai storico di Popular Electronics del
gennaio 1975 mostrava in copertina una scatola celeste con sopra interruttori e led e il
nome in basso a sinistra: Altair 8800.
Il kit, del costo di 495 dollari, poteva essere ordinato presso la MITS di Albuquerque, ed
era basato sul processore Intel 8080. L'8080 aveva tutta l'unità centrale di elaborazione
(Central Processing Unit, CPU) in un solo chip, ed era dunque il primo microcomputer a
prezzi accessibili alle fasce popolari, nonché il primo che avesse avuto un successo
commerciale di massa. Tuttavia, Altair era concepito come un minicomputer: ne aveva
l'aspetto, usava le stesse periferiche e soprattutto ne aveva l'architettura aperta.

L'italiano MD 800 (1975 - 76)


Nel corso del 1975 viene realizzato a Torino il primo microcomputer con tutte le funzioni
tipiche dei futuri personal computer, il nome era MD 800 e venne realizzato da due
giovani ingegneri dello CSELT che fondarono nel 1977 la società DMD Computers per
produrre questi personal computer.[9] L'MD 800 era dotato di processore Intel 8080, 8
KB di RAM, 4 KB di EPROM, Monitor monocromatico con 25 righe da 80 caratteri,
Tastiera estesa con 52 tasti alfanumerici 12 tasti numerici e 18 tasti funzione,
Interfaccia per doppio floppy 8” da 256 K, Interfaccia per lettore e perforatore di nastri,
Interfaccia seriale, Interfaccia stampante, Sistema operativo sviluppato in Assembler
8080 con gestione files compatibile Digital PDP-11.[10][11]

Olivetti
Nell'aprile 1975 alla fiera di Hannover, viene presentato il P6060, primo personal al
mondo venduto come sistema pre-assemblato funzionante (ad esempio, con lettore
di floppy disk già incorporato, per la prima volta al mondo).
Era composto da una unità centrale su due piastre, nomi in codice PUCE1/PUCE2,
realizzata con componenti TTL, driver per floppy disk da 8" singolo o doppio, display
alfanumerico al plasma da 32 caratteri, stampante termica grafica a 80 colonne, 48 KB
di RAM, linguaggio Basic, 40 chilogrammi di peso. Esso era in concorrenza con un
prodotto IBM simile (l'IBM 5100), ma quest'ultimo era dotato di floppy disk esterno. Solo
nel prodotto successivo, il P6040 l'azienda adottò per la prima volta il microprocessore.

La nascita di Microsoft ed Apple (1975-1976)


In seguito, la MITS sviluppò un linguaggio di programmazione ufficiale per l'Altair,
ispirato al BASIC della DEC per il PDP-11. Ispirati dal numero di gennaio di PE, nella
primavera del 1975, due giovani delle parti di Boston crearono il Basic di Altair. Uno di
loro, Paul Allen, faceva il programmatore, mentre un suo compagno delle superiori, Bill
Gates, era uno studente ad Harvard. Terminato il prodotto, Allen lasciò il lavoro, e
insieme con Gates fondò una piccola società, la Microsoft, per commercializzare il
Basic.
Le oltre 10 000 copie vendute di Altair ispirarono la nascita di circoli di appassionati
(hacker), come l'Homebrew Computer Club, la cui prima riunione si tenne a Palo Alto, in
California, nel marzo 1975. Due dei membri del club erano fermamente convinti che per
avere davvero successo, il computer dovesse diventare un elettrodomestico, in grado di
funzionare appena tolto dalla scatola e inserita la spina. Fu così che nel 1976 Steve
Wozniak, licenziatosi da Hewlett Packard, e Steve Jobs, amici di vecchia data, crearono
l'Apple Computer. Entrambi venivano da Cupertino, in quella che dal 1971 è stata
ribattezzata Silicon Valley.

La congiunzione tra gli home computer e personal


computer: l'Apple 2 (1977)
Nel 1977 nasce l'Apple II, rivoluzionario modello di home computer e allo stesso tempo
progenitore per il quale fu usata l'espressione personal computer e il primo modello di
successo di tale categoria prodotto su scala industriale.[12]
Steve Jobs e Steve Wozniak nel 1976 avevano già costruito nel loro garage l'Apple I,
un computer che però poteva essere appetibile solo ad un pubblico di appassionati di
elettronica. Jobs desiderava rendere l'informatica accessibile a tutti quindi, rielaborando
il progetto dell'Apple I, misero tutta l'elettronica in una scatola di
plastica beige comprensiva di tastiera, dando così forma al personal computer che
utilizziamo ancora oggi.
Apple II era dotato di un microprocessore MOS 6502 funzionante alla frequenza di
1 MHz, la memoria RAM ammontava a 4KB (espandibili fino a 48-64KB), 8
alloggiamenti di espansione, un interprete "Integer Basic" su ROM, i codici dei caratteri
alfanumerici erano memorizzati in una EPROM. Come memorie di massa erano
utilizzati un registratore a cassette oppure uno/due drive per floppy disk da 5" 1/4.
Solo successivamente Apple Computer produsse il suo primo hard disk: il ProFile da 5
MB (il cui costo era inavvicinabile, il corrispondente di circa tremila euro). L'Apple II era
interfacciabile con stampanti e modem.
Il sistema operativo era l'Apple DOS (la versione più diffusa fu la 3.3), poi sostituito
dal ProDOS, i primi programmi erano rivolti per un uso da ufficio: Visicalc, Apple Writer,
ScreenWriter ed AppleWorks che fu il primo integrato. I linguaggi: BASIC, UCSD
Pascal, Assembler.
L'Apple II aveva un design accattivante, costava solo 1.195 dollari (escluso il monitor),
ed era adatto anche per i videogiochi. Entro la fine del decennio la Apple sarebbe
divenuta una società con crescite da record. L'adozione di componentistica standard
unita alla relativa semplicità della scheda logica di questo modello, permise la nascita di
vari cloni. Appassionati e hobbisti potevano assemblarsi da soli un modello identico,
essendo in commercio il clone del circuito stampato anche privo di componenti.
L’INTERNET INVENZIONE OPPURE

Con il termine Internet[1] si intende l'insieme di tutti i dispositivi collegati in rete mediante
i protocolli TCP/IP, con i sistemi fisici di comunicazione che li collegano, gli apparati
necessari per la loro interconnessione atti a formare reti di computer e le tecnologie che
permettono a tali reti di interconnettersi.
Il termine nasce come abbreviazione di "internet working", attestato già nel 1945
nell'ambito delle comunicazioni radio in tempo di guerra.[2]. Nel significato di
interconnessione di terminali e computer appartenenti a reti diverse si trova nell'RFC
675, Specification of Internet Transmission Control Protocol, pubblicato nel dicembre
1974.[3]
Solo dal 1991, sulla base dello specifico protocollo HTTP, si è cominciato a sviluppare
il World Wide Web (WWW), successivamente diventato il protocollo predominante, fino
a far confondere, nel linguaggio comune, il termine WWW con il termine internet. Per
questo sempre più spesso quando si incontra il termine internet su letteratura non
specialistica, in realtà si intende il WWW, uno dei maggiori mezzi di comunicazione di
massa (assieme a radio e televisione),[4][5][6] grazie all'offerta all'utente di una vasta serie
di contenuti potenzialmente informativi e di servizi.
Internet è l'interconnessione globale tra reti di telecomunicazioni e informatiche di
natura e di estensione diversa, resa possibile da una suite di protocolli di rete comune
chiamata "TCP/IP" dal nome dei due protocolli principali, il TCP e l'IP, che costituiscono
la "lingua" comune con cui i computer connessi a Internet (gli host) sono interconnessi e
comunicano tra loro a un livello superiore indipendentemente dalla loro
sottostante architettura hardware e software, garantendo così l'interoperabilità tra
sistemi e sottoreti fisiche diverse.
L'avvento e la diffusione di Internet e dei suoi servizi hanno rappresentato una vera e
propria rivoluzione tecnologica e socio-culturale dagli inizi degli anni novanta (assieme
ad altre invenzioni come i telefoni cellulari e il GPS) nonché uno dei motori
dello sviluppo economico mondiale nell'ambito delle Tecnologie dell'Informazione e
della Comunicazione (ICT).
In quanto rete di telecomunicazione, come diffusione è seconda solo alla rete telefonica
generale, anch'essa di diffusione mondiale e ad accesso pubblico, ma ancora più
"capillare" di Internet.
L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti d’America, che
misero a punto durante la guerra fredda un nuovo sistema di difesa e di
controspionaggio.
La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad
accesso pubblico è On-line man computer communication dell'agosto 1962,
pubblicazione scientifica degli statunitensi Joseph Licklider e Welden E. Clark. Nella
pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology,
danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network".
Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere
il 1991 quando il governo degli Stati Uniti d'America emana la High performance
computing act, la legge con cui per la prima volta viene prevista la possibilità di
ampliare, per opera dell'iniziativa privata e con finalità di sfruttamento commerciale, una
rete Internet fino a quel momento rete di computer mondiale di proprietà statale e
destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in
atto anche dagli altri Paesi.

ARPANET (1969)
Il progenitore e precursore della rete Internet è considerato il progetto ARPANET,
finanziato dalla Defence Advanced Research Projects Agency (inglese: DARPA,
Agenzia per i Progetti di ricerca avanzata per la Difesa), un'agenzia dipendente dal
Ministero della Difesa statunitense (Department of Defense o DoD degli Stati Uniti
d'America). In una nota del 25 aprile 1963, Licklider aveva espresso l'intenzione di
collegare tutti i computer e i sistemi di time-sharing in una rete continentale. Avendo
lasciato l'ARPA per un posto all'IBM l'anno seguente, furono i suoi successori che si
dedicarono al progetto ARPANET.
Il contratto fu assegnato all'azienda da cui proveniva Licklider, la Bolt, Beranek and
Newman (BBN) che utilizzò i minicomputer di Honeywell come supporto. La rete venne
fisicamente costruita nel 1969 collegando quattro nodi: l'Università della California
di Los Angeles, l'SRI di Stanford, l'Università della California di Santa Barbara, e
l'Università dello Utah. L'ampiezza di banda era di 50 kbps. Negli incontri per definire le
caratteristiche della rete, vennero introdotti i fondamentali Request for Comments,
tuttora i documenti fondamentali per tutto ciò che riguarda i protocolli informatici della
rete e i loro sviluppi. La super-rete dei giorni nostri è risultata dall'estensione di questa
prima rete, creata sotto il nome di ARPANET.
I primi nodi si basavano su un'architettura client/server, e non supportavano quindi
connessioni dirette (host-to-host). Le applicazioni eseguite erano
fondamentalmente Telnet e i programmi di File Transfer Protocol (FTP). Il servizio
di posta elettronica fu inventata da Ray Tomlinson della BBN nel 1971, derivando il
programma da altri due: il SENDMSG per messaggi interni e CPYNET, un programma
per il trasferimento dei file. L'anno seguente Arpanet venne presentata al pubblico, e
Tomlinson adattò il suo programma per funzionarvi: divenne subito popolare, grazie
anche al contributo di Larry Roberts che aveva sviluppato il primo programma per la
gestione della posta elettronica, RD.
Da Arpanet a Internet (anni settanta e ottanta)
In pochi anni, ARPANET allargò i suoi nodi oltreoceano, contemporaneamente
all'avvento del primo servizio di invio pacchetti a pagamento: Telenet della BBN.
In Francia si inizia la costruzione della rete CYCLADES sotto la direzione di Louis
Pouzin, mentre la rete norvegese NORSAR permette il collegamento di Arpanet con
lo University College di Londra. L'espansione proseguì sempre più rapidamente, tanto
che il 26 marzo del 1976 la regina Elisabetta II spedì un'email alla sede del Royal
Signals and Radar Establishment.
Le emoticon vennero istituite il 12 aprile 1979, quando Kevin MacKenzie suggerì di
inserire un simbolo nelle mail per indicare gli stati d'animo.
Tutto era pronto per il cruciale passaggio a Internet, compreso il primo Denial of
Service: il 27 ottobre 1980, un errore negli header di un messaggio si propagò su tutti i
router (a quel tempo chiamati Interface Message Processor), portando rapidamente alla
saturazione della rete e bloccando per ore l'accesso ad Arpanet[7][8][9][10]. Definendo
il Transmission Control Protocol (TCP) e l'Internet Protocol (IP), DCA e ARPA diedero il
via ufficialmente a Internet come l'insieme di reti interconnesse tramite questi protocolli.

Internet in Italia
Contribuisci ad ampliarla o proponi le modifiche in discussione. Se la voce è approfondita,
valuta se sia preferibile renderla una voce secondaria, dipendente da una più generale. Segui i
suggerimenti del progetto di riferimento.
L'Italia fu il quarto Paese europeo a connettersi in rete, dopo Norvegia, Regno
Unito e Germania[11], grazie ai finanziamenti del Dipartimento della Difesa degli Stati
Uniti. La connessione avvenne dal Centro Nazionale Universitario di Calcolo
Elettronico presso l'Università di Pisa, dove era presente un gruppo di ricerca fra i più
avanzati in Europa. Alcuni di questi componenti del gruppo avevano lavorato a contatto
con quelli che poi sarebbero stati considerati i padri di Internet, Robert Kahn e Vinton
Cerf. Fu proprio Kahn a convincere i suoi superiori a finanziare l'acquisto delle
tecnologie necessarie (Butterfly Gateway) per il gruppo di Pisa[12]. Il collegamento
avvenne il 30 aprile 1986, alle 18 circa[13].
Dopo quei primi esperimenti l'intera comunità dell'università e della ricerca decise di
collaborare per la realizzazione di una rete unica, la rete GARR. Il progetto della rete
GARR fu ideato nel 1986, il gruppo di lavoro venne istituzionalizzato come
Commissione ministeriale del ministero della Ricerca Scientifica con un decreto dell’11
marzo 1988, nel 1989 il progetto ottenne il primo finanziamento ministeriale e all'inizio
del 1991 la Rete GARR fu pienamente operativa.

Nascita del World Wide Web (1991)


Nel 1991 presso il CERN di Ginevra il ricercatore Tim Berners-Lee definì il
protocollo HTTP (HyperText Transfer Protocol), un sistema che permette una
lettura ipertestuale, non-sequenziale dei documenti, saltando da un punto all'altro
mediante l'uso di rimandi (link o, più propriamente, hyperlink). Inoltre, il 6 agosto
Berners-Lee pubblicò il primo sito web della storia, presso il CERN,
all'indirizzo http://info.cern.ch/hypertext/WWW/TheProject.html[14]. Nel World Wide
Web (WWW), le risorse disponibili sono organizzate secondo un sistema di librerie, o
pagine, a cui si può accedere usando appositi programmi detti web browser con cui è
possibile "navigare" visualizzando file, testi, ipertesti, suoni, immagini, animazioni e
filmati. Il primo browser con caratteristiche simili a quelle attuali, il Mosaic, venne
realizzato nel 1993.
Il 30 aprile 1993 il CERN decise di rendere pubblica la tecnologia alla base del World
Wide Web in modo che fosse liberamente implementabile da chiunque. A questa
decisione fece seguito un immediato e ampio successo del World Wide Web in ragione
delle funzionalità offerte, della sua efficienza e della sua facilità di uso. Internet crebbe
in modo esponenziale e in pochi anni riuscì a cambiare la società, trasformando il modo
di lavorare e di relazionarsi. Nel 1998 venne introdotto il concetto di eEconomy.
La facilità d'uso connessa con l'HTTP e i browser, in coincidenza con una vasta
diffusione di computer per uso anche personale[15], hanno aperto l'uso di Internet a una
massa di milioni di persone, anche al di fuori dell'ambito strettamente informatico, con
una crescita in progressione esponenziale.

Diffusione
Se prima del 1993 Internet voleva essere una rete dedicata alle comunicazioni
all'interno della comunità scientifica e tra le associazioni governative e amministrative,
da tale anno si assiste alla diffusione costante di accessi alla rete da parte di computer
di utenti privati fino ad arrivare al 1998 con centinaia di milioni di computer connessi in
rete in parallelo alla diffusione sempre più spinta di PC nel mondo, all'aumento dei
contenuti e servizi offerti dal Web e a modalità di navigazione sempre più usabili,
accessibili e user-friendly nonché a velocità di trasferimento dati a più
alta velocità passando dalle connessioni ISDN alle moderne connessioni V.90 e
a banda larga, quest’ultime tramite sistemi DSL. Questa è la situazione di diffusione di
Internet nel mondo occidentale, mentre nel secondo e terzo mondo il tasso di
penetrazione è ovviamente inferiore, ma in continua crescita grazie al progressivo
riammodernamento delle infrastrutture di reti di telecomunicazioni.

Internet nei primi anni 2000


Internet, nei primi anni 2000, è sinonimo di globalizzazione: possedere un sito
internet significa possedere una vetrina sul mondo ovvero farsi conoscere dappertutto.
Dicendo: "Vado su internet!" la gente afferma che intende visitare i siti del World Wide
Web. È quindi più simile all'insieme delle entità che lo popolano, piuttosto che
all'insieme delle reti di cui è costituito. È più simile alla definizione di insieme degli
iperoggetti[16] di Tim Berners Lee: il WWW; cioè qualcosa di staccato dall'infrastruttura
fisica che, invece, potrebbe subire modificazioni. Importantissima è la capacità
dei browser di vedere internet dando la possibilità di interpretare il maggior numero di
entità possibili.
Internet, Web, World Wide Web, WWW sono oggi trattati come sinonimi. Tanto è vero
che i browser più diffusi permettono il raggiungimento del sito destinazione anche senza
la digitazione del protocollo (http://) e del prefisso (www.). Ad ogni modo, internet e web
rimangono specificatamente due cose diverse: seppur con qualche semplificazione, si
può dire che "internet" è l'hardware, cioè la struttura, il web è il software, cioè il
contenuto.

Evoluzione
Fino all'anno 2000 si è temuto di dover ricreare ex novo l'intera Internet perché il
numero degli host indirizzabile attraverso il protocollo IP era vicino a essere esaurito (IP
shortage) dal numero di host realmente collegati (oltre alla necessaria ridondanza e alle
perdite per motivi sociali).
Il problema è stato parzialmente evitato (o posticipato) con l'uso della tecnica
del NAT/gateway mediante la quale una rete aziendale non ha bisogno di un range
ampio di indirizzi IP fissi, ma può utilizzarne uno più ridotto con anche un buon
risparmio economico.
Oggi, come soluzione definitiva, si è fiduciosi nella possibilità di migrare in modo non
traumatico alla versione successiva di IP (IPv6) che renderà disponibili 2128 nuovi
indirizzi IP.[[[Aiuto:Chiarezza|]]]
I processi di convergenza in atto nell'ambito ICT, media e comunicazioni, indicano
inoltre la sempre più probabile piena integrazione nel prossimo futuro della rete Internet
con la rete telefonica già con la tecnologia VoIP, nonché la parallela fruizione di
contenuti informativi tipici di altri mezzi di comunicazione come la televisione e
la radio in un'unica grande rete.
Se infatti da una parte i primordi della rete sono stati caratterizzati dallo scambio di dati
come i contenuti testuali e immagini statiche, l'evoluzione futura della rete va verso la
sempre maggiore diffusione di contenuti multimediali come ad esempio i
contenuti audio-video (es. streaming, Web Tv, IPTV, Web radio) che ne aumentano
enormemente il traffico complessivo e il relativo carico sui nodi o sistemi interni di
commutazione (router) e sui server, vuoi anche per l'aumento del numero di utenti
connessi in rete al mondo. La soluzione più praticata a questo problema è la
decentralizzazione delle risorse ovvero sistemi di rete distribuiti (es. Content Delivery
Network) in grado di gestire l'aumento di traffico, mentre per far fronte all'aumento
di banda necessaria sui collegamenti sono da menzionare nuove e più efficienti
tecniche di compressione dati che hanno reso possibile il diffondersi di servizi sempre
più evoluti e pesanti.
Sotto questo punto di vista l'evoluzione della rete dal punto di vista dei servizi richiede
anche lo sviluppo di un'infrastruttura di rete di accesso a banda sempre più larga con la
realizzazione delle cosiddette Next Generation Network per sopperire all'aumento
di traffico previsto e la fruizione dei servizi stessi dall'utente finale. Gli stessi operatori
che dovrebbero investire sulla realizzazione di tali infrastrutture richiedono però un
ritorno certo dell'investimento ovvero una convenienza economica che risulterebbe
invece molto più a favore dei grandi network o fornitori di servizi e contenuti di rete
(Google, YouTube, Facebook, Twitter, LinkedIn, ecc.) sollevando così il problema della
cosiddetta neutralità della rete o meno.
La natura globale con la quale è stata concepita Internet ha fatto sì che oggi, un'enorme
varietà di processori, non solo apparati di calcolo in senso stretto, ma a volte anche
incorporati in maniera invisibile (embedded) in elettrodomestici e in apparecchi dei più
svariati generi, abbiano tra le proprie funzionalità quella di connettersi a Internet e,
attraverso questo, a qualche servizio di aggiornamento, di distribuzione di informazione
e dati; dal frigorifero, al televisore, all'impianto di allarme, al forno, alla macchina
fotografica: ogni processore oramai è abilitato a comunicare via Internet. In tal senso
dunque un'ulteriore evoluzione della Rete, propugnata da alcuni, potrebbe essere
l'estensione della connettività agli oggetti taggati del mondo reale dando vita alla
cosiddetta Internet delle cose.

VANTAGGI E SVANTAGGI DI INTERNET

Il concetto di Internet è nato negli anni ’60 come progetto di ricerca finanziato dal
governo degli Stati Uniti, con l’obiettivo di creare una rete di comunicazione
decentralizzata che potesse sopravvivere a un attacco nucleare.

La prima trasmissione di dati tra computer su Internet è avvenuta nel 1969 e il primo
messaggio è stato inviato tra due computer situati in California.

Internet ha conosciuto una rapida crescita negli anni ’80 e ’90, quando aziende e
organizzazioni private hanno iniziato a sviluppare e fornire servizi Internet al pubblico.

Con l’introduzione del World Wide Web, Internet ha iniziato a trasformarsi da rete
prevalentemente testuale a rete multimediale.

Negli ultimi anni, Internet è diventato onnipresente e ha svolto un ruolo fondamentale


nel plasmare il nostro modo di vivere, lavorare e comunicare, con l’ascesa dei social
media, del commercio elettronico e dei servizi Internet basati sulla telefonia mobile.

Vantaggi Di Internet
 Accesso e diffusione delle informazioni: Un vantaggio di Internet è che ha reso più
facile che mai l'accesso a un'ampia gamma di fonti di informazione su praticamente
qualsiasi argomento. I motori di ricerca come Google e Bing, così come le banche dati
specializzate e le biblioteche digitali, permettono di trovare informazioni in modo rapido
e semplice. Internet consente inoltre la diffusione di informazioni su scala globale,
rendendo possibile la condivisione di idee e la collaborazione a progetti
indipendentemente dalla posizione geografica.
 Comunicazione e connettività: Un altro vantaggio di Internet è che ha rivoluzionato la
comunicazione e ha permesso alle persone di rimanere in contatto tra loro
indipendentemente dalla loro ubicazione. L'e-mail, la messaggistica istantanea e le
videoconferenze sono solo alcuni esempi dei modi in cui Internet ha reso la
comunicazione tecnologica più veloce e conveniente. Inoltre, la comunicazione via
Internet ha reso più facile per le persone connettersi tra loro e formare comunità basate
su interessi e hobby comuni.
 Commercio e transazioni finanziarie online: Internet ha permesso alle aziende di
raggiungere clienti in tutto il mondo e ai consumatori di acquistare prodotti e servizi
comodamente da casa. Mercati online come Amazon e Alibaba, nonché sistemi bancari
e di pagamento online come PayPal e Venmo, hanno reso più facile e sicuro fare
acquisti online su Internet.
 Istruzione e auto-miglioramento: Internet offre una formazione più accessibile e
conveniente che mai. Corsi, esercitazioni e video didattici online sono ampiamente
disponibili e accessibili a chiunque abbia una connessione a Internet. Inoltre, Internet è
una risorsa preziosa per l'auto-miglioramento, in quanto fornisce accesso a informazioni
e strumenti per l'apprendimento di nuove abilità e hobby.
 Intrattenimento e tempo libero: Internet offre un'ampia gamma di opzioni di
intrattenimento, dai servizi di streaming video come Netflix e Hulu, ai servizi di
streaming musicale come Spotify, alle esperienze di gioco e di realtà virtuale. Inoltre,
Internet ha permesso alle persone di tenersi informate sulle loro squadre sportive
preferite e sui personaggi dello spettacolo, di rimanere in contatto attraverso i siti di
social networking e le chat room e di trovare e acquistare facilmente i biglietti per gli
eventi o altri servizi online.

Svantaggi Di Internet
 Criminalità informatica e problemi di sicurezza: Internet ha anche reso più facile per
gli hacker e i criminali informatici rubare informazioni personali, commettere frodi e
lanciare attacchi informatici. Queste minacce alla sicurezza possono causare perdite
finanziarie, furti di identità e persino danni alle infrastrutture critiche degli utenti di
Internet.
 Dipendenza da Internet e diminuzione dell'interazione sociale: La dipendenza da
Internet e l'uso eccessivo possono portare a una diminuzione dell'interazione sociale
faccia a faccia, con conseguenti problemi di solitudine, depressione e isolamento
sociale.
 Diffusione di disinformazione e fake news: Internet è diventato una piattaforma per
la diffusione di disinformazione e fake news, che possono portare a confusione, sfiducia
e divisione. È più difficile discernere la credibilità delle informazioni quando sono
facilmente diffuse su Internet.
 Problemi di privacy e perdita di dati personali: Un altro inconveniente è che Internet
ha reso possibile alle aziende e alle organizzazioni la raccolta e l'archiviazione di grandi
quantità di dati personali, che possono essere vulnerabili agli hackeraggi e alle
violazioni dei dati. Permette inoltre di tracciare e profilare costantemente, il che
potrebbe essere considerato una grave violazione della privacy.
 Dislocazione economica e occupazionale: Internet ha permesso alle aziende di
esternalizzare i posti di lavoro in altri Paesi, provocando la perdita di posti di lavoro nei
Paesi sviluppati. Inoltre, l'aumento dell'automazione, dei mercati online e dell'e-
commerce ha portato a cambiamenti strutturali nell'economia che hanno avuto un
impatto negativo su alcuni settori e regioni.

Conclusione Su Vantaggi E Svantaggi Di Internet

Internet ha portato molti benefici, rendendo le informazioni più accessibili, consentendo


una comunicazione globale e facilitando il commercio elettronico e l’istruzione. Tuttavia,
porta con sé anche la criminalità informatica, la dipendenza da internet, la diffusione
della disinformazione, i problemi di privacy e la delocalizzazione economica e
lavorativa.

Internet continuerà a plasmare il nostro modo di vivere, lavorare e comunicare. È


importante affrontare e mitigare gli impatti negativi di Internet, continuando a sfruttarne i
vantaggi.

Internet è uno strumento potente e potenzialmente in grado di apportare grandi benefici


agli individui e alla società nel suo complesso. Tuttavia, richiede anche un uso
responsabile, una protezione vigile e un processo decisionale informato per trarne tutti i
benefici ed evitare le insidie.

Potrebbero piacerti anche