Progetto Italiano
Progetto Italiano
Materie:Lingua italiano
Classe:8A
Schuola:”Mrekullia”
Lavoro:Noel Xhepa
Rajan Masha
EVOLUZIONE DEI COMPUTER
Antichità e Medioevo
Età Moderna
Personaggio chiave del XVII secolo è Nepero, che non solo con i
suoi bastoncini fornisce uno strumento di calcolo per le moltiplicazioni ma con le
teorizzazioni sui logaritmi permette nel 1632 al matematico inglese William Oughtred di
realizzare il regolo calcolatore, con il quale si resero immediate molte operazioni
matematiche. Il primo a documentare l'uso di ruote dentate per la realizzazione di uno
strumento di calcolo meccanico è Guidobaldo Dal Monte nel 1609[2]. La macchina
calcolatrice di Wilhelm Schickard, del 1623, consente di sommare e sottrarre numeri
fino a sei cifre. Le cifre da sommare sono immesse posizionando delle ruote che
collegate a degli ingranaggi producono l'avanzamento di altre ruote che si
posizioneranno sul risultato finale. Di questa macchina sono rimasti soltanto i progetti,
la sua ideazione rimase infatti per lungo tempo non nota, non fornendo contributi al
successivo sviluppo di strumenti meccanici di calcolo.
Poco dopo, sempre intorno al 1642 il filosofo francese Blaise Pascal realizzò la sua
celebre pascalina, per operazioni di somma e sottrazione; sulla base di questa, non
tardò Leibniz (1673) a realizzare una macchina capace di moltiplicare e dividere. Tra le
prime macchine in grado di eseguire i calcoli in modo automatico attraverso ingranaggi
meccanici mossi da contrappesi, figura anche quella inventata e realizzata nel 1709 dal
veneziano Giovanni Poleni.[3]
L'ingegnere tedesco J. H. Müller in un libro pubblicato nel 1786 descrisse l'idea di una
macchina da calcolo in grado di effettuare le quattro operazioni fondamentali
(addizione, sottrazione, moltiplicazione, divisione) impostando i valori di partenza e
mettendola in funzione girando una manovella a mano, finché la macchina dava il
risultato finale. Müller non poté mai realizzare la macchina per mancanza di fondi.
Nell'Ottocento si svilupparono i rudimenti dell'elaborazione basata sul sistema numerico
binario (0,1) e le schede perforate, e ne nacquero le prime applicazioni.
Nel 1833 Charles Babbage (1791-1871) progettò la macchina analitica, il primo vero
calcolatore programmabile, in senso moderno, della storia. Venne realizzato solo
il mulino, la ALU, ma non ne fu mai realizzato un prototipo completo. Era il primo
esempio di un progetto di macchina dotata di un'unità di memoria e un'unità di calcolo.
Nel 1842 la contessa di Lovelace, Ada Byron (1815-1852), figlia del poeta Lord Byron,
scrisse i primi programmi della storia pensati per la macchina analitica di Babbage.
Nel 1854 il maestro di scuola elementare irlandese, George Boole (1815-1864),
inventò l'algebra booleana basandosi sul codice binario.
Nel 1858 la prima macchina differenziale mise piede sul territorio degli Stati Uniti, dato
che l'Osservatorio astronomico Dudley di Albany (New York) importò il calcolatore
automatico meccanico realizzato dagli svedesi Goerg ed Edward Scheutz, basato sul
progetto di Babbage e da quel momento gli americani cercarono di sviluppare in proprio
i filoni di ricerca scientifica e tecnologica.[4]
Nel 1889 Herman Hollerith (1860-1929) brevettò l'utilizzo di schede perforate la cui
lettura avveniva mediante l'analisi di circuiti elettrici (chiusi in corrispondenza dei fori
della scheda) e fondò nel 1896 la società Tabulating Machine Company, che
nel 1924 sarebbe divenuta la IBM. La macchina di Hollerith fu utilizzata per
l'elaborazione del censimento degli Stati Uniti.
Nel 1904 John Ambrose Fleming inventa il tubo a vuoto, progenitore delle valvole
termoioniche.
Il Novecento
Tra gli "antenati" del personal computer, prima ancora dell'avvento dell'era digitale, è
spesso citato anche il progetto Memex. Si trattava di un sistema di archiviazione ideato
dallo scienziato e tecnologo statunitense Vannevar Bush negli anni trenta e mai
realizzato.
Il memex (dalla contrazione di memory expansion) era un sistema nel quale un singolo
individuo avrebbe potuto registrare i propri libri, il proprio archivio e le proprie
comunicazioni personali, meccanizzato in modo da poter essere consultato con
eccezionali velocità e versatilità, una sorta di "estensione privata" della sua memoria. Le
sue caratteristiche rivoluzionarie ne fanno un antenato dell'odierno personal computer.
Era un dispositivo di tipo elettro-ottico, che all'epoca rappresentava la più avanzata e
promettente forma di archiviazione delle informazioni. Il memex era descritto come una
"scrivania" dotata di "schermi traslucidi", una tastiera, un set di bottoni e leve.
La "Bomba" polacca (1938)
Il calcolatore denominato Bomba venne progettato nel 1932 e realizzato nel 1938 dal
matematico polacco Marian Rejewski per decifrare i messaggi tedeschi prodotti dalla
macchina Enigma ideata da Arthur Scherbius. La bomba tuttavia era una
"macinanumeri", ossia un calcolatore che usava il metodo forza bruta, e che non
permetteva alcuna diversa programmazione, se non tramite riassemblaggio e modifiche
al meccanismo. Tale calcolatore venne poi sfruttato come base di partenza per lo
sviluppo e la realizzazione della macchina britannica Colossus nel 1944, dopo che il
regime tedesco ebbe cambiato il sistema di codifica dei messaggi della macchina
Enigma.
Lo Z1 (1939)
Nel 1939 Konrad Zuse (1910-1995) costruì lo Z1, primo di un'innovativa serie di
calcolatori elettromeccanici basati sul sistema binario e programmabili, funzionanti
prima a memorie elettromeccaniche e poi a relè (Z2, Z3). La macchina presentava una
struttura già del tutto analoga a quella dei computer moderni, con la distinzione tra unità
di memoria ed unità di calcolo, e funzionava alla velocità di clock di un solo Hertz,
generata da un motore elettrico. Gli studi di Zuse e quelli di John Vincent Atanasoff,
inventore della memoria rigenerativa, furono la base principale per l'elaborazione
dell'architettura di von Neumann. Il convegno internazionale di Informatica
del 1998 riconobbe a Konrad Zuse con il suo "Z1" il ruolo di inventore del primo
computer programmabile funzionante della storia.
L'ABC (1939)
Nel 1939 il Dr. John Vincent Atanasoff e Clifford E. Berry dell'Iowa State
University costruiscono l'Atanasoff Berry Computer (conosciuto come ABC), il primo
computer digitale totalmente elettronico; rappresenta uno dei maggiori passi avanti della
storia dei calcolatori. L'Atanasoff-Berry Computer introdusse molte innovazioni nel
campo dei calcolatori. Introdusse i numeri binari in un computer digitale (lo Z3 utilizzava
i numeri binari ma era un calcolatore elettromeccanico) e la loro gestione, il calcolo
parallelo, le memorie rigenerative e una separazione tra dati e istruzioni.
Un computer era considerato una specie di macchina per fare i conti molto
velocemente, la naturale evoluzione delle calcolatrici usate durante la seconda guerra
mondiale. Era normale perforare una serie di schede per fornire non solo l'input, ma
anche i rudimenti di quello che oggi prende il nome di sistema operativo.
Questi primi calcolatori erano molto lenti, ed era normale che il risultato del calcolo
venisse presentato varie ore, se non giorni, più tardi. Tra un input e l'altro, inoltre, il
computer rimaneva inattivo, proprio come una macchina calcolatrice.
Lo Z3 (1941)
Il primo computer Turing-completo basato sul sistema numerico binario e totalmente
programmabile fu lo Z3, costruito in Germania da componenti riciclati di telefonia dal già
citato Konrad Zuse, che lo realizzò praticamente da solo, nel 1941. Lo Z3 venne poi
distrutto in un bombardamento dagli Alleati, e per molti anni ne venne ignorata perfino
l'esistenza; di conseguenza il primato di primo computer della storia era stato
riconosciuto alla macchina statunitense "ENIAC".
Harvard Mark I (1943)
L'Aiken-IBM Automatic Sequence Controlled Calculator Mark I (comunemente
abbreviato ASCC, soprannominato Harvard Mark I) è uno dei
primi computer digitali elettromeccanici della storia.
L'Harvard Mark I è stato completato nel gennaio 1943, finanziato dall'IBM e progettato
da Howard Hathaway Aiken, del dipartimento di fisica dell'Università di
Harvard (Cambridge), che venne affiancato nel suo lavoro dagli ingegneri meccanici C.
D. Lake, F. E. Hamilton e B. M. Durfee.
Il Colossus (1944)
Abbiamo poi il citato Colossus, costruito nel 1944 presso il GCHQ di Bletchley
Park nel Buckinghamshire come parte del programma condotto da Alan Turing con
l'aiuto dell'esperto in centralini telefonici T. H. Flowers. Faceva parte del progetto bellico
per decifrare i messaggi tedeschi prodotti da Enigma. A Bletchley Park, non lontano
da Londra, erano stati raccolti centinaia di esperti di enigmistica, maestri di scacchi,
matematici, meccanici di precisione ed elettrotecnici: lo scopo era di cercare di
interpretare i circa 2.000 messaggi segreti intercettati ogni giorno al nemico, molti
provenienti addirittura da Adolf Hitler. I risultati furono importanti, tanto che negli anni
successivi si continuò a migliorare l'apparato e a costruirne di nuovi, fino ad avere ben
211 macchine operative nel maggio del 1945, con 2000 tecnici che le assistevano. Il
progetto era talmente segreto, che Winston Churchill ne ordinò la distruzione alla fine
della seconda guerra mondiale. Solo negli anni novanta, in seguito alla
declassificazione dei relativi documenti, si è giunti a conoscenza della sua esistenza.
Anche questa macchina era Turing-completa.
Calcolatori per l'esercito
Vennero poi gli enormi calcolatori a valvole realizzati a fini bellici dall'Esercito degli Stati
Uniti tra il 1944 e il 1951, quali il già citato "ENIAC" e l'EDVAC (uno dei primi dotato di
programma memorizzato). L'"ENIAC", che godette di una presentazione
"hollywoodiana" che suscitò molto scalpore (anche per i grandi effetti luminosi),
influenzò gran parte della cinematografia di fantascienza e diede origine alla definizione
di "cervello elettronico".[4] Fu poi la volta dell'EDSAC, il primo dotato di caratteri
alfabetici (ma privo di tastiera, che venne inventata nel 1926).
Small Scale Experimental Machine (1948)
Lo Small Scale Experimental Machine (traducibile dall'inglese come "macchina
sperimentale in scala ridotta", sigla SSEM, soprannominato Manchester Baby "bimbo di
Manchester" o Baby) è, tra quelli di cui si ha notizia, il sesto computer elettronico
digitale della storia, dopo l'IBM 603 Electronic Multiplier. L'importanza storica del SSEM
è notevole in quanto è il primo computer elettronico a programma memorizzato della
storia[5] e il primo computer della storia basato sull'architettura di von Neumann.
Anni 1950-1980
Nel 1950 venne realizzata la prima unità a nastro e venne concepita l'idea di interfaccia
a schermo (che fu però prodotto la prima volta solo nel 1965). Nel 1954 la Texas
Instruments iniziò a produrre in serie i transistor, che erano stati utilizzati in un computer
per la prima volta nel 1947. Nel 1955, IBM iniziò ad utilizzare memorie a nuclei di ferrite,
molto più economiche di qualunque altro metodo di immagazzinamento di dati binari
dell'epoca, tanto che furono sostituite dai chip di memoria solo negli anni settanta,
mentre il primo computer totalmente transistorizzato fu il TX-0 del 1956.
UNIVAC I (1951)
L'UNIVAC I (UNIVersal Automatic Computer I) fu il primo computer commerciale creato
negli Stati Uniti. Fu progettato da J. Presper Eckert e John Mauchly (già progettisti
dell'ENIAC) i quali ne iniziarono lo sviluppo all'interno della loro società, l'Eckert-
Mauchly Computer Corporation.
Nel 1950 la società fu assorbita dalla Remington Rand, che creò una "divisione
UNIVAC" con a capo gli stessi Eckert e Mauchly. Il progetto fu completato l'anno
seguente e l'UNIVAC I venne consegnato all'United States Census Bureau il 31
marzo 1951 e messo in funzione il 14 giugno seguente[6].
BESM (1953)
Il primo computer sufficientemente piccolo fu inventato nel 1953 in Unione
Sovietica da Sergej Lebedev, e chiamato BESM[7]. Il progetto fu appoggiato dal Partito
Comunista e mandato avanti, ma non fu prodotto in serie a causa dell'opposizione del
Ministero della costruzione di macchine e strumenti. Nel 1965 con la riforma di Kosygin,
definito l'inizio del passaggio all'economia Capitalista dell'URSS, il progetto fu
lentamente abbandonato, e completamente fermato nel 1967[8].
Il PDP-1 (1960)
I 15 minuti messi a disposizione su Whirlwind ispirarono tra i più giovani utilizzatori del
sistema a realizzare macchine che permettessero a chiunque di sfruttare la potenza
della nuova tecnologia. Fu così che due di loro, Kenneth Olsen e Harlan Anderson,
nel 1957 costituirono una piccola società per commercializzare computer interattivi:
la Digital Equipment Corporation (DEC). Il mercato, però, rimase diffidente: il primo
elaboratore programmabile immesso sul mercato dalla DEC, il PDP-1 del 1960,
vendette solo 49 esemplari. Un numero rispettabile per l'epoca, ma certo molto lontano
da quello del boom dell'informatica che sarebbe giunto vent'anni dopo.
Il PDP-1 tuttavia fu tecnicamente un successo: aveva un monitor a tubo
catodico integrato, poteva trovare posto in una piccola stanza e forniva una rispettabile
potenza di calcolo per il suo costo di "soli" 120.000 dollari. Ma, cosa molto più
importante, lo standard del PDP-1 era "aperto": tutti i dettagli costitutivi erano a
disposizione, in modo da fornire agli utenti "avanzati" la possibilità di personalizzare o
migliorare la macchina in caso di necessità: cosa che, per inciso, avvenne
puntualmente.
Simbiosi uomo-macchina
Se nel 1958 vi erano 2.500 computer negli Stati Uniti, essi salirono a 6.000 nel 1960,
per salire a 20.000 nel 1964 e 63.000 nel 1969.[senza fonte] Con un articolo del 1960 dal
titolo Man-Computer Symbiosis, lo psicologo Joseph C.R. Licklider espone le sue idee
sull'interazione tra la logica algoritmica dei computer e quella euristica umana. Licklider
aveva partecipato al progetto SAGE, e riteneva che il vero SAGE dovesse comprendere
una rete di "centri di pensiero", in cui al posto dei radar ci fossero terminali interattivi, in
grado di interfacciarsi con dei computer contenenti vaste biblioteche.
Con il Progetto MAC del MIT, cominciò a studiare gli effetti dell'impiego dei computer su
vasta scala: anche se non era possibile affidare una macchina a chiunque, dato il costo,
si potevano comunque installare terminali interattivi, che grazie al time-
sharing consentivano a molti utenti in contemporanea l'accesso alle risorse del
computer centrale. Assunto dall'Advanced Research Projects Agency (ARPA) nel 1962,
Licklider continuò il suo progetto coi fondi del Pentagono, dando vita alla prima
comunità virtuale intorno al 1965. Il progetto MAC aveva i suoi bulletin-board, uno
scambio di freeware e naturalmente i suoi hacker.
Nel 1962 viene creata la tastiera Teletype, con cui viene equipaggiato il CDC 3600.
Nello stesso anno viene concepito il concetto di time sharing e creata la
prima sketchpad. L'anno seguente viene ideato il codice ASCII
Douglas Engelbart, all'epoca ingegnere in una società di Menlo Park, California, aveva
sviluppato idee simili a quelle di Licklider, ma i suoi capi erano rimasti scettici. Dopo
aver letto alcuni suoi scritti pubblicati nel 1963, Licklider cominciò a finanziare le
ricerche di Engelbart, in quanto riteneva perseguissero i medesimi scopi. Grazie ai fondi
dell'aeronautica, della NASA e dell'ARPA, Engelbart realizzò quanto mancava alla
nascita del moderno personal computer: il mouse, le "finestre" di dialogo, la
videoscrittura a tutto schermo, l'ipertesto, l'aiuto sensibile al contesto, e molto altro.
I minicalcolatori europei
Da questo versante dell'Oceano, l'Europa non stette a guardare: dalla metà degli anni
sessanta l'azienda pubblica Selenia del gruppo STET progettò e produsse il Selenia
Gp-16, uno dei primi (se non il primo) microcalcolatori europei di terza generazione.
Concepito principalmente per usi industriali, trovò applicazioni nelle torri di controllo
degli aeroporti e nella prima centrale telefonica elettromeccanica italiana (seconda in
Europa per pochi mesi), i "Gruppi speciali" di CSELT.
Olivetti
Nell'aprile 1975 alla fiera di Hannover, viene presentato il P6060, primo personal al
mondo venduto come sistema pre-assemblato funzionante (ad esempio, con lettore
di floppy disk già incorporato, per la prima volta al mondo).
Era composto da una unità centrale su due piastre, nomi in codice PUCE1/PUCE2,
realizzata con componenti TTL, driver per floppy disk da 8" singolo o doppio, display
alfanumerico al plasma da 32 caratteri, stampante termica grafica a 80 colonne, 48 KB
di RAM, linguaggio Basic, 40 chilogrammi di peso. Esso era in concorrenza con un
prodotto IBM simile (l'IBM 5100), ma quest'ultimo era dotato di floppy disk esterno. Solo
nel prodotto successivo, il P6040 l'azienda adottò per la prima volta il microprocessore.
Con il termine Internet[1] si intende l'insieme di tutti i dispositivi collegati in rete mediante
i protocolli TCP/IP, con i sistemi fisici di comunicazione che li collegano, gli apparati
necessari per la loro interconnessione atti a formare reti di computer e le tecnologie che
permettono a tali reti di interconnettersi.
Il termine nasce come abbreviazione di "internet working", attestato già nel 1945
nell'ambito delle comunicazioni radio in tempo di guerra.[2]. Nel significato di
interconnessione di terminali e computer appartenenti a reti diverse si trova nell'RFC
675, Specification of Internet Transmission Control Protocol, pubblicato nel dicembre
1974.[3]
Solo dal 1991, sulla base dello specifico protocollo HTTP, si è cominciato a sviluppare
il World Wide Web (WWW), successivamente diventato il protocollo predominante, fino
a far confondere, nel linguaggio comune, il termine WWW con il termine internet. Per
questo sempre più spesso quando si incontra il termine internet su letteratura non
specialistica, in realtà si intende il WWW, uno dei maggiori mezzi di comunicazione di
massa (assieme a radio e televisione),[4][5][6] grazie all'offerta all'utente di una vasta serie
di contenuti potenzialmente informativi e di servizi.
Internet è l'interconnessione globale tra reti di telecomunicazioni e informatiche di
natura e di estensione diversa, resa possibile da una suite di protocolli di rete comune
chiamata "TCP/IP" dal nome dei due protocolli principali, il TCP e l'IP, che costituiscono
la "lingua" comune con cui i computer connessi a Internet (gli host) sono interconnessi e
comunicano tra loro a un livello superiore indipendentemente dalla loro
sottostante architettura hardware e software, garantendo così l'interoperabilità tra
sistemi e sottoreti fisiche diverse.
L'avvento e la diffusione di Internet e dei suoi servizi hanno rappresentato una vera e
propria rivoluzione tecnologica e socio-culturale dagli inizi degli anni novanta (assieme
ad altre invenzioni come i telefoni cellulari e il GPS) nonché uno dei motori
dello sviluppo economico mondiale nell'ambito delle Tecnologie dell'Informazione e
della Comunicazione (ICT).
In quanto rete di telecomunicazione, come diffusione è seconda solo alla rete telefonica
generale, anch'essa di diffusione mondiale e ad accesso pubblico, ma ancora più
"capillare" di Internet.
L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti d’America, che
misero a punto durante la guerra fredda un nuovo sistema di difesa e di
controspionaggio.
La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad
accesso pubblico è On-line man computer communication dell'agosto 1962,
pubblicazione scientifica degli statunitensi Joseph Licklider e Welden E. Clark. Nella
pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology,
danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network".
Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere
il 1991 quando il governo degli Stati Uniti d'America emana la High performance
computing act, la legge con cui per la prima volta viene prevista la possibilità di
ampliare, per opera dell'iniziativa privata e con finalità di sfruttamento commerciale, una
rete Internet fino a quel momento rete di computer mondiale di proprietà statale e
destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in
atto anche dagli altri Paesi.
ARPANET (1969)
Il progenitore e precursore della rete Internet è considerato il progetto ARPANET,
finanziato dalla Defence Advanced Research Projects Agency (inglese: DARPA,
Agenzia per i Progetti di ricerca avanzata per la Difesa), un'agenzia dipendente dal
Ministero della Difesa statunitense (Department of Defense o DoD degli Stati Uniti
d'America). In una nota del 25 aprile 1963, Licklider aveva espresso l'intenzione di
collegare tutti i computer e i sistemi di time-sharing in una rete continentale. Avendo
lasciato l'ARPA per un posto all'IBM l'anno seguente, furono i suoi successori che si
dedicarono al progetto ARPANET.
Il contratto fu assegnato all'azienda da cui proveniva Licklider, la Bolt, Beranek and
Newman (BBN) che utilizzò i minicomputer di Honeywell come supporto. La rete venne
fisicamente costruita nel 1969 collegando quattro nodi: l'Università della California
di Los Angeles, l'SRI di Stanford, l'Università della California di Santa Barbara, e
l'Università dello Utah. L'ampiezza di banda era di 50 kbps. Negli incontri per definire le
caratteristiche della rete, vennero introdotti i fondamentali Request for Comments,
tuttora i documenti fondamentali per tutto ciò che riguarda i protocolli informatici della
rete e i loro sviluppi. La super-rete dei giorni nostri è risultata dall'estensione di questa
prima rete, creata sotto il nome di ARPANET.
I primi nodi si basavano su un'architettura client/server, e non supportavano quindi
connessioni dirette (host-to-host). Le applicazioni eseguite erano
fondamentalmente Telnet e i programmi di File Transfer Protocol (FTP). Il servizio
di posta elettronica fu inventata da Ray Tomlinson della BBN nel 1971, derivando il
programma da altri due: il SENDMSG per messaggi interni e CPYNET, un programma
per il trasferimento dei file. L'anno seguente Arpanet venne presentata al pubblico, e
Tomlinson adattò il suo programma per funzionarvi: divenne subito popolare, grazie
anche al contributo di Larry Roberts che aveva sviluppato il primo programma per la
gestione della posta elettronica, RD.
Da Arpanet a Internet (anni settanta e ottanta)
In pochi anni, ARPANET allargò i suoi nodi oltreoceano, contemporaneamente
all'avvento del primo servizio di invio pacchetti a pagamento: Telenet della BBN.
In Francia si inizia la costruzione della rete CYCLADES sotto la direzione di Louis
Pouzin, mentre la rete norvegese NORSAR permette il collegamento di Arpanet con
lo University College di Londra. L'espansione proseguì sempre più rapidamente, tanto
che il 26 marzo del 1976 la regina Elisabetta II spedì un'email alla sede del Royal
Signals and Radar Establishment.
Le emoticon vennero istituite il 12 aprile 1979, quando Kevin MacKenzie suggerì di
inserire un simbolo nelle mail per indicare gli stati d'animo.
Tutto era pronto per il cruciale passaggio a Internet, compreso il primo Denial of
Service: il 27 ottobre 1980, un errore negli header di un messaggio si propagò su tutti i
router (a quel tempo chiamati Interface Message Processor), portando rapidamente alla
saturazione della rete e bloccando per ore l'accesso ad Arpanet[7][8][9][10]. Definendo
il Transmission Control Protocol (TCP) e l'Internet Protocol (IP), DCA e ARPA diedero il
via ufficialmente a Internet come l'insieme di reti interconnesse tramite questi protocolli.
Internet in Italia
Contribuisci ad ampliarla o proponi le modifiche in discussione. Se la voce è approfondita,
valuta se sia preferibile renderla una voce secondaria, dipendente da una più generale. Segui i
suggerimenti del progetto di riferimento.
L'Italia fu il quarto Paese europeo a connettersi in rete, dopo Norvegia, Regno
Unito e Germania[11], grazie ai finanziamenti del Dipartimento della Difesa degli Stati
Uniti. La connessione avvenne dal Centro Nazionale Universitario di Calcolo
Elettronico presso l'Università di Pisa, dove era presente un gruppo di ricerca fra i più
avanzati in Europa. Alcuni di questi componenti del gruppo avevano lavorato a contatto
con quelli che poi sarebbero stati considerati i padri di Internet, Robert Kahn e Vinton
Cerf. Fu proprio Kahn a convincere i suoi superiori a finanziare l'acquisto delle
tecnologie necessarie (Butterfly Gateway) per il gruppo di Pisa[12]. Il collegamento
avvenne il 30 aprile 1986, alle 18 circa[13].
Dopo quei primi esperimenti l'intera comunità dell'università e della ricerca decise di
collaborare per la realizzazione di una rete unica, la rete GARR. Il progetto della rete
GARR fu ideato nel 1986, il gruppo di lavoro venne istituzionalizzato come
Commissione ministeriale del ministero della Ricerca Scientifica con un decreto dell’11
marzo 1988, nel 1989 il progetto ottenne il primo finanziamento ministeriale e all'inizio
del 1991 la Rete GARR fu pienamente operativa.
Diffusione
Se prima del 1993 Internet voleva essere una rete dedicata alle comunicazioni
all'interno della comunità scientifica e tra le associazioni governative e amministrative,
da tale anno si assiste alla diffusione costante di accessi alla rete da parte di computer
di utenti privati fino ad arrivare al 1998 con centinaia di milioni di computer connessi in
rete in parallelo alla diffusione sempre più spinta di PC nel mondo, all'aumento dei
contenuti e servizi offerti dal Web e a modalità di navigazione sempre più usabili,
accessibili e user-friendly nonché a velocità di trasferimento dati a più
alta velocità passando dalle connessioni ISDN alle moderne connessioni V.90 e
a banda larga, quest’ultime tramite sistemi DSL. Questa è la situazione di diffusione di
Internet nel mondo occidentale, mentre nel secondo e terzo mondo il tasso di
penetrazione è ovviamente inferiore, ma in continua crescita grazie al progressivo
riammodernamento delle infrastrutture di reti di telecomunicazioni.
Evoluzione
Fino all'anno 2000 si è temuto di dover ricreare ex novo l'intera Internet perché il
numero degli host indirizzabile attraverso il protocollo IP era vicino a essere esaurito (IP
shortage) dal numero di host realmente collegati (oltre alla necessaria ridondanza e alle
perdite per motivi sociali).
Il problema è stato parzialmente evitato (o posticipato) con l'uso della tecnica
del NAT/gateway mediante la quale una rete aziendale non ha bisogno di un range
ampio di indirizzi IP fissi, ma può utilizzarne uno più ridotto con anche un buon
risparmio economico.
Oggi, come soluzione definitiva, si è fiduciosi nella possibilità di migrare in modo non
traumatico alla versione successiva di IP (IPv6) che renderà disponibili 2128 nuovi
indirizzi IP.[[[Aiuto:Chiarezza|]]]
I processi di convergenza in atto nell'ambito ICT, media e comunicazioni, indicano
inoltre la sempre più probabile piena integrazione nel prossimo futuro della rete Internet
con la rete telefonica già con la tecnologia VoIP, nonché la parallela fruizione di
contenuti informativi tipici di altri mezzi di comunicazione come la televisione e
la radio in un'unica grande rete.
Se infatti da una parte i primordi della rete sono stati caratterizzati dallo scambio di dati
come i contenuti testuali e immagini statiche, l'evoluzione futura della rete va verso la
sempre maggiore diffusione di contenuti multimediali come ad esempio i
contenuti audio-video (es. streaming, Web Tv, IPTV, Web radio) che ne aumentano
enormemente il traffico complessivo e il relativo carico sui nodi o sistemi interni di
commutazione (router) e sui server, vuoi anche per l'aumento del numero di utenti
connessi in rete al mondo. La soluzione più praticata a questo problema è la
decentralizzazione delle risorse ovvero sistemi di rete distribuiti (es. Content Delivery
Network) in grado di gestire l'aumento di traffico, mentre per far fronte all'aumento
di banda necessaria sui collegamenti sono da menzionare nuove e più efficienti
tecniche di compressione dati che hanno reso possibile il diffondersi di servizi sempre
più evoluti e pesanti.
Sotto questo punto di vista l'evoluzione della rete dal punto di vista dei servizi richiede
anche lo sviluppo di un'infrastruttura di rete di accesso a banda sempre più larga con la
realizzazione delle cosiddette Next Generation Network per sopperire all'aumento
di traffico previsto e la fruizione dei servizi stessi dall'utente finale. Gli stessi operatori
che dovrebbero investire sulla realizzazione di tali infrastrutture richiedono però un
ritorno certo dell'investimento ovvero una convenienza economica che risulterebbe
invece molto più a favore dei grandi network o fornitori di servizi e contenuti di rete
(Google, YouTube, Facebook, Twitter, LinkedIn, ecc.) sollevando così il problema della
cosiddetta neutralità della rete o meno.
La natura globale con la quale è stata concepita Internet ha fatto sì che oggi, un'enorme
varietà di processori, non solo apparati di calcolo in senso stretto, ma a volte anche
incorporati in maniera invisibile (embedded) in elettrodomestici e in apparecchi dei più
svariati generi, abbiano tra le proprie funzionalità quella di connettersi a Internet e,
attraverso questo, a qualche servizio di aggiornamento, di distribuzione di informazione
e dati; dal frigorifero, al televisore, all'impianto di allarme, al forno, alla macchina
fotografica: ogni processore oramai è abilitato a comunicare via Internet. In tal senso
dunque un'ulteriore evoluzione della Rete, propugnata da alcuni, potrebbe essere
l'estensione della connettività agli oggetti taggati del mondo reale dando vita alla
cosiddetta Internet delle cose.
Il concetto di Internet è nato negli anni ’60 come progetto di ricerca finanziato dal
governo degli Stati Uniti, con l’obiettivo di creare una rete di comunicazione
decentralizzata che potesse sopravvivere a un attacco nucleare.
La prima trasmissione di dati tra computer su Internet è avvenuta nel 1969 e il primo
messaggio è stato inviato tra due computer situati in California.
Internet ha conosciuto una rapida crescita negli anni ’80 e ’90, quando aziende e
organizzazioni private hanno iniziato a sviluppare e fornire servizi Internet al pubblico.
Con l’introduzione del World Wide Web, Internet ha iniziato a trasformarsi da rete
prevalentemente testuale a rete multimediale.
Vantaggi Di Internet
Accesso e diffusione delle informazioni: Un vantaggio di Internet è che ha reso più
facile che mai l'accesso a un'ampia gamma di fonti di informazione su praticamente
qualsiasi argomento. I motori di ricerca come Google e Bing, così come le banche dati
specializzate e le biblioteche digitali, permettono di trovare informazioni in modo rapido
e semplice. Internet consente inoltre la diffusione di informazioni su scala globale,
rendendo possibile la condivisione di idee e la collaborazione a progetti
indipendentemente dalla posizione geografica.
Comunicazione e connettività: Un altro vantaggio di Internet è che ha rivoluzionato la
comunicazione e ha permesso alle persone di rimanere in contatto tra loro
indipendentemente dalla loro ubicazione. L'e-mail, la messaggistica istantanea e le
videoconferenze sono solo alcuni esempi dei modi in cui Internet ha reso la
comunicazione tecnologica più veloce e conveniente. Inoltre, la comunicazione via
Internet ha reso più facile per le persone connettersi tra loro e formare comunità basate
su interessi e hobby comuni.
Commercio e transazioni finanziarie online: Internet ha permesso alle aziende di
raggiungere clienti in tutto il mondo e ai consumatori di acquistare prodotti e servizi
comodamente da casa. Mercati online come Amazon e Alibaba, nonché sistemi bancari
e di pagamento online come PayPal e Venmo, hanno reso più facile e sicuro fare
acquisti online su Internet.
Istruzione e auto-miglioramento: Internet offre una formazione più accessibile e
conveniente che mai. Corsi, esercitazioni e video didattici online sono ampiamente
disponibili e accessibili a chiunque abbia una connessione a Internet. Inoltre, Internet è
una risorsa preziosa per l'auto-miglioramento, in quanto fornisce accesso a informazioni
e strumenti per l'apprendimento di nuove abilità e hobby.
Intrattenimento e tempo libero: Internet offre un'ampia gamma di opzioni di
intrattenimento, dai servizi di streaming video come Netflix e Hulu, ai servizi di
streaming musicale come Spotify, alle esperienze di gioco e di realtà virtuale. Inoltre,
Internet ha permesso alle persone di tenersi informate sulle loro squadre sportive
preferite e sui personaggi dello spettacolo, di rimanere in contatto attraverso i siti di
social networking e le chat room e di trovare e acquistare facilmente i biglietti per gli
eventi o altri servizi online.
Svantaggi Di Internet
Criminalità informatica e problemi di sicurezza: Internet ha anche reso più facile per
gli hacker e i criminali informatici rubare informazioni personali, commettere frodi e
lanciare attacchi informatici. Queste minacce alla sicurezza possono causare perdite
finanziarie, furti di identità e persino danni alle infrastrutture critiche degli utenti di
Internet.
Dipendenza da Internet e diminuzione dell'interazione sociale: La dipendenza da
Internet e l'uso eccessivo possono portare a una diminuzione dell'interazione sociale
faccia a faccia, con conseguenti problemi di solitudine, depressione e isolamento
sociale.
Diffusione di disinformazione e fake news: Internet è diventato una piattaforma per
la diffusione di disinformazione e fake news, che possono portare a confusione, sfiducia
e divisione. È più difficile discernere la credibilità delle informazioni quando sono
facilmente diffuse su Internet.
Problemi di privacy e perdita di dati personali: Un altro inconveniente è che Internet
ha reso possibile alle aziende e alle organizzazioni la raccolta e l'archiviazione di grandi
quantità di dati personali, che possono essere vulnerabili agli hackeraggi e alle
violazioni dei dati. Permette inoltre di tracciare e profilare costantemente, il che
potrebbe essere considerato una grave violazione della privacy.
Dislocazione economica e occupazionale: Internet ha permesso alle aziende di
esternalizzare i posti di lavoro in altri Paesi, provocando la perdita di posti di lavoro nei
Paesi sviluppati. Inoltre, l'aumento dell'automazione, dei mercati online e dell'e-
commerce ha portato a cambiamenti strutturali nell'economia che hanno avuto un
impatto negativo su alcuni settori e regioni.