Il 0% ha trovato utile questo documento (0 voti)
15 visualizzazioni16 pagine

ICT Completa

Caricato da

aannaturconi
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
15 visualizzazioni16 pagine

ICT Completa

Caricato da

aannaturconi
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 16

APPUNTI DI ICT

a.a. 2022/2023

Il telefono è un PC portatile=> i primi fondamenti teorici nacquero nel III secolo a.C. con Euclide,
che inventò il metodo per calcolare il minimo comune divisore (mcd) di 2 numeri, attraverso un
processo per passi (di fatto è un programma anche se non aveva un calcolatore per farlo).
=> si passa poi al 1847 con George Boole (logico matematico), che inventò una particolare
algebra (un metodo per calcolare): l’ALGEBRA BOOLEANA, che usa solo 2 numeri, ossia 0 (falso)
e 1 (vero). Di fatto ha insegnato al computer a contare.

=> nel 1936 arriva Alan Turing che ha inventato la sua MACCHINA DI TURING, ossia uno
strumento teorico, realizzato meccanicamente, a partire dalla quale ha sviluppato la TEORIA
DEGLI ALGORITMI e DELLA COMPUTABILITÀ, attraverso un processo di codi ca e decodi ca.

=>negli anni ’60, nita la guerra, si fece un enorme passo avanti per la teoria della computabilità,
con la CONVERGENZA dell’ICT (Tecnologia dell’Informazione della Computabilità).
=>negli anni ’70 si scopre un materiale particolare: SILICIO (molto di uso in natura che lascia
passare la corrente in un unico senso)—> corrente passa è 1, non passa corrente è 0. Il tutto
rende accessibile la tecnologia ai molti.

=>nel 1974 la signora Intel realizza il primo MICROPROCESSORE commerciale (Unità Logico-
Aritmetica), con il quale equipaggia l’Altair 8800.
=>nel 1975 Allen e Gates, il 4 aprile, fondano la MICROSOFT. Oggi la Microsoft conta 114.000
dipendenti, fattura 90 miliardi di dollari.
=>nel 1976 Steve Jobs, Steve Wozniak e Ronald Wayne fondarono a Cupertino la APPLE. Apple
oggi conta 123.000 dipendenti, fattura 230 miliardi di $ (2017). Steve Jobs puntò su estetica ed
usabilità, con il McIntosh.

=>nel 1981 vede la luce il primo PC commerciale IBM, ma la paternità del primo PC della storia è
universalmente riconosciuta a Pier Giorgio Perotto e all’Olivetti. I quali, fra il 1962 e il 1964,
progettarono la P101, una macchina che, sebbene nacque come macchina per fare conti, aveva
molte delle caratteristiche di un PC. Aveva installato MS/DOS, il sistema operativo sviluppato
dalla Microsoft: un’accoppiata vincente che ha portato l’ICT a iniziare la di usione verso il grande
pubblico.
=>nel 1984 inizia la commercializzazione del McIntosh di Apple, dotato del sistema operativo
macOS le cui evoluzioni successive portarono al sistema operativo che ancor oggi equipaggia i
PC Apple.

=>nel 1990 esce Windows 3.1, la versione di Windows che conquista il grande pubblico grazie
alla sua interfaccia gra ca e al mouse, quest’ultimo però era stato inventato 10 anni prima.
=>nel 1991 Tim Berners-Lee, ricercatore del CERN di Ginevra, inventa il World Wide Web, sulle
basi tecnologiche (ormai vecchie, ma pur sempre valide) di Arpanet, la rete nanziata dal
Dipartimento della Difesa Americano nel 1969.
=>nel 1993 il CERN rende pubblica la tecnologia alla base del World Wide Web e ciò portò a
partire dal 1995 alla di usione su vasta scala nel mondo.

=>nel 1995 inizia l’era di internet, ma anche le attività di una libreria on-line, battezzata Amazon,
fondata da Jeff Bezos. Dal 1999 evolve verso l’e-commerce e nel 2001 lancia Amazon
Marketplace, che permetteva ai clienti di acquistare e vendere libri, CD, DVD e altri prodotti nuovi
e usati. Oggi Amazon conta 647.000 dipendenti, fattura 233 miliardi di $, ha un utile netto di 11
miliardi di $ e capitalizza 865 miliardi di $ (2019).

=>nel 1998 due studenti dell’Università di Stanford, Larry Page e Sergey Brin, ideano un
algoritmo che mediante lo sfruttamento delle relazioni che esistono fra i siti web migliora
enormemente la velocità ed accuratezza delle ricerche sulla rete.
Nasce Google, che oggi conta 88.000 dipendenti, fattura 136 miliardi di $, ha un utile netto di 30
miliardi di $ e una capitalizzazione di 800 miliardi di $ (2019)
fi
ff
fi
ff
ff
fi
fi
fi
INFORMATICA—> il nome deriva dalla contrazione di 2 termini francesi:
information+automatique= informatique (informatica in italiano). In inglese è usata l’espressione
information technology (IT), questa sottintende l’insieme delle tecnologie di elaborazione dei dati e
delle informazioni.
=>ICT sta per Information and Communication Technology, che amplia il concetto comprendendo
anche le tecnologie di comunicazione.

DATI e INFORMAZIONE non sono la stessa cosa:


• i primi non informano di nulla, sono una rappresentazione asettica, oggettiva della realtà
immediatamente presente alla conoscenza;
• le seconde sono concezioni della realtà che derivano dall’elaborazione ed interpretazione di 1+
dati.

SISTEMA INFORMATICO è la parte non pensante del sistema digitale, ossia un’infrastruttura
tecnologica che serve per elaborare, memorizzare e trasmettere dati e informazioni. Mentre la
parte pensante è il SISTEMA INFORMATIVO, ossia l’insieme delle applicazioni, procedure e
risorse umane che consentono la produzione e la gestione delle info.
=>il sistema informativo è l’insieme di componenti tecnologici interconnessi che
raccolgono, memorizzano ed elaborano i dati, fornendo info in formato digitale.

• Il MODELLO (framework) di ZACHMAN ha de nito l’architettura dei sistemi informativi (regole),


de nisce per ogni responsabile il cosa, come, dove, chi, quando, perché. Questo tipo di sistema
informativo deve permettere agli Executive Manager di disporre delle info per svolgere le attività
nell’ambito della loro prospettiva.

Il SISTEMA BINARIO di BOOLE => Boole è stato il creatore dell’algebra booleriana che usa gli
operatori (AND, NOT, OR, XOR) secondo delle condizioni, grazie ai quali si conta, creando dei
numeri diversi da quelli decimali. I numeri vengono rappresentati attraverso dei registri con dei bit,
che sono le unità rappresentative che il computer riesce ad interpretare (computer con 32 bit o 64
bit, sono il massimo di bit che possono essere interpretati). Senza l’algebra di Boole non
esisterebbe l’informatica, in quanto sta a fondamento del funzionamento di tutti i computer.
—>il SISTEMA BINARIO è un modo di contare che utilizza solo 2 cifre, 0 e 1, e l’algebra
booleriana si occupa di applicare al sistema degli OPERATORI LOGICI: AND, NOT, OR,
XOR=> se 1 signi ca vero e 0 signi ca falso, si può insegnare al computer a ragionare.

- BIT è un singolo digit, che può assumere valori 0 o 1.


- BYTE è composto da 8 bit.
- REGISTRO è una parte di memoria composta da multipli di byte.
- ARCHITETTURA a X bit consiste nelle regole con le quali si eseguono le operazioni su X bit.
=>architettura a 16 bit è un computer che organizza internamente le info su registri a 16
bit.
Per poter interagire meglio con la macchina è stato inventato un sistema di codi ca/decodi ca:
l’ASCII (codi ca su 8 bit), che poi è stato evoluto in Unicode (che codi ca su 16 bit)
Con il sistema binario si conta con i REGISTRI, sono unità standard di computazione dei pc.
Grazie a questi il pc può contare e ragionare sulla base di un REGISTRO BINARIO, ossia cosa gli
insegno: più gli dò informazioni più ragiona velocemente ed esegue calcoli velocemente. I registri
sono organizzati in memorie velocissime, la RAM (Random Access Memory) è una memoria
volatile, quando spengo il computer si cancella. Per quel che riguarda la capacità di archiviazione
di queste si ha una scala delle dimensioni:
• Byte (B)—> 1 Byte
• Kilobyte (KB)—> 1024 Byte
• Megabyte (MB)—> 1.048.576 Byte (mille byte)
• Gigabyte (GB)—> 1.073.741.824 Byte (1mln di byte)
• Terabyte (TB)—> 1.099.511.627.766 Byte (1 miliardo di byte)
• Petabyta (PB)—> 1.125.899.906.842.624 Byte (mille miliardi di byte)
• Exabyte (EB)—> 1.152.921.504.606.846.976 Byte (un milione di miliardi di byte)
• Zettabyte (ZB)—> 1.180.591.620.717.411.303.424 Byte (mille miliardi di miliardi di byte)
fi
fi
fi
fi
fi
fi
fi
fi
HARDWARE, SOFTWARE E RETI

Lo SCHEMA ARCHITETTURALE di VON NEUMANN—> si tratta di uno schema logico di


funzionamento di un computer, tuttora valido sebbene sia nato a cavallo degli anni ’40/’50.
=>Questo presenta:
1. L’UNITÀ CENTRALE DI ELABORAZIONE, la CPU, che è il motore del computer.
2. L’ALU (unità aritmetico logica) che esegue i calcoli.
3. L’UNITÀ di CONTROLLO che è la centrale operativa che organizza l’esecuzione delle
istruzioni per la ALU.
4. La MEMORIA CENTRALE, organizzata in registri, che è l’area dove vengono memorizzati i
dati e le istruzioni per la ALU. È una memoria “volatile” poiché al termine delle elaborazioni
perde il contenuto.
5. La PERIFERICA di INPUT e di OUTPUT, rispettivamente la prima è un dispositivo con il quale
impartire le istruzioni da eseguire e inserire i dati da elaborare, mentre la seconda è un
dispositivo con il quale fruire delle informazioni risultanti dalle elaborazioni.
6. La MEMORIA DI MASSA, che è una memoria stabile, dove registrare i dati che si desidera
conservare no a esplicito comando di cancellazione.
7. Il BUS, che è un canale di comunicazione fra tutte le componenti, si occupa di far circolare le
info strutturate in linee: indirizzi, segnali (read/write) e dati.

=>l’UNITÀ CENTRALE è costituita da:

—> la SCHEDA MADRE è la scheda sulla quale vengono montate o collegate tramite i bus tutte
le componenti dell’unità centrale.
—> i CPU, chiamati più spesso «microprocessori» o «processori», sono «il cervello» del computer.
—> la MEMORIA DI MASSA (disco sso) è una memoria con grande capacità di archiviazione e
stabile, ovvero memorizza e/o cancella le informazioni solo dietro comando esplicito (dell’utente o
del sistema operativo).
—> la MEMORIA CENTRALE è costituita da:
1. RAM (Random Access Memory)—>nella RAM si memorizzano temporaneamente le istruzioni
e i dati per l’elaborazione da parte della CPU. E’ molto veloce e il suo contenuto è temporaneo
(volatile), ovvero si perde una volta spento il computer.
2. CMOS (Complementary Metal-Oxide Semiconductor): contiene il BIOS (Basic Input-Output
System) del sistema, che consente al computer di conoscere i parametri e le funzioni basilari
per permettergli di avviarsi secondo la modalità desiderata.
3. ROM (Read Only Memory) sulla scheda madre: contiene un particolare programma, il boot-
loader, che legge i parametri nella CMOS e «lancia» il processo di avvio (che si dice «boot» o
«bootstrap»).
—> i BUS sono i canali (cavi, incastri, connessioni) attraverso i quali «viaggiano» i dati e le
informazioni fra le componenti del computer.
fi
fi
—> le PERIFERICHE di INPUT sono: tastiera, mouse, scanner, joystick, touchscreen, tavoletta
gra ca, penna ottica, riconoscitori vocali, foto/video camera, wearable device (x es gli smart
watch), strumenti per uso specialistico (x es i lettori di codici a barre).
—> le PERIFERICHE di OUTPUT sono: i videoterminali (LCD, LED, OLED, plasma), le stampanti
(termiche, a getto di inchiostro, laser), i sintetizzatori vocali, le casse acustiche e i proiettori.
=> i VIDEOTERMINALI hanno 4 caratteristiche fondamentali, importanti se si pensa
quando tempo ci si trascorre guardandoli:
1. La DIMENSIONE—> si misura in pollici (inch) ed è la lunghezza della diagonale max
della super cie utile dello schermo, maggiore è questo misura, maggior è la
dimensione dello schermo.
2. La RISOLUZIONE—> si misura in punti (pixel, che è il «puntino» che si illumina per
formare l’immagine) per pollice (dpi, «dots per inch») o con una sigla che esprime con
un prodotto il numero di pixel che compongono la super cie dello schermo: VGA e
SVGA (risoluzione dei vecchi terminali a tubo catodico, o CRT); HD e Full HD
(risoluzione degli schermi LCD dei PC, tablet, smartphone); Ultra HD (risoluzione degli
schermi televisivi). Maggiore è la risoluzione, migliore è la de nizione dell’immagine.
3. La FREQUENZA dei REFRESH—> l’immagine viene formata da una invisibile penna
ottica che scorre in verticale e «pittura» lo schermo. La frequenza, espressa in Hz
(Hertz), indica «quante volte» al secondo lo schermo viene ridisegnato e oltre i 60/70
Hz l’occhio non distingue più il movimento e l’immagine sembra ferma. Maggiore è la
frequenza, minore è la fatica dell’occhio.
4. La GAMMA di COLORE—> la gamma è resa dalla composizione dei 3 colori
fondamentali (rosso, giallo e blu) dipende da quanti bit è la codi ca del colore per
“colorare” il pixel:
• Gamma a 8 bit: il PC è in grado di colorare un pixel con un massimo di 256 colori;
• Gamma a 24 bit: il PC è in grado di colorare un pixel con un massimo di oltre
16mln di colori.

—>Il SOFTWARE di SISTEMA è l’insieme dei programmi che interagiscono con l’hardware del
computer, è costituito da:
• SISTEMA OPERATIVO—> si assicura il corretto funzionamento del computer, permette di
eseguire le applicazioni dell’utente, gestisce le risorse del pc e presiede alle operazioni di input/
output.
• UTILITY—> integrano e completano le funzionalità del sistema operativo, con diagnostici,
installazioni/disinstallazioni, driver periferiche…

—>il SOFTWARE APPLICATIVO permette all’utente di svolgere attività speci che, queste si
possono dividere in categorie, sulla base di cosa fanno e a cosa servono:
• Produttività personale (es. Microsoft O ce);
• Comunicazione (es. Skype, Whatsapp, Telegram);
• Intrattenimento (es. videogiochi);
• Condivisione e socializzazione (es. Youtube, Facebook, Linkedln);
• Sviluppo culturale (es. piattaforme di e-learning, musei virtuali);
• Specialistico (es. Autocad, Coreldraw).

Nel software applicativo si possono distinguere anche sulla base di come vengono concessi in
uso (licenza):
• COMMERCIALE—> la licenza d’uso è in generale a pagamento e l’applicazione viene fornita in
formato eseguibile.
• LIBERO—> viene fornito il sorgente dell’applicazione e concesso a chiunque di poterlo usare,
copiare e distribuire. Libero ≠ gratuito, chi lo modi ca potrebbe anche decidere di distribuirlo a
pagamento (raro, ma non è vietato).
• PRIVATO—> sviluppato da un singolo (o gruppo) programmatore che lo tiene per sé e non lo
distribuisce.
• PUBBLICO DOMINIO—> di uso gratuitamente in rete, a disposizione della collettività.
• OPEN SOURCE—> i sorgenti sono liberamente distribuiti per essere modi cati ed evoluti da
una comunità di sviluppatori che contribuiscono gratuitamente ed il compenso che un utente
volesse o rire per il software è su base volontaria.
fi
ff
fi
ff
ffi
fi
fi
fi
fi
fi
fi
• COPYLEFT—> un autore concede l’uso, la copia, la modi ca e la distribuzione del suo
programma, a condizione che venga garantito che i diritti originari dell’opera, primo fra tutti la
gratuità, siano mantenuti.
• SHAREWARE—> l’applicazione viene concessa in uso gratuito per qualche tempo, trascorso il
quale bisogna pagare una licenza o la si può continuare ad usare con delle limitazioni.
• FREEWARE—> l’applicazione viene concessa in uso gratuito, ma la proprietà rimane
dell’autore.
• RENTALWARE—> l’applicazione viene concessa in a tto con corresponsione di un canone
periodico (es. O ce365).

Lo sviluppo dei software vede diverse tappe:


1. Anni ’50—> nascono i primi calcolatori programmabili e i linguaggi di I generazione: si
programmava scrivendo attraverso un codice binario.
2. Anni ’60—> nascono i linguaggi di II generazione, più vicini al linguaggio umano ma ancora
simbolici e ci si avvicina sempre di più all’hardware.
3. Anni ’70—> nascono i linguaggi di III generazione, detti anche PROCEDURALI, perché
venivano eseguiti nella sequenza (procedura) in cui erano stati scritti.
4. Anni ’80—> nascono i linguaggi di IV generazione, che sfruttano le proprietà gra che (GUI,
Graphical User Interface) e sono orientati agli oggetti: oggetti gra ci, aree di schermo,
pulsanti di azione, ecc. All’oggetto vengono associate azioni programmate che consentono la
riusabilità e si sviluppa l’ingegneria del software.
5. Anni ’90—> nascono i linguaggi orientati al web, all’intelligenza arti ciale e sono i linguaggi di
V generazione.

=> sono stati de niti poi dei MODELLI di SVILUPPO:

I. Il modello WATERFALL (a cascata), la cui realizzazione segue delle fasi sequenziali:


Fase 1—> Analisi dei requisiti: si individuano e documentano i requisiti del software che si vuole
realizzare: obiettivi, contesto operativo, eventuali vincoli.
Fase 2—> Studio di fattibilità: capire se vi possono essere criticità tali da rendere non
conveniente il progetto, suggerire alternative e/o varianti.
Fase 3—> Analisi del sistema: se fattibile, si studiano e documentano le funzionalità (cosa farà
l’applicazione).
Fase 4—> Disegno del sistema: suddivisione in moduli, interfaccia utente, come sono fatti i
report, ecc..
Fase 5—> Realizzazione del sistema: acquisto delle licenze di terze parti da integrare, sviluppo
dell’applicazione.
Fase 6—> Test del sistema: si veri ca se tutto è andato bene e se il sistema «funziona» (non va
in errore e realizza le funzionalità attese dagli utenti).
Fase 7—> Implementazione del sistema: addestramento degli utenti, conversione dal sistema
precedente e «passaggio in produzione».
Fase 8—> Manutenzione del sistema: correzione di eventuali errori non riscontrati, aggiornamenti
tecnologici, nuove funzionalità.

II. Il modello A SPIRALE (o INCREMENTALE), supera la rigidità del modello waterfall: orientato
alla essibilità itera per fasi successive no al completamento della realizzazione, passaggio in
produzione e avvio della manutenzione.

III. Il modello AGILE (o EVOLUTIVO), nasce da un gruppo di ingegneri del software e sviluppatori
che notarono, a partire dalle loro stesse esperienze, come i requisiti fossero sempre meno
strutturati e più “idea”, i tempi dettati dal mercato sempre più veloci e i cambiamenti sempre più
frequenti e intercorrenti già nelle fasi di progettazione.

L’INFRASTRUTTURA di RETE è un insieme di apparecchiature che consente ai computer di


comunicare fra loro, attraverso lo scambio di dati e informazioni per mezzo di un “mezzo
trasmissivo”, ovvero via cavo (telefonico, in bra ottica, coassiale) e/o via onde radio (wireless
networks).
fl
ffi
fi
fi
fi
fi
ffi
fi
fi
fi
fi
Esistono diversi tipi di estensioni:
• LAN: estensione a livello di edi cio, campus, centro commerciale;
• MAN: estensione a livello di città o raggruppamento di piccoli comuni;
• WAN: estensione a livello nazionale, continentale o intercontinentale.

Le RETI sono costituite da diverse componenti:


1. I CAVI, questi possono essere COASSIALE (come i cavi delle antenne TV, non più usati),
TELEFONICO (o similare, molto utilizzati perché e cienti e poco costosi, ma oggi rimangono
usati solo per le connessioni di desktop alle LAN), USB (Universal Serial Bus, più versatile del
telefonico, meno ingombrante, poco costoso, si presta bene a connettere le periferiche al PC),
FIBRA OTTICA (adatta ad operare sulle grandi distanza, ha grande capacità e a dabilità
trasmissiva.
2. Le ONDE RADIO (Wi-Fi), sono frutto di un grande sviluppo, in quanto non necessitano di cavi
e perciò sono molto versatili e comode. Oggi hanno raggiunto velocità di trasmissione molto
elevate.
3. 1 o + HUB/SWITCH, che servono a connettere più computer e periferiche. Un HUB è un
«ripetitore» che riceve un segnale (comandi o dati) da un computer o periferica connessa alla
rete e lo ritrasmette agli altri in modalità broadcast, ovvero a tutti indistintamente. Sarà poi il
ricevente a scegliere se accettarlo o meno (come la TV: il segnale viene trasmesso a tutti, il
canale da vedere lo sceglie l’utente). Lo SWITCH è un HUB più «intelligente»: indirizza il
segnale (comandi o dati) solo agli interessati.
4. Uno o + ROUTER, dispositivo per gestire le comunicazioni fra i computer. I computer
comunicano attraverso “protocolli di comunicazione”: il ROUTER conosce il protocollo di
comunicazione, compone il messaggio secondo il protocollo e lo indirizza ai destinatari
attraverso un HUB/SWITCH oppure, se si tratta di un solo PC, direttamente al PC connesso al
router. Oggi si occupano in generale del tra co verso l’esterno delle LAN, i PC sono dotati di
apparecchiature per connettersi alle LAN senza necessità di particolari dotazioni (tranne le
schede di rete per i PC desktop, in progressiva diminuzione a bene cio delle connessioni Wi-
Fi).
5. Un MODEM, acronimo di MOdulatore/DEModulatore serve per poter usare le linee di
trasmissione (analogiche) per far transitare i segnali che sono invece digitali.

Le prestazioni delle reti dipendono da molti fattori, il più rilevante è il mezzo di trasmissione e le
loro prestazioni si misurano in bus (bit per secondo).

Il CLOUD COMPUTING è un insieme di tecnologie informatiche che permettono l’utilizzo di


risorse hardware e software distribuite in remoto. Il nome “cloud” nasce per rendere l’idea che
l’infrastruttura non si sa dove sia sicamente né come sia strutturata e l’accesso avviene
attraverso la rete: sta “sulle nuvole”. Esistono diversi tipi di CLOUD:
- CLOUD PUBBLICO=> infrastrutture di proprietà di un provider commerciale che eroga i servizi
a più clienti che li acquistano. Amazon AWS, Microsoft Azure, IBM Cloud, Google Cloud
Platform, Oracle Cloud Infrastructure, Aruba Cloud sono cloud pubblici.
- CLOUD PRIVATO=> piattaforme utilizzate esclusivamente da un’Azienda o organizzazione.
Possono essere o erti dai fornitori di cloud pubblico – che riservano una parte della propria
piattaforma ad uso esclusivo del cliente – oppure realizzato con le tecnologie disponibili
dall’Azienda stessa, installato presso locali dell’Azienda e gestito da proprio personale.
- CLOUD IBRIDO: combinano cloud pubblico e privato, in generale in dipendenza dalla tipologia
di dati/applicazioni trattate, grazie ad una tecnologia che lo permette. Un’Azienda può decidere
di avere applicazioni che necessitano di meno sicurezza e più volumi di operazioni in cloud
pubblico e quelle a maggior esigenza di sicurezza e minori volumi in cloud privato.

Per quel che riguarda i MODELLI DI SERVIZIO, questi si dividono in:


1. Software as a Service (SaaS): le applicazioni sono il servizio che viene fornito all’utente/
cliente nale dal cloud provider e da esso utilizzati direttamente.
2. Platform as a Service: il cloud provider fornisce un servizio che sono piattaforme per far
funzionare i programmi sviluppati dall’utente/cliente che a sua volta le distribuirà ai propri
utenti/clienti.
3. Infrastructure as a Service: il cloud provider fornisce anche l’infrastruttura, come server,
sistemi di archiviazione dati (data storage) e connessione di rete.
fi
ff
fi
fi
ffi
ffi
fi
ffi
Per quel che riguarda l’ICT GOVERNANCE, questo presenta un service delivery, che è il cuore
dell’ITIL, il quale si occupa di:
1. Service Level Management, ovvero la gestione dei livelli di servizio con i quali misurare la
capacità del servizio di soddisfare le esigenze degli utenti ed allo stesso tempo garantirli;
2. Financial Management for IT services, ovvero come assicurare che i costi dell’IT siano
e ettivamente commisurati al servizio reso e con il miglior rapporto qualità/costo;
3. Capacity Management, ovvero capire ed anticipare quelli che potranno essere le esigenze
future dell’azienda e quale infrastruttura informatica sarà necessaria a nchè il servizio reso
continui a rispettare il miglior rapporto qualità/costo;
4. IT Service Continuity Management, ovvero assicurare la continuità del servizio IT, fare in
modo, cioè, di garantire che anche in caso di guasto o malfunzionamento i servizi possano
essere ripristinati secondo tempi e modalità prestabiliti;
5. Availability Management, ovvero fare in modo che l'infrastruttura IT o ra – nell’ambito del
miglior rapporto qualità/costo – performances e disponibilità adeguate ai requisiti di business
dell’Azienda.

I DATI E LA CONVERGENZA DIGITALE

Un FILE è un contenitore di informazioni digitale, è caratterizzato da un nome ed un’estensione. Il


nome permette a chi lo de nisce di riconoscerne il contenuto, l’estensione consente al sistema
operativo del computer di sapere quale programma usare per «aprirlo».
=> Una DIRECTORY (o anche CARTELLA) è un contenitore di le o di altre directory.
=>Il FILE SYSTEM è lo schema mediante il quale le directory e i le sono disposti e
organizzati nel dispositivo di archiviazione (disco, chiavetta USB, CD, DVD, ecc.). È
utile per capire dove trovare le info e dove metterle. I registri hanno ognuno un
indirizzo. Le cartelle sono 0 e 1 Betabyte.
Le estensioni dei le dipendono dalla loro tipologia:
1. File di tipo DOCUMENTO sono .docx (testi in formato Microsoft Word), .xslx (testi con fogli
elettronici di calcolo), .pptx (testi con presentazioni Microsoft Powerpoint), .txt (testi senza
alcun particolare formato), .pdf (testi in formato Portable Document Format di Adobe).
2. File di tipo ESEGUIBILE sono x esempio .exe ( le eseguibile per Windows).
3. File di tipo SORGENTE, che contengono le istruzioni di un programma scritte da un
programmatore in un certo linguaggio di programmazione, ma non ancora eseguibili (per
ottenere l’eseguibile servirà generarlo). Sono per esempio .bas, .vb, .c, .java, .py.
4. File di tipo IMMAGINE RASTER, un’immagine è raster se ottenuta da una matrice di punti
(pixel), simile a quella delle immagini analogiche (come ad esempio le fotogra e su pellicola).
Tecnica semplice, ma con un difetto: se si ingrandiscono troppo, «sgranano» (tecnica di
conversione LOSSY, in cui perde della qualità a favore della dimensione). Alcuni esempi
possono essere .bmp, .jpg, .png.
5. File di tipo IMMAGINE VETTORIALE sono per usi professionali, molto più complesso del
raster, ha il vantaggio di poter essere ingrandita a piacimento senza sgranare. Sono per
esempio .dwg, .cdr, .drv.
6. File AUDIO si dividono in .mp3 (tracce audio compresse nel formato mp3, in cui si perde un
po’ di qualità a bene cio della dimensione), .wav (tracce audio non compresse), .wma (tracce
audio in formato Windows Media Audio).
7. File VIDEO sono .avi, .divx, .mp4.

La STRUTTURA del DATABASE—> le info vengono organizzate in DATABASE e DBMS (Database


Management System). I database sono strutturati in CAMPI, insieme formano i RECORD e tanti
record formano le TABELLE. Ogni record deve essere univocamente individuato (deve avere un
indice univoco non nullo)=> si tratta di una chiave primaria.
I database sono divisi in modelli, il più vecchio è quello GERARCHICO (molto e ciente per la
ricerca, ma deve essere riorganizzato ogni tanto, usato quando si avevano poche info per la
ricerca), nel quale si ha una struttura ad albero, che risulta essere particolarmente e ciente e
veloce, soprattutto se si lavora con la ricerca per DICOTOMIA (parte dalla radice ed esclude i rami
che non seguono un dato criterio), poi c’è quello A RETE o RETICOLARE (replica bene il cervello
umano), è un’estensione di quello gerarchico. Il primo ad individuare il potere delle relazione delle
informazioni, il RELAZIONALE, è ancor oggi il modello più di uso, studiato da Edward Code nel
ff
fi
fi
fi
fi
ff
fi
fi
ffi
ff
fi
ffi
ffi
1970: secondo lui due dati diventano informazione se c’è una relazione tra essi. Poi sono arrivati i
database A OGGETTI perché si estende il concetto ad un oggetto fruibile in cui si trovano le
caratteristiche e i metodi per utilizzare ciò che è memorizzato, in ne ci sono gli SCHEMALESS o
(nosequel, NOSQL), particolari evoluzioni dei database a oggetti che hanno la caratteristica di
poter memorizzare informazioni complesse (senza un formato prede nito) ed eterogenee
all’interno della stessa entità. Sono strumenti inventati da Yahoo, che riescono ad interrogare la
rete internet, i big data.

La CONVERGENZA DIGITALE è l’integrazione di più strumenti che, grazie alla digitalizzazione,


possono con uire per il loro utilizzo in un unico apparato.
—>alla fine anni ’80 quando vengono prodotti i primi cellulare analogici, la musica si ascoltava
con il Walkman, i libri erano tutti cartacei e la carta di credito si strisciava su fogli copiativi.
—>all’inizio degli anni ‘90 i cellulari diventano digitali e nasce il POS.
—>alla fine degli anni ’90 si di ondono internet, i PC, nascono i dotcom, la musica si scarica da
internet, i libri iniziano ad essere comprati su Amazon, il boni co si fa con l’Home Banking e
prende vita l’e-commerce. => INIZIO DELLA CONVERGENZA DIGITALE
—>all’inizio degli anni ’00 la PA approda su internet o rendo servizi digitali, i PC portatili si
di ondono insieme al Wi-Fi, nascono i social network, ma anche gli smartphone e i tablet.
—>alla fine degli anni ’00 nascono le app, le banche si spostano sulle piattaforme on-line,
smartphone e tablet si di ondono.
—>a questo punto dagli anni ’10 ad oggi si ha che i tablet e i cellulari hanno conquistato
il mercato, i PC desktop sono per gioco od uso professionale, tutto deve essere AAA
(Anyhow, Anytime, Anywhere).

L’EVOLUZIONE del WEB e della SOCIETÀ in RETE:


• 1957—> in piena guerra fredda, l’URSS mette in orbita lo Sputnik. Gli Stati Uniti creano
l’ARPA (Advanced Research Project Agency) per sviluppare progetti avanzati con i quali
garantire la supremazia USA sull’URSS. L’ARPA creò ARPAnet, precursore di internet: il big-
bang della rete.
• 1960—> nasce la commutazione di pacchetto, ossia la base per le trasmissioni in rete.
• 1969—> si riesce a far comunicare 2 computer, lo standard di comunicazione creato riesce a
far parlare i computer fra loro con una stessa lingua: il NCP (Network Control Protocol) il
progenitore di TCP/IP e FTP.
• 1971—> nasce la posta elettronica, per identi care il destinatario si scelse @.
• Fine ’70—> nasce Usenet, che connette le università mondiali allo scopo di favorire la ricerca,
lo scambio di documenti e informazioni.
• 1982—> il TCP/IP viene reso pubblico e adottato dal DoD americano. Nasce u cialmente il
termine “internet”.
• 1989—> viene abbandonata ARPAnet, non è più su ciente a sostenere i volumi di computer
connessi. Internet è la nuova rete e connette già 100.000 computer.
• 1993—> il CERN di Ginevra inventa il World Wide Web grazie al suo ricercatore Tim Berners-
Lee, successivamente viene rmato un documento che stabilisce che il web non è proprietà di
nessuno ed è patrimonio di tutti.
• 1995—> si sviluppano i motori di ricerca e Microsoft rilascia Explorer.
• 1999—> si supera il milione di siti web.

=>il WEB letteralmente sarebbe “ragnatela di dimensione mondiale”: una ragnatela di contenuti
fra loro collegati da link. È un insieme di tecnologie che nella sua prima versione forniva gli
strumenti per reperire e fruire di informazioni eterogenee (testi, contenuti multimediali, documenti,
ecc.) navigando i link che l’utente aveva attribuito loro, a prescindere dal tipo di computer in cui
risiedono e del computer dal quale si ha accesso.
Per pubblicare un proprio documento serve avere una URL (Uniform Resource Locator) un
indirizzo elettronico che lo identi ca e localizza univocamente. La URL in generale usa un SITO
(che è un insieme di pagine web correlate = una struttura di link fra documenti e pagine), questo
ha un dominio univoco che si chiede ad una registration authority (come Aruba o altri) e viene
registrato sull’anagrafe dei domini. Al suo interno si possono pubblicare documenti e/o
strutturarlo in pagine che avranno tutte una loro URL. I motori di ricerca e i browser consentono di
raggiungere le informazioni pubblicate navigando fra le pagine.
ff
fl
ff
fi
ff
fi
fi
ffi
ff
fi
fi
fi
ffi
Per quel che riguarda il Web, questo ha attraversato diverse “ere”:
1. Web 1.0—> il “read only web”, costituito da siti di puri contenuti, statici, aggiornati poco
frequentemente, privi di multimedialità, usati solo per essere consultati.
2. Web 2.0—> il “read & write web”, consente ai visitatori del sito di interagire e partecipare alla
creazione di contenuti.
3. Web 3.0—> il “read, write & execute web”, è lo stesso sito web che interagisce con i visitatori
grazie a tecniche di intelligenza arti ciale.
4. Web 4.0—> il “real time interactive web”, è lo stesso sito web che interagisce con i visitatori
grazie a tecniche di intelligenza arti ciale, questo in tempo reale, consentendo di fruire di
contenuti interattivi immediati.
=> non si sa come sarà il Web 5.0, probabilmente il “decision making web”, attraverso il quale si
potrebbe interagire in tempo reale, ma lo sviluppo dell’intelligenza arti ciale sarà giunta ad un
livello tale da prendere decisioni autonome per conto delle persone stesse.

Esistono diversi modelli di E-COMMERCE, questi sono:


I. MODELLO B2B (Business-to-Business), in cui le transazioni avvengono tra aziende, tramite
market place o portale di un’azienda, che vende direttamente i propri prodotti ad altre aziende.
II. MODELLO B2C (Business-to-Consumer), in cui le transazioni avvengono tra aziende e
consumatori privati, tramite market place (es. Amazon, Booking, Zalando, Yoox, …) o portale
di un’azienda che vende direttamente i propri prodotti.
III. MODELLO C2C (Consumer-to-Consumer), in cui le transazioni avvengono tra consumatori
privati, in generale tramite il market place di un soggetto terzo che agisce da garante (es.
Ebay).
IV. MODELLO M2C (Mobile-to-Consumer), nato con lo sviluppo dell’e-commerce tramite
smartphone/tablet, non è un vero e proprio modello perché la di erenza è nel mezzo e non
nella relazione, ma lo si distingue perché ha esigenze particolari per le dimensioni ridotte dello
schermo.
V. MODELLO C2B (Costumer-to-Business), in cui è il privato a vendere ad un’azienda: si è
sviluppato di recente grazie allo sviluppo delle capacità di registrazione di video e foto che
possono interessare aziende di comunicazione e media (TV, Youtube, ecc.).
VI. MODELLO B2A (Business-to-Administration), in cui le transazioni avvengono tra aziende ed
un market place costituito da Enti Pubblici progettato per rispettare le esigenze normative
tipiche della PA.
VII. MODELLO C2A (Consumer-to-Administration), analogo al B2A, in cui le transazioni
avvengono tra consumatori privati (in generale professionisti) e la PA.

A proposito della digitalizzazione della PA (Pubblica Amministrazione) questa viene indicata come
E-GOVERNMENT, consiste nell’uso delle tecnologie dell’informazione e della comunicazione
nelle Pubbliche Amministrazioni, coniugato a modi che organizzative e all’acquisizione di nuove
competenze al ne di migliorare i servizi pubblici e i processi democratici e di ra orzare il
sostegno alle politiche pubbliche.
Si tratta di un progetto che abilita a molte funzioni (es. registrazioni degli scontrini scali con la
semplice lettura del bar code, veri ca dell’e ettiva identità del possessore tramite il microchip
integrato => livello di sicurezza molto elevato), abilita allo SPID (Sistema Pubblico di Identità
digitale) per accedere a tutti i servizi on-line della PA con un’unica identità digitale usabile da PC,
tablet e smartphone. Inoltre è funzionante in tutta la UE.

Attraverso questo processo di digitalizzazione sono state create diverse piattaforme che
consentono di accedere ad attività di erenti:
• I MUSEI VIRTUALI=> l’utilizzo di tecnologie di realtà aumentata, di riprese in UltraHD,
ricostruzioni virtuali, video e siti interattivi hanno o erto la possibilità di valorizzare e di ondere
l’arte in tutte le sue espressioni. Le tecniche di ricostruzione permettono, per esempio, di
comprendere come erano le case degli antichi romani e “viverle”.
• La COMPUTER ART=> forma d’arte che si è sviluppata a partire dalla metà degli anni ’60 che
sostituisce ai pennelli e alle matite il computer. Inizialmente si trattava di composizioni che
utilizzavano i caratteri della stampante, lettere, simboli o punteggiature le quali, avendo e etti
chiaroscuri diversi, rendevano possibile realizzare delle immagini.
fi
fi
fi
fi
ff
ff
ff
fi
ff
fi
ff
fi
ff
ff
• Gli E-BOOK=> modo con il quale unire le potenzialità dell’elettronica al libro.
• EINK e l’INCHIOSTRO ELETTROFORETICO=> dispositivo composto da due pellicole
magnetiche applicate al retro dello schermo dell’e-book reader con un uido all’interno che
permette di disegnare la pagina. L’e etto che si ha è quello della riproduzione fedele di una
pagina cartacea, con il vantaggio di non stancare la vista come invece accade con lo schermo
del PC.
• Le BIBLIOTECHE DIGITALI.
• L’E-LEARNING=> sfrutta la multimedialità o rendo la possibilità di usufruire di corsi di
formazione da remoto.

• La TELEASSISTENZA=> serve per monitorare i pazienti a distanza e con continuità, è costituita


da sistemi di monitoraggio e diagnostica che trasmettono i dati via rete per diagnosi/valutazioni
da remoto. Si tratta di un ricovero virtuale che riduce quelli reali, diminuendo anche i costi e
migliorando la qualità della vita del paziente.
• Gli INTERVENTI CHIRURGICI A DISTANZA=> evolve il mestiere del medico, richiedendo più
competenze tecnologiche.

• L’INFORMATICA GIURIDICA=> si divide in documentaria (fa una ricerca dell’info attraverso


ipertesti) e metadocumentaria (si tratta di un’intelligenza arti ciale applicata al diritto).

• I PAGAMENTI ELETTRONICI=> nasce la CREDIT CARD, ideata nel 1949 da Frank McNamara,
usatissima, è stata uno dei fattori abilitanti l’e-commerce.
• L’HOME BANKING=> nata nei primi anni ’80 e chiamata telebanca, si è a ermata e di usa a
partire dagli anni ’90 in conseguenza dello sviluppo e di usione di Internet. Oggi si possono fare
tutte le operazioni di banca 24 ore su 24 dal proprio PC, tablet o smartphone.
• TRADING ON-LINE=> il 5 ottobre 1998 entra in vigore la dematerializzazione forte degli
strumenti nanziari: i titoli sono delle scritture contabili e non più documenti cartacei. Lo
sviluppo di internet e la dematerializzazione dei titoli porta alla nascita del trading on-line:
strumenti con i quali il cliente può fare direttamente compravendita di titoli in borsa.

• I BLOG=> sono dei siti all’interno dei quali il blogger pubblica contenuti: recensioni, opinioni,
conoscenze, esperienze, idee. Da questi nascono gli INFLUENCER: persone che riescono a
guadagnare la ducia di altre persone su Internet (tante). Diventa una professione: possono
essere ingaggiate a pagamento per avere loro recensioni.
• I SOCIAL NETWORK:
- FACEBOOK—> permette agli utenti registrati di creare pro li, caricare foto e video, inviare
messaggi e tenersi in contatto con amici, familiari e colleghi. Ha l’interfaccia utente
tradotta in 37 lingue diverse e può interagire con altri social network. Facebook è un social
network generalista, ovvero non ha orientamenti e obiettivi particolari oltre la
socializzazione fra i partecipanti al network.
- INSTAGRAM—> App per mobile photo-sharing, video-sharing e social networking che
permette agli utenti di scattare foto e video e condividerli pubblicamente o privatamente
sulla App o attraverso una varietà di altre piattaforme (Facebook, Twitter, Tumblr, Flickr).
- LINKEDIN—> social network professionale, con oltre 400 milioni di iscritti. Scopo
principale è consentire agli iscritti di mantenere e sviluppare i propri contatti, generare
contenuti professionali e pubblicazioni. Per sua natura, è consolidato nel mondo del
recruiting.
- PINTEREST—> è un’app per la condivisione di contenuti multimediali (immagini, foto,
video) con la particolarità di poter creare bacheche in cui catalogarli in base a temi
prede niti o generati dai contenuti stessi.
- TWITTER—> è un microblogging, cioè dei blog che limitano i messaggi a brevi testi. Utile
per la di usione di notizie, perché (con gli hastag) promuove post di blog più lunghi, la
condivisione di link, eventi. Evolvendo, è diventato un social anche lui.
- TUMBLR—> è anch’esso un microblogging, ma consente di creare dei tumblelog (o tlog),
una variante dei blog che hanno la caratteristica di sinteticità dei testi pubblicati e i link ai
contenuti multimediali, contrariamente ai classici blog dove frequentemente i contenuti
editoriali sono lunghi e complessi.
fi
ff
fi
fi
ff
ff
ff
fi
fi
fl
ff
ff
ETICA E INFORMATICA

ETICA= ramo della loso a che si occupa più speci camente della sfera delle azioni buone o
cattive e non già di quelle giuridicamente permesse/proibite o di quelle politicamente più
adeguate.
—>COMPORTAMENTO ETICO= attività di pensiero che attinge ciò che è costante e
uniforme al di là del variare dei fenomeni, con l’ambizione di de nire le strutture
permanenti della realtà e di indicare norme universali di comportamento.

Se nel 1980 quando si scattava una foto, questa, dopo essere stata sviluppata nel rullino, veniva
commentata e guardata da una stretta cerchia di persone in contesti face-to-face, adesso se
viene fotografato qualcosa, viene anche creato un post, guardato e commentato online da n-
persone.

=>esistono dei PRINCIPI ETICI che dovrebbero essere seguiti da tutti:


1. Agisci come vorresti che agissero tutti.
2. Anche se la capacità di imbrogliare è segno di acutezza e di potere, l'intenzione di imbrogliare
è senza dubbio segno di cattiveria o di debolezza.
3. Il mondo è un posto pericoloso, non a causa di quelli che compiono azioni malvagie ma per
quelli che osservano senza fare nulla.
4. Tutti i cattivi precedenti hanno avuto inizio come misure giusti cabili.
5. Un’azione è giusta se produce la massima utilità non per la persona che la fa, ma per tutte
quelle su cui in uisce.
6. Evita di fare quello che rimprovereresti ad altri.
7. L’autore è riconosciuto titolare di diritti sull’opera, per il fatto della creazione. (!!)
=> Dichiarazione Universale dei Diritti dell’Uomo
=>non è vero che ciò che viene pubblicato su internet è liberamente utilizzabile: non va
confuso il liberamente disponibile con il liberamente utilizzabile.
Per questo esistono i 10 COMANDAMENTI dell’ETICA DIGITALE.

DIGITAL DIVIDE= è il primo problema etico nato con la tecnologia, si tratta della distanza
compresa tra chi ha l’accesso alle tecnologie ICT e chi non lo ha (totalmente/parzialmente). Oggi
include anche l’accesso alla rete ad alta velocità, ai servizi di banda larga e alla capacita di usare
le tecnologie e i servizi.
=>non accedere alla rete comporta un divario nella capacità di sviluppo di un Paese, che
aumenta con il trascorrere del tempo.
Si tratta di un fenomeno collegato in parte alla zona geogra ca, ma soprattutto al titolo di studio
posseduto.

Le tecnologie hanno degli e etti anche sulla qualità della vita e talvolta portano allo sviluppo di
patologie, un esempio è il TECNOSTRESS, causato da 2 fattori: una lotta con sé stessi per
fl
fi
fi
ff
fi
fi
fi
fi
accettare la tecnologia informatica e dall’identi carsi in modo eccessivo con la tecnologia
informatica stessa.
Da una parte il ri uto di accettare il computer, dall’altra un’attrazione eccessiva verso lo stesso
che porta l’individuo a non poterne fare a meno. Gli e etti sono: ansia, attacchi di panico,
a aticamento mentale, a aticamento visivo, depressione e rabbia.

Il fatto che le tecnologie siano AAA (Anytime, Anyhow, Anywhere) consiste nel poter sfruttare i
servizi digitali sempre, ovunque e con più strumenti, ma porta con dei una lista di pro e contro.
—>i PRO sono: aumento e facilitazione nello sviluppo delle ricerche scienti che, creazione di
nuove relazioni, musica/ lm accessibili direttamente da smartphone/pc/tablet, allarmi su scala
globale (meteo, sicurezza, telegiornale).
—>i CONTRO sono: diminuzione del tempo per le relazioni, essere sempre raggiungibili,
in uenzabili, mancanza di privacy, nascita di nuove patologie.

I DISTURBI FISICI si dividono in:


• DISTURBI POSTURALI—> posizionamento del computer, seduta sulla sedia, appoggio del
polso per maneggiare il mouse creano disturbi posturali che possono causare dolori articolari
e muscolari.
• DISTURBI VISIVI—> guardare a lungo lo schermo può causare astenopia, ovvero
a aticamento visivo con manifestazioni fastidiose (bruciore, fotofobia, ecc.), ma per fortuna
reversibili.
• SINDROME DEL POLLICE DA SMARTPHONE—> in aumento e generalizzata, è un’artrite
causata dai movimenti del pollice per scrivere messaggi con una sola mano sullo smartphone.
Non sono ancora noti, ma si presume ci possano essere e etti a lungo termine sulla mobilità
delle dita.

I DISTURBI PSICHICI si dividono in:


• NOMOFOBIA—> acronimo di fobia no-mobile-phone, è la paura ossessiva di non essere
raggiungibili al cellulare. Di usa principalmente fra gli adolescenti, l’80% dichiara di averla
(seria per il 50% di loro che vanno in ansia).
• FOMO—> acronimo di Fear of Missing Out, è la paura di essere esclusi o emarginati dal
gruppo al quale si appartiene, il desiderio ossessivo di essere sempre connesso per
controllare le novità.
• SELFITIS—> ossessione che colpisce prevalentemente i giovani e che consiste nel sentirsi
costretti a postare continuamente sel e, sempre in maggiore quantità. Se non ci si riesce, si
va in ansia.
• DIPENDENZA PATOLOGICA DA VIDEOGIOCHI—> riconosciuta nella International
Classi cation of Diseases, è l’ossessione che colpisce i giocatori assidui con un’evoluzione
progressiva. Stadio 1: ansia se non si riesce a giocare; Stadio 2: impossibilità di fare a meno di
giocare; Stadio 3: isolamento dall’ambiente esterno; Stadio 4: immedesimazione nel contesto
del videogioco; Stadio 5: diventare un personaggio del videogioco e comportarsi da tale.
• SINDROME DI HIKIKOMORI—> dal giapponese “isolarsi”, è una dipendenza patologica molto
grave che consiste nell’uso eccessivo del PC soprattutto nelle relazioni sociali. Il soggetto,
che intraprende un percorso per essere hikikomori (6 mesi), si isola gradualmente dalla realtà
e vive nella sua stanza attaccato al PC perdendo cognizione del tempo, dell’alternanza giorno/
notte e delle persone che non abbiano la stessa sindrome, con le quali interagisce via PC.

I DISTURBI COMPORTAMENTALI si dividono in:


• KILLFIE—> abbreviazione di “sel e killer”, si tratta di sel e estremi realizzati allo scopo di
ottenere la massima visibilità e like. Mettono in generale a rischio la vita. Si stima che in Italia il
10% degli adolescenti abbia realizzato almeno 1 kill e.
• HATE SPEECH e HATER—> gli hate speech sono o ese basate su discriminazioni etniche,
sessuali, religiose, razziali, ecc. e gli hater sono coloro che le commettono. Sono sempre
esistiti personaggi del genere, ma il digitale ampli ca e consente di nascondersi dietro
nickname (pseudonimi) e tastiera.
• TROLL—> è un utente, ben camu ato, dietro il quale vi può essere un soggetto o
un’organizzazione. Entrano nelle chat e nei post allo scopo di fuorviare, disturbare o anche
manipolare gli orientamenti (voto, gradimenti, acquisti, ecc.). La shitstorm digitale (ra ca di
denigrazioni – false) è una delle armi più utilizzate.
ff
ff
fl
fi
fi
fi
ff
ff
fi
ff
fi
fi
fi
ff
fi
ff
fi
ff
fi
ffi
Per quel che riguarda la QUALITÀ della TECNOLOGIA, non esiste una regola per de nirne la
soglia minima, ma è il mondo degli utenti che giudica attraverso recensioni, post sui social, chat e
blog.
Il DIRITTO nell’INFORMATICA si divide tra:
• INFORMATICA DEL DIRITTO, che studia come le nuove tecnologie possono essere utilizzate
dagli operatori del diritto per meglio svolgere le proprie attività.
• DIRITTO DELL’INFORMATICA, che studia i problemi giuridici sollevati dall’uso delle nuove
tecnologie nella società odierna. Esistono delle norme che regolano le tecnologie
dell’informazione e della comunicazione nella società dell’informazione.

Il fenomeno del CYBERBULLISMO—> circa il 22% degli episodi di bullismo è cyber e in


aumento; il 50% degli intervistati tra gli 11 e i 17 anni dichiara di esserne stato vittima almeno una
volta.
=>va fatta cultura nelle famiglie e nei giovani, in modo che poi la legge possa essere realmente
e cace e si possa risolvere/contenere il problema.

Robotica e Comportamento
=>INTELLIGENZA ARTIFICIALE DEBOLE: i computer, opportunamente programmati, possono
risolvere problemi che superano la capacità umana, ma non possono imparare, ragionare e
decidere autonomamente. (È già realtà)
=>INTELLIGENZA ARTIFICIALE FORTE: i computer, opportunamente programmati, possono
imparare, ragionare e decidere autonomamente. (Non si sa se potrà esistere)

Gli ALGORITMI sono il “motore logico” dell’Intelligenza Arti ciale, ma sono in realtà “metodi a
passi” per risolvere problemi.
• Le RETI NEURALI simulano il modo di apprendere del cervello umano, questo tramite le
sinapsi, consente la comunicazione tra 2 neuroni e la propagazione del messaggio no al
destinatario nale. Se i neuroni fossero memorie elettroniche (record di database, ad
esempio), le sinapsi relazioni e il software (il programma) che stabilisce la strada da prendere e
la sinapsi da instaurare, sarebbe realizzato un sistema capace di imparare.
• Gli ALGORITMI GENERICI sono un modello di apprendimento automatico il cui approccio
deriva da analogie con le mutazioni genetiche della teoria dell’evoluzione: come la natura
trova rimedio ai propri errori con le mutazioni, i sistemi di Intelligenza Arti ciale possono
correggersi trovando strade alternative migliori. Non sono strumenti che imparano, ma
ottimizzatori e nel funzionare, provano soluzioni alternative che confrontano con quelle
precedenti: se ne trovano una migliore delle precedenti, l’adottano (decidendo da sé…).

• Le altre tecniche—> vi sono tantissime altre tecniche per disegnare il motore logico di un
robot (praticamente in nite). Il Santo Graal (l’algoritmo de nitivo) dell’intelligenza arti ciale è la
tecnica che si determina da sé, impara da sé e trova altre tecniche migliori senza intervento
umano e che un robot che la possiede può insegnarla ad altri robot.
ffi
fi
fi
fi
fi
fi
fi
fi
fi
L’UE ha de nito delle linee guida, ossia degli orientamenti etici, per lo sviluppo e l’utilizzo dell’IA.
BLOCKCHAIN= è una tecnologia che ha a fondamento la crittogra a asimmetrica. È costituita da
chiavi, ossia numeri con i quali cifrare i messaggi, con delle caratteristiche speci che: i messaggi
criptati con C1 possono essere letti solo con C2 e viceversa.
=>la CRIPTOVALUTA si basa sulla tecnologia blockchain.

Il MECCANISMO DI HASHING consiste nell’applicazione di una funzione matematica (hash


funtion) che un software speci co calcola rispetto ad un testo/qualunque contenuto digitale per
criptarlo. È caratterizzato dal fatto che se si applica allo stesso testo restituisce lo stesso risultato,
non funziona all’inverso ed è estremamente rare che 2 testi diversi possano avere lo stesso hash.
=> il meccanismo può essere utilizzano anche per la blockchain, infatti si tratta del primo
passo per garantire la sicurezza e la veridicità delle transazioni nella blockchain. Se si
“legano” le transazioni (i blocchi) riportando l’hash della transazione precedente “si mette
in sicurezza” tutta la catena: se qualcuno volesse cambiare un blocco, dovrebbe cambiare
tutti i precedenti decodi cando l’hash di tutti (per falsi carlo) e dovrebbe farlo per almeno
il 51% di tutti i partecipanti alla rete (si dice “attacco 51%”).
A fa una transazione con B, questa diventa un blocco (funzionalità della piattaforma blockchain),
che viene inviato a tutti i partecipanti della rete. I partecipanti approvano la transazione come
valida e la ritrasmettono sulla rete, in tal modo la transazione diventa parte della catena. I minatori
provano che è impossibile cambiare il contenuto del blocco con la crittogra a e il loro lavoro è
compensato con un importo nella criptovaluta della piattaforma (Proof of Work).

LA CYBERSECURITY

Ci sono 5 miliardi di individui connessi, quindi come ci sono criminali nel mondo reale, ci sono
anche in quello virtuale. In quest’ultimo, però, i fenomeni si manifestano in modo diverso, la
sociologia è di erente, i comportamenti degli individui pure.
=>contrastare la cybercriminalità è diverso dal contrastare quella tradizionale. L’unica cosa
che interessa a chi attacca i PC sono i dati contenuti in esso, in quanto consentono di
impossessarsi di identità e informazioni altrimenti inaccessibili.

HACKER—> vuole mettere alla prova sé stesso dimostrando di essere più bravo/trovando difetti
nella sicurezza dei sistemi come se fosse un gioco di enigmistica. Qualcuno lo fa anche sapere al
violato. Non fa danno, ma è comunque un’azione illegale ed è punita (severamente).

CRACKER—> sono i “cattivi”, in quanto si introducono nel sistema per fare danno/appropriarsi
delle risorse informatiche per scopi illeciti. Sono temuti perché distruggono le, introducono virus,
si appropriano del controllo del PC, si appropriano dell’identità informatica per commettere reati a
nome di altri.

HACTIVIST—> sono la versione “impegnata” del cracker, in quanto hanno motivazioni


ideologiche e politiche, si sentono “giustizieri” del web.

CYBERSPIA—> si tratta di spionaggio spostato sul cyberspazio.

CYBERTERRORISTA—> è una nuova forma di terrorismo poggiata su infrastrutture informatiche.

CYBERCOMBATTENTE—> è un soldato informatico che combatte una guerra con un computer,


programmando attacchi digitali.

Esistono diverse modalità di attacco:


1. ZERO-DAY ATTACK—> l’attacco che non si è mai veri cato prima, una novità assoluta;
pericoloso perché sconosciuto, per cui non si sa mai come difendersi.
2. E-MAIL ACCOUNT TAKEOVER—> vengono rubati indirizzi di email nei sistemi di posta
elettronica. Questi sono indirizzi validi e attendibili, possono superare le barriere degli anti-
spam e degli anti-virus, quindi possono essere usati per inviare mail fraudolente/di ondere
malware.
3. PHISHING—> il pirata informatico invia una moltitudine di mail a caso/usando indirizzi presi
da un attacco, dove chiede username e password/informazioni bancarie.
fi
ff
fi
fi
fi
fi
fi
fi
fi
fi
ff
4. CREDENTIAL REPLAY.—> tutti costruiscono delle password mnemoniche, che possono
essere ripetute per aprire diversi programmi.
5. SOCIAL ENGINEERING—> è una manipolazione psicologica, l’informatica è poi il mezzo per
portare a compimento la tru a. Si procurano le credenziali di un utente (basta solo venire in
possesso di una fattura o anche dal sito web di un’azienda), contattano il malcapitato e
all’interno di una scenogra a appositamente costruita lo convincono a fare le operazioni che
vogliono.
6. CALL FORWARDING—> il cyberpirata invia una mail/messaggio con allegato, se questo viene
scaricato, si installa un software che avvisa il cyberpirata quando l’infettato ha una
conversazione/chat con un altro. Questa può quindi essere registrata.
7. SPOOFING—> signi ca mascherare l’identità digitale, può avvenire in vari modi, X ES
spoo ng dell’indirizzo IP (si inviano messaggi usando un IP mittente simile/uguale a uno
attendibile per ingannare i controlli) e spoo ng di e-mail (si inviano mail usando indirizzi
attendibili).
8. DDoS—> Distributed Denial of Service, attacco con il quale un team di cybercriminali punta a
mettere fuori servizio un sito/servizio informatico bombardandolo di richieste. I server attaccati
provano a soddisfare le richieste nché non vanno fuori servizio perché le risorse sono tutte
saturate.
9. INJECTION—> un cyberpirata intercetta sulla rete un comando impartito dall’utente e ci
inserisce (inject) qualche istruzione per far eseguire al programma ricevente ciò che gli serve
(ad esempio ottenere dati dell’utente senza autorizzazione).
10. CROSS-SITE SCRIPTING (XSS)—> un cyberpirata usa una schermata di richiesta informazioni
di un’azienda (lecita, ma debole dal pov della sicurezza) con la quale, tramite il PC
dell’attaccato, accede al server dell’azienda.
11. SECURITY MISCONFIGURATION—> è una debolezza che deriva da errori di con gurazione
dei software di sicurezza e/o non aggiornamento dei sistemi operativi e delle applicazioni. Se
vi era una falla e non è stata risolta, il cyberpirata la può usare per introdursi.
12. SENSITIVE DATA EXPOSURE—> non è una tecnica, è una debolezza, infatti non vengono
adeguatamente protetti i dati sensibili (primi obbiettivi di un hacker).
13. CROSS-SITE REQUEST FORGERY (CSRF/XSRF)—> molti siti non veri cano l’intenzionalità
della richiesta, cioè se l’utente vuole davvero connettersi, dovrebbero infatti chiedergli le
credenziali. È un’operazione che impegna risorse macchina, che sono costose soprattutto per
chi non può permettersene troppe (come ad esempio wikipedia). Ciò espone con maggiore
facilità ad attacchi DDoS.
14. USARE COMPONENTI CON VULNERABILITÀ—> è una debolezza a ne alla security
miscon guration e molto comune: le app che vengono scaricate usano moltissimi programmi
(interfacce/API ad altri programmi, driver del sistema operativo, ecc.) ed è facile che qualcuno
abbia lacune che un cyberpirata possa usare.
15. ICMP (Internet Control Message Protocol) FLOOD—> quando si riceve un messaggio di errore
dalla rete, il programma utilizzato lo riceve senza troppi controlli, quindi un hacker bravo
potrebbe mandare tantissimi messaggi di quel tipo, facendo andare in tilt il computer.
16. SYN (SYNcronize) FLOOD—> “syn” indica i messaggi sincroni, ossia che il richiedente
attende una risposta del server o viceversa. La richiesta di connessione a un server è un
messaggio sincrono, ma se invece di collegarsi l’attaccante fa spooging e invia altre richieste,
una dopo l’altra, il server va in tilt.
17. HTTP POST DOS ATTACK—> difetto di progettazione di molti siti web: la richiesta di
connessione ha un campo nel quale viene memorizzato un messaggio che fa parte della
richiesta, ma sono stati programmati per accettare messaggi molto lunghi, anche 2 giga.
L’attaccante fa la richiesta di connessione, ma invia a velocità ridottissima il messaggio (1 byte
ogni 2-3 minuti, appena un po’ sotto il timeout). Invia quindi molte richieste di questo tipo
nché il server è tutto occupato ad aspettare i lentissimi completamenti e risulta indisponibile
per le richieste degli utenti veri.
18. CRYPTOLOCKING—> attraverso qualche tecnica si colloca un programma sul computer della
vittima che utilizza meccanismi di crittogra a per cifrare le info rendendole illeggibili. Il
programma inizia a replicarsi e a cambiare nome, agendo così per molto tempo (anche mesi),
in modo da infettare anche i backup. Quindi si attiva, cripta le info e se l’utente vuole di nuovo
accedere a queste, deve pagare un riscatto. Neppure i backup lo aiutano perché sono infetti
anche quelli.
19. KEYLOGGING—> attraverso qualche tecnica si colloca un programma sul computer della
vittima che registra ciò che la vittima scrive e lo comunica al cyberpirata. Il quale può avere
fi
fi
fi
fi
fi
ff
fi
fi
fi
ffi
fi
fi
accesso alle credenziali di accesso al PC dell’attaccato, a quelle per accedere ai siti dove è
registrato e alle conversazioni/comunicazioni private.

Per il sostegno alla protezione dei servizi ICT è stata de nita dall’UE la DIRETTIVA NIS (Network
Information Security), che ha l’obiettivo di conseguire un elevato livello di sicurezza delle reti e dei
sistemi informativi tramite speci che misure organizzative e di di usione delle informazioni fra gli
stati membri. Si occupa di individuare gli operatori di servizi essenziali e fornitori di servizi digitali
ai quali chiedere appropriate misure di cybersecurity, inoltre chiede agli stati membri di dotarsi di
uno CSIRT (Computer Security Incident Response Team), NIS autority nazionali e cooperare con
gli altri stati membri (rete CSIRT) scambiandosi info sugli attacchi e gli incidenti gravi subiti.
Il NIST (Cyber Security Framework e framework nazionale italiano) fornisce un completo (e
aggiornato) quadro sinottico di tutti gli ausili e best practices utilizzabili per implementare e
manutenere il framework, che un ente governativo/impresa possono de nire per governare il
proprio impianto di sicurezza informatica. Il cuore del framework schematizza la struttura del
processo di gestione della cybersecurity.
—>IDENTIFY: comprensione ed identi cazione del contesto aziendale, degli asset che
supportano i processi critici di business e dei relativi rischi associati.
—>PROTECT: misure per la protezione dei processi di business e degli asset aziendali,
indipendentemente dalla loro natura informatica.
—>DETECT: definizione e modalità di attuazione di attività nalizzate all’identi cazione
tempestiva degli incidenti di sicurezza informatica.
—>RESPOND: definizione e modalità di attuazione delle attività in risposta al veri carsi di un
incidente di sicurezza informatica (misure reattive).
—>RECOVER: definizione e modalità di attuazione delle attività di ripristino dei processi e dei
servizi impattati da un incidente informatico.

DIGITAL FORENSICS= “disciplina digitale forense”, è un ambito complesso tecnicamente e


giuridicamente, in continua e sostenuta espansione ed evoluzione.

=>DISK FORENSICS: le info probanti erano contenute principalmente nei dischi ssi/
supporti di memoria sica non volatile. Se si sospetta che un supporto di memoria possa
contenere prove, deve essere immediatamente sequestrato ed a dato ad una società
terza specializzata, riconosciuta ed accreditata dalle autorità. Questa provvederà a
proteggere il supporto da operazioni di scrittura e generare un hash code del contenuto
(quindi lo sigilla). —>Non si lavora più sugli originali, ma su copie la cui conformità è
garantita dall’hash.

=>WEB FORENSICS: gli autori di illeciti sul web possono essere individuati e puniti se si
riesce a garantire la produzione di prove che consistono in tracce digitali sul web.
Coinvolge provider di servizi di hosting, necessita di acquisire log- le secondo speci che
procedure (per garantirne l’autenticità), necessita di acquisire tutti gli strumenti utilizzati
per l’illecito.

=>MOBILE FORENSICS: se il telefono è rivenuto acceso, bisogna evitare di spegnerlo


(potrebbe non essere possibile bypassare i meccanismi di protezione, potrebbero non
essere attivi i sistemi di cancellazione dei dati allo spegnimento, isolarlo dalla ricezione di
segnali). Se è rinvenuto spento non provare ad accenderlo, usare particolari procedure per
acquisire dati dalla memoria, usare particolari procedure per fare la copia della scheda
SIM.
fi
fi
fi
fi
fi
ff
ffi
fi
fi
fi
fi
fi
fi

Potrebbero piacerti anche