Ott 01-03
Ott 01-03
Ingegneria Informatica
A.A. 2024-2025
II semestre
Ottimizzazione
Giovanni Giallombardo
1. Informazioni generali
2. Introduzione al corso
1/32
Informazioni generali
Lezioni — Esercitazioni
Docente
Giovanni Giallombardo
DIMES, Cubo 44Z, Piano superiore
0984494670
[email protected]
ricevimento
X online: tutti i giorni per appuntamento su Teams
X in presenza: tutti i giorni per appuntamento (Cubo 44Z)
2/32
Struttura del corso
3/32
Online
Teams Sign in
Comunicazioni
Tutte le comunicazioni (richieste di chiarimenti, ricevimento,
informazioni) che non siano di carattere personale, saranno scambiate
mediante le chat dei canali di Teams
Per i messaggi personali il contatto preferibile è l’email
4/32
Materiale didattico
5/32
Struttura d’esame
Prova orale
In forma tradizionale
Possibilità di concordare il calendario delle prove
In forma alternativa: proposte?
6/32
Introduzione al corso
Requisiti d’accesso
Contenuti
Algebra lineare (matrici, determinanti, sistemi di equazioni)
Calcolo differenziale per funzioni di più variabili
Analisi probabilistica (valore atteso, densità congiunta)
Statistica (stimatori, leggi dei grandi numeri)
Programmazione lineare e dualità
Insegnamenti
Algebra Lineare e Matematica Discreta
Matematica I
Matematica II
Metodi Probabilistici della Ricerca Operativa
Ricerca Operativa
(Modelli Statistici e Statistical Learning, Data Mining)
7/32
Ricerca Operativa
8/32
Fasi di un processo decisionale
9/32
Problema di ottimizzazione
Consideriamo
10/32
Richiami di algebra lineare
Vettori
Notazione
Utilizziamo la convenzione del prodotto righe per colonne per
rappresentare i prodotti scalari.
Tutti i vettori sono rappresentati da colonne.
∂f(x)
∂x1
x1 d1
∂f(x)
x2 d2
∂x2
x=
..
d=
..
∇f(x) = ..
. .
.
xn dn ∂f(x)
∂xn
11/32
Vettori
Norma
Una norma k · k : Rn 7→ R è una funzione che associa scalari a vettori e che
ha le seguenti proprietà:
kxk ≥ 0 ∀x ∈ Rn
kcxk = |c|kxk ∀c ∈ R, ∀x ∈ Rn
kxk = 0 ⇔ x=0
kx + yk ≤ kxk + kyk ∀x, y ∈ Rn
Norme ℓ1 , ℓ2 , ℓ∞
∑n
Norma ℓ1 : kxk1 , i=1 |xi | (Norma di Manhattan)
( ∑n )1
2 2
√
Norma ℓ2 : kxk2 , i=1 xi = x⊤ x (Norma Euclidea)
Norma ℓ∞ : kxk∞ , max {|xi | : 1 ≤ i ≤ n} (Norma di Chebychev)
12/32
Matrici
Autovalori e autovettori
Il polinomio caratteristico di una matrice quadrata A ∈ Rn×n è definito da
ϕ(λ) = det(λI − A)
Proprietà
Sia A ∈ Rn×n una matrice simmetrica e indichiamo con λ1 ≤ . . . ≤ λn i suoi
autovalori (tutti reali). Allora vale la seguente relazione
λ1 kxk22 ≤ x⊤ Ax ≤ λn kxk22
13/32
Matrici
x⊤ Ax > 0 ∀x ∈ Rn , x 6= 0
x⊤ Ax ≥ 0 ∀x ∈ Rn
Proprietà
14/32
Problemi di Ottimizzazione:
definizioni e classificazione
Definizioni fondamentali
15/32
Definizioni fondamentali
Minimo locale
Indichiamo con
B(x∗ , δ) = {x ∈ Rn : kx − x∗ k ≤ δ}
un intorno di x∗ di raggio δ > 0.
Il punto x∗ è detto punto di minimo locale e il corrispondente valore f(x∗ ) è
detto minimo locale se
Un problema di massimo
max f(x)
x∈Ω
f(x∗ ) ≥ f(x) ∀x ∈ Ω
cioè
−f(x∗ ) ≤ −f(x) ∀x ∈ Ω
∗
quindi x ∈ Ω è un punto di minimo globale della funzione −f(x)
e
f(x∗ ) = max f(x) = − min −f(x)
x∈Ω x∈Ω
17/32
Classificazione dei problemi di ottimizzazione
18/32
Problemi di ottimizzazione continua
min f(x)
x∈Rn
20/32
Problemi di programmazione non lineare
min
f(x)
subject to ci (x) = 0 ∀i ∈ E (P)
ci (x) ≥ 0 ∀i ∈ I
21/32
Problemi di programmazione non lineare
min f(x)
x∈Rn
22/32
Uno sguardo al futuro (del corso)
Regressione
23/32
Uno sguardo al futuro (del corso)
Regressione
23/32
Uno sguardo al futuro (del corso)
Regressione
23/32
Uno sguardo al futuro (del corso)
Regressione
23/32
Uno sguardo al futuro (del corso)
24/32
Richiami di calcolo differenziale
Funzioni reali di una variabile reale
f : R 7→ R x0 ∈ R t∈R
Derivata
f(x0 + t) − f(x0 )
f′ (x0 ) = lim
t→0 t
Derivata seconda
f′ (x0 + t) − f′ (x0 )
f′′ (x0 ) = lim
t→0 t
Formula di Taylor
Sia f(x) definita, e derivabile n − 1 volte, su un intervallo aperto ]a, b[, e
supponiamo che esista la derivata n-esima di f(x) in x0 ∈]a, b[. Allora risulta
1 ′′ 1
f(x0 + t) = f(x0 ) + f′ (x0 )t + f (x0 )t2 + · · · + f(n) (x0 )tn + o(tn )
2! n!
25/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
Interpretazione geometrica
26/32
Funzioni reali di una variabile reale
f(x) è derivabile in x0
f′ (x0 ) = 0
27/32
Funzioni reali di più variabili reali
f : Rn 7→ R x0 ∈ Rn ei ∈ Rn d ∈ Rn t∈R
Derivata parziale
( )
∂f f(x0 + tei ) − f(x0 )
= lim
∂xi x=x0
t→0 t
Derivata direzionale
f(x0 + td) − f(x0 )
f′ (x0 , d) = lim
t→0 t
Proprietà
Differenziabilità
f(x0 + d) − f(x0 ) − g(x0 )⊤ d
∃g(x0 ) ∈ Rn : 0 = lim
∥d∥→0 kdk
Gradiente
∂f(x)
∂x1
∂f(x)
g(x0 ) = ∇f(x0 ) =
∂x2
..
.
∂f(x)
∂xn x=x0
30/32
Funzioni reali di più variabili reali
30/32
Funzioni reali di più variabili reali
30/32
Funzioni reali di più variabili reali
30/32
Funzioni reali di più variabili reali
31/32
Funzioni reali di più variabili reali
32/32