Il 0% ha trovato utile questo documento (0 voti)
12 visualizzazioni

Machine Learning

machine learning

Caricato da

derag40515
Copyright
© © All Rights Reserved
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
12 visualizzazioni

Machine Learning

machine learning

Caricato da

derag40515
Copyright
© © All Rights Reserved
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 103

Machine Learning

Sergio Mancini A.A. 2023/2024  Lo Shottatore

Docente: Giovanni Maria Farinella, Rosario Leonardi

Introduzione
Definizione formale di Machine Learning
Ingredienti di un algoritmo di Machine Learning
Rappresentazione geometrica
Tipi di Learning
Supervised Learning
Unsupervised Learning
Reinforced Learning
Self-Supervised Learning
Normalizzazione dei dati
Standardizzazione
Cross Validation
KFold Cross Validation
Overfitting
Underfitting
Errore di Bias
Errore di Varianza
McCulloch-Pitts Neural Network
Come computare un OR
Come computare un AND
Rosenblatt Perceptron 1958
Elementi fondamentali per il Percettrone
Adaptive Linear Neuron Adeline)
Problema dello XOR

Machine Learning 1
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
A computer program is said to learn from experience E with respect to some class of tasks T and
performance measure P, if its performance at tasks in T, as measured by P, improves with experience
E.

Task T è il problema da r isolvere, per esempio nel c aso di riconoscere spam o non-spam
lʼattaccare unʼetichetta alla mail è il task. Generalmente viene pensato come una funzione
parametrizzata chiamata ipotesi: “la probabilità di osservare una certa etichetta dato un datoˮ

Y^ = argy max Hθ (Y ∣X)

Vogliamo trovare unʼapprossimazione della funzione che risolva il problema.

Experience E sono i dati, per esempio le mail. Abbiamo anche delle etichette, un set di coppie che
prendono il nome di data points (esempi, campioni):
n
{(X (i), y(i) )}
i=1

Vogliamo che lʼalgoritmo impar i.


Performance P è la funzione che valuta la bontà di H tenuto conto n e deve migliorare rispetto al
task con lʼaiuto dellʼesperienza:

P ({y(i) } , {Y^ (i) })

E si deve calcolare su tutti i dati in input:

∑ δ(Y (i), y (i))


i

δ(A, B) = {
1if A = B
0otherwise

Il processo di apprendimento permette di far variare i parametri della funzione affinché le performance
siano le migliori possibili

Ingredienti di un algoritmo di Machine Learning


Model: funzione parametr izzata che risolve il task;

Cost Function J è una funzione che cambia in base ai parametri che ci sono;

Parameters of the model θ

Train Algorithm: una procedura per aggiustare i parametri ed osservare le variazioni nelle
performnce del modello;

Dataset X : abbiamo bisogno di più dataset che sono:

Train Set: XTRAIN . Per allenare il modello.

Machine Learning 4
Test Set: X TEST . Per valutare quanto è bravo lʼalgoritmo su dati mai visti.

Validation Set: XV AL . Serve a settare gli iperparametri.

Di solito si usano solo train e test, ma alcuni hanno anche dei parametri diversi che sono gli
iperparametri KMeans, KNN, ecc.).

Dove:

XTRAIN ∩ XTEST = ∅

X TRAIN ∩ XV AL = ∅

X V AL ∩ XTEST = ∅

Un algoritmo buono deve generalizzare su dati che non ha mai visto.


Quando si creano quei 3 set si randomizza il sampling dai 3 set per evitare bias. La selezione dei dati
dipende dal dataset che si ha per risol vere il problema.
(i)
Le Xj sono le feature, le Y ∈ {1, ..., K } le labels.
Le feature si possono categorizzare in:

Categoriche: ci sono alcune chiamate nominali perché non hanno un ordine ben definito, per
esempio il blu, il rosso (che appartengono alla categoria del colore);

Continuo: abbiamo dei numeri che identificano la feature per esempio la temperatura.

Rappresentazione geometrica
Ogni elemento del nostro dataset si trova in uno spazio vettoriale.

Lʼidea è di stabilire delle aree in cui possiamo dire se ti trovi in questa zona sei spam, se ti trovi in
questʼaltra non sei spam.

Machine Learning 5
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Xj → [0, 1] ∨ [−1; −1]

Si può utilizzare il Min-Max Sealing:

X j − X jmin
X^ j = ∈ [0, 1]
Xjmax − X jmin
con
X jmin = min{ Xj ∣∀ j }
Xjmax = max{X j ∣∀j }

Di solito i dati sono organizzati in matrici.

X1(1) X (2)
1 ... X (1)
d
... ... ... ...
(m ) (m ) (m )
Xn Xn ... X d

Il tipo di normalizzazione più utilizzato , e perché i dati sono organizzati in matrici, è la zero mean
normalization:

I dati sono organizzati in colonna;

Per ogni colonna si calcola la media della j-esima colonna, μj ;

Sottrarre μj alla j-esima colonna.

Cioè:

X′ = X − μ

Dove X ′ rappresenta il nuovo valore, X la colonna del dataset e μ la media della colonna.
Questo tipo di normalizzazione centra i dati attorno allo zero.

Standardizzazione
Permette di scalare i dati in modo tale che la σ (deviazione standard) sia 1 .

Calcolare la media μj e la deviazione standard σ j per ogni colonna;

Sottrarre la media ad ogni dato nella rispettiva colonna;

Machine Learning 7
Dividere il risultato per la σ .

^ j = Xj − μj
X
σj

∣n∣
1
μj = ∑ Xj
m j=1

1
σj = ∑(Xj − μj )2
n
j

^ indica il valore standardizzato e X il valore originale.


X

Cross Validation

La prima cosa da fare è suddividere il dataset:

Train e Validation

Test

K-Fold Cross Validation

Si chiama KFold perché i dati vengono suddivisi in K fold appunto, e ogni fold avrà una partizione di
training, validation e testing; ogni parte è suddivisa in modo diverso.

Machine Learning 8
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Input: Il neurone riceve degli input 0,1 da altre unità, e ad ogni input è associato un peso che
riflette lʼimportanza di questo input;

Sommatore Pesato: Gli input si sommano, ognuno moltiplicato per il proprio peso;

Funzione di Attivazione: Dopo la somma pesata degli input, il neurone applica una funzione di
attivazione che determina se il neurone si attiva e produce un output 0,1.

È un modello parametr izzato tramite θ .

In questo primo modello di neurone, la funzione di attivazione è una funzione a soglia. Se la somma
pesata supera una certa soglia allora il neurone si attiva e produce un output.

Le reti sono organizzate per livelli, in quelli più bassi ci sono i neuroni che si attivano per segnali low-
level, passando al livello più alto (riconosce una faccia).

xj indicano gli exitators;


yj indicano gli inhibitory;
xj ; yj ∈ {0, 1}
Funzione di Attivazione
θ rappresenta la soglia da superare.

⎧1ifyj = 0∀j; ∑j xj ≥ θ
fθ (x 1, x 2, ..., x n) = ⎨0if y j = 0∀j; ∑j x j < θ

0if ∃ j∣y j =
0

Questo tipo di neurone ha dei problemi:

 Funziona solo con input binari;

 I parametri devono essere scelti a mano;

 Considera ogni input di uguale importanza;


 Tutte le funzioni computate sono utili solo nel caso di linear separabilit y (quando si traccia una
linea, iperpiano nello spazio)

Machine Learning 10
Linear separability

Due set A e B si dicono separabili linearmente se esiste un iperpano di D +1


D sono relativi allʼinput, in più si aggiunge θ0 che serve come threshold)
dimensionale, se esistono dei pesi θ1 , θ2 , ...θn tali che per ogni punto
(X1 , X2 , ..., Xn ) in A

Θ0 + Θ1 X1 + Θ2 X2 + ... + ΘD XD > 0 => ∑jD v j a j > 0

e per ogni punto


(X1 , X2 , ..., XD ) in B

Θ0 + Θ1 X1 + Θ2 X2 + ... + ΘD XD < 0 => ∑jD v j bj < 0

Questo indica che i punti che appartengono ad A si trovano da un lato


dellʼiperpiano, e quelli di B si trovano in un altro lato.

Cosa computa un neurone del genere?

Può computare qualsiasi funzione logica AND, OR, NOT, …) che prende in input un set di 0,1 e può
essere computata con una network di almeno 2-layer.

F : {0, 1} n → {0, 1}

Il problema dello XOR ha bisogno di almeno un layer intermedio per c alcolare qualcosa che non è
lineare.

Come computare un OR

Machine Learning 11
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
La Σ rappresenta la combinazione lineare ∑D
j Xj θj .

^∈
Lʼoutput y {0, 1} dove:

y^ = {
D D
1if ∑j Xjθ j > t = ∑j X j θj − t > 0
0otherwise

Possiamo vedere degli step:

 Inizializzazione dei pesi nel range 0,1

a Utilizzare una Gaussiana nel range 0,1

 Prendere lʼinput X j e computare lʼoutput y^ predetto dal percettrone


 Valutare lʼuguaglianza y (j ) = y^(j) serve per valutare il modello, se y e y^ sono diverse allora non
coincidono, quindi bisogna aggiustare i pesi:

Calcolo dellʼerrore: Si calcola la differenza tra output previsto e output desiderato, serve a
capire quanto lʼoutput del percettrone è lontano dal valore desiderato.

Aggiornamento dei pesi: Wi + ΔW i → Wi


Wi è il peso corrente associato allʼinput Xi
ΔWi è lʼincremento del peso che viene calcolato come:

ΔWi = α(y − y^)Xi

α è il tasso di apprendimento, un iperparametro che controlla la dimensione dei passi di


aggiornamento dei pesi.

 Reiterare il processo.

Adaptive Linear Neuron (Adeline)

Machine Learning 13
È una variante del percettrone che differisce per come vengono aggiornati i pesi:

Calcolo dellʼerrore Uguale a Rosenblat

Aggiornamento dei pesi: Si vuole minimizzare la funzione di costo MSE

W i + α(y − y^)Xi → Wi

Si aggiornano i pesi in modo proporzionale allʼerrore (y − y


^) anzichè usare una funzione binaria.

Problema dello XOR


È un esempio di limitazione dei modelli linear i come il percettrone.

Lo XOR è una funzione logica che ritorna 1 (true) se la quantità di 1 è dispari.


È impossibile trovare un singolo iperpiano che possa separare correttamente i valori di output, quindi lo
XOR non è linearmente separabile.
Tabella di verità dello XOR

Plottando otteniamo questo grafico che è ciò che vorremmo classificare.

Machine Learning 14
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
F : Rn → Rm
n > 1m > 1

Per esempio predire la posizione GPS a partire da una immagine.


Mappare vettori (o scalari se n=1 a vettori.

Regressione Lineare
Consideriamo un dataset che contiene delle coppie di numer i (x, y) e riporta:

La media del numero di stanze nelle case nel paese x ;

Il prezzo medio delle case nel paese, indicato in 1000€sy.

Vogliamo una funzione che permette di mappare la media del numero di stanze x con il prezzo medio y
. Approssimare il prezzo medio delle case y dato un numero di stanze x.

Siamo nel caso in cui vogliamo trovare la funzione h che mappa il nostro input X(R n) nellʼoutput
Y (Rm) .
Dal grafico si vede che più stanze ci sono e maggiore sarà il prezzo.

Formulazione analitica
Regressione semplice

f(x) = θ0 + θ1 x
ˋel’equazionedellaretta

θ0 è lʼintercetta: esprime la posizione di r nello spazio, dove r intercetta la retta y quando x = 0 ;


θ1 il coefficiente angolare: esprime lʼorientamento di r rispetto allʼasse x.
Sono i parametri del modello.

Machine Learning 16
Allenare un regressore lineare significa trovare i valori per questi parametri tale che f(x) predice
bene y . Per trovare questi parametri si usa la discesa del gradiente.

Un valore alto di β 1 da luogo a curve più ripide.


Con
β1 = 0 si ha la retta orizzontale parallela rispetto allʼasse x .
Con
β1 < 0 si ha la retta allʼindietro.

Lʼintercetta decide dove si trova la retta nello spazio, valori alti di


β0 spingono sopra la retta, quindi si avranno valori alti di y .
Regressione multipla

f(x) = θ0 + θ1 x1 + θ2 + x 2 + ... + θn xn

In questo caso bisogna trovare un parametro θ per ognuna delle dimensioni della variabile x in input,
più lʼintercetta β 0 .
Allenare questo regressorre significa trovare un insieme Θ di parametri appropriati per prevedere y
con la migliore accuratezza possibile.

La funzione sarà un iperpiano ad n dimensioni.

Possiamo settare x 0 = 1 (così lʼintercetta non cambia) e scrivere il modello di regressione lineare
come una sommatoria:

n
f(x) = ∑ θi xi
i=0

Regressione multivariata

Risolve il problema definendo m regressori mul tipli indipendenti, per ogni dimensione della y yche
processano lo stesso input x , ma possono avere pesi diversi:

y^1
f1(x)
y^2
y^ = = ...
...
f m(x)
y^m

Ogni regressore fi ha i propri parametr i Θi , e ogni ottimizzazione viene eseguita indipendentemente.

Come valutiamo un modello di regressione?


Useremo la formulazione generale della regressione multipla.

Machine Learning 17
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
La derivata nel punto ci da il coefficiente angolare.
Questo in poche poche poche parole è lʼalgoritmo della discesa del gradiente aggiornando i pesi per
trovare il minimo.

Discesa del Gradiente - regressione semplice


Questo algoritmo si basa sullʼosservazione che, se una funzione J (θ) è definita e differenziabile in un
vicinato di un punto θ(0) , dopo J (θ) decresce velocemente se si procede da θ(0) verso la direzione
della derivata negativa di J calcolata in θ (0) .

Assumiamo di partire da θ(0) per trovare il minimo bisogna seguire lʼandamento decrescente della
funzione. Non abbiamo abbastanza informazioni per sapere come muoverci, quindi si utilizzano le
derivate che danno informazioni sullʼandamento della funzione.

Machine Learning 19
La prima derivata (ci fornisce la pendenza della retta tangente al punto) della funzione nel punto
f′ (θ(0) ) sarà uguale al coefficiente angolare della tangente alla curva nel punto (θ (0), f(θ (0))) .
Siccome la curva sta decrescendo in un intorno di θ(0) , la tangente decrescerà. Quindi il coefficiente
′ (0)
angolare f (θ ) sarà negativo.

Se il coefficiente angolare è positivo, ci indica che la funzione è crescente verso lʼasse x (quindi
verso destra) e quindi bisogna muoversi verso sinistra.

Viceversa se il coefficiente angolare è negativo.

Se vogliamo muoverci verso destra, dobbiamo seguire la direzione inversa della der ivata della curva in
quel punto.
La derivata della funzione f ′ (x0 ) ha coefficiente angolare negativo, quindi la funzione decresce nel
punto x0 e conviene prendere il prossimo punto x1 che sarà più piccolo di x0 .

La direzione per trovare il minimo, è opposta alla tangente ottenuta tramite il calcolo della derivata.

Lʼalgoritmo di discesa del gradiente è iterativo, ad ogni passo si muoverà lungo la funzione fino a
trovare il punto di minimo.

Si ripete fino a quando non si arriva alla convergenza.


Di quanto bisogna muoversi lungo lʼasse x ?

Definiamo una costante μ che indica il Learning Rate, e ci sposteremo ad ogni iterazione in questo
modo:

x1 = x0 − μ ⋅ f ′ (x0 )
Fattoredispostamentonellafunzione

Se il learning rate è grande può capitare di arrivare ad un θ che ha superato il minimo, quindi risale
lʼerrore.

Per sett are il learning rate si parte da un valore 0.1, si vede come la curva sta andando e si aggiusta
mano a mano con 0.01 e così via…
Non esiste un altro modo per ver ificare se il metodo sta convergendo.

Machine Learning 20
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2
Regressione
I casi della regressione
Regressione semplice
Regressione multipla
Regressione mul tivariata
Regressione Line are
Formulazione analitica
Come valutiamo un modello di regressione?
Algoritmo della Discesa del Gradiente
Discesa del Gradiente - regressione semplice
Caso Multivariato (più variabili)
Passi esecutivi dellʼalgoritmo
Discesa del Gradiente e Regressione Line are
Considerazioni sul Learning Rate
Regressione Polinomiale
Regressione Polinomiale a più variabili
Feature Scaling
Funzione di trasformazione ϕ
Regolarizzazione
Decadenza del peso
Misure di Performance
Rec Curve
Debugging algoritmi di Machine Learning
Aumentare le capacità del modello
Validazione di un modello
KFold Cross Validation
Selezione del modello
Allora graficamente?
Scelta del giusto parametro di regolarizzazione λ
Altre curve
Trucchi utili
Introduzione alla Classificazione
One Vs All
One vs One
Come classificare
Regressione Logistica
Funzione Logit
Modello Logistico
Regressione Logistico Non Line are
Come si scelgono i parametri θ?
Caso y =1
Caso y = 0
Classificazione
Entropia
Cross-Entropy Loss)
Regolarizzazione
One hot encoding
Stocastic Gradient Descent SGD

Machine Learning 2

Potrebbero piacerti anche