Il 0% ha trovato utile questo documento (0 voti)
1 visualizzazioni

Algoritmi ML

Caricato da

202185
Copyright
© © All Rights Reserved
Formati disponibili
Scarica in formato DOCX, PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
1 visualizzazioni

Algoritmi ML

Caricato da

202185
Copyright
© © All Rights Reserved
Formati disponibili
Scarica in formato DOCX, PDF, TXT o leggi online su Scribd
Sei sulla pagina 1/ 3

Lezione di Matematica: Introduzione agli Algoritmi di Machine Learning

Obiettivo della lezione:


Comprendere i concetti matematici di base che stanno dietro gli algoritmi di Machine
Learning (ML) e come questi vengono utilizzati per apprendere da dati.

1. Introduzione al Machine Learning


Il Machine Learning (ML) è una branca dell'informatica che utilizza metodi
matematici per consentire ai computer di apprendere e fare previsioni senza essere
esplicitamente programmati. Gli algoritmi di ML sono modelli matematici che cercano
di minimizzare l'errore tra una previsione e il valore reale osservato nei dati.

2. Tipi di Algoritmi di Machine Learning


Gli algoritmi ML si classificano principalmente in:
1. Supervisionati: Modelli che apprendono da dati etichettati. (Esempi:
regressione lineare, alberi decisionali, reti neurali supervisionate).
2. Non supervisionati: Modelli che trovano schemi o strutture nei dati non
etichettati. (Esempi: clustering, riduzione della dimensionalità).
3. Apprendimento per rinforzo: Modelli che apprendono attraverso l'interazione
con un ambiente e l'ottenimento di ricompense.

3. Fondamenti Matematici degli Algoritmi


3.1. Spazi e Funzioni
 Uno spazio X\mathcal{X} rappresenta l'insieme di input o caratteristiche
(features) dei dati.
 Uno spazio Y\mathcal{Y} rappresenta l'insieme degli output o etichette.
 L'obiettivo di un algoritmo di ML è apprendere una funzione f:X→Yf: \mathcal{X}
\to \mathcal{Y}.
3.2. Dati e Formulazione del Problema
 I dati sono rappresentati come una collezione di coppie (xi,yi)(x_i, y_i) con
xi∈Xx_i \in \mathcal{X} e yi∈Yy_i \in \mathcal{Y}.
 Gli algoritmi tentano di minimizzare un errore o una funzione obiettivo:
L(f)=1N∑i=1Nℓ(f(xi),yi)L(f) = \frac{1}{N} \sum_{i=1}^N \ell(f(x_i), y_i) dove:
o ℓ\ell è una funzione di perdita (es., errore quadratico, entropia incrociata).

o f(xi)f(x_i) è la previsione del modello.

4. Algoritmi Supervisionati
4.1. Regressione Lineare
 Modello: f(x)=w1x1+w2x2+⋯+wdxd+bf(x) = w_1 x_1 + w_2 x_2 + \dots + w_d
x_d + b
 Funzione obiettivo: Minimizzare l'errore quadratico medio (MSE):
MSE=1N∑i=1N(f(xi)−yi)2MSE = \frac{1}{N} \sum_{i=1}^N (f(x_i) - y_i)^2
 Soluzione: Utilizzo dell'algebra lineare per calcolare w\mathbf{w} e bb che
minimizzano il MSE.
4.2. Classificazione con Logistica
 Modello: f(x)=11+e−(wTx+b)f(x) = \frac{1}{1 + e^{-(w^T x + b)}} dove
f(x)f(x) rappresenta la probabilità di appartenenza a una classe.

 Funzione di perdita: Entropia incrociata: CE=−1N∑i=1N[yilog⁡(f(xi))


+(1−yi)log⁡(1−f(xi))]CE = - \frac{1}{N} \sum_{i=1}^N \left[ y_i \log(f(x_i)) + (1-
y_i) \log(1 - f(x_i)) \right]

5. Algoritmi Non Supervisionati


5.1. K-Means Clustering
 Obiettivo: Partizionare NN dati in KK cluster minimizzando la distanza dai
centroidi: J=∑i=1N∑k=1Krik∥xi−μk∥2J = \sum_{i=1}^N \sum_{k=1}^K r_{ik} \|
x_i - \mu_k \|^2 dove:
o μk\mu_k è il centroide del cluster kk.

o rikr_{ik} è 1 se xix_i appartiene al cluster kk, altrimenti è 0.

 Algoritmo iterativo:
1. Assegnare ogni punto al cluster più vicino.

2. Aggiornare i centroidi in base ai punti assegnati.

5.2. PCA (Analisi delle Componenti Principali)


 Scopo: Ridurre la dimensionalità dei dati massimizzando la varianza spiegata.
 Metodo:
1. Calcolare la matrice di covarianza.
2. Estrarre gli autovalori e gli autovettori.
3. Proiettare i dati lungo i primi kk autovettori principali.

6. Apprendimento per Rinforzo


 Problema formulato come un processo decisionale di Markov (MDP).
 Obiettivo: Massimizzare la ricompensa cumulativa RR: R=∑t=0∞γtrtR = \
sum_{t=0}^\infty \gamma^t r_t dove γ\gamma è il fattore di sconto e rtr_t la
ricompensa al tempo tt.
 Algoritmi comuni: Q-Learning, SARSA.
7. Discussione e Conclusione
Il successo degli algoritmi di ML dipende dall'integrazione di:
1. Matematica (ottimizzazione, statistica, algebra lineare).
2. Informatica (implementazione efficiente).
3. Dati (qualità e quantità dei dati disponibili).
Esercizio Pratico:
Implementare una regressione lineare utilizzando i metodi dei minimi quadrati e
verificare la qualità del modello su un set di dati sintetici.

Questo è il punto di partenza: successivamente approfondiremo tecniche più avanzate


e i loro usi specifici!

Potrebbero piacerti anche