Skip to content

Commit

Permalink
fix several typos
Browse files Browse the repository at this point in the history
  • Loading branch information
galeone committed Oct 29, 2019
1 parent a92a96d commit 9ea28f5
Show file tree
Hide file tree
Showing 2 changed files with 14 additions and 14 deletions.
20 changes: 10 additions & 10 deletions slides/01-what-is-ml.md
Original file line number Diff line number Diff line change
Expand Up @@ -240,7 +240,7 @@ Come visualizziamo 4 dimensioni sullo stesso grafico? E invece 784?

---

Per un dataset a bassa dimensionalità come l'Iris, possiamo ricorrdere ad una tecnica **manuale** di visualizzazione dei dati, che che ci permette di avere un'idea del dataset con il quale stiamo lavorando.
Per un dataset a bassa dimensionalità come l'Iris, possiamo ricorrere ad una tecnica **manuale** di visualizzazione dei dati, che che ci permette di avere un'idea del dataset con il quale stiamo lavorando.

Come prima cosa, assegniamo un colore distinto ad ogni diversa classe:

Expand Down Expand Up @@ -268,7 +268,7 @@ Quest'ultimo grafico, mostra che **esistono tre partizioni naturali (cluster)**

---

> L'obiettivo degli algoritmi di classificazione è di apprendere autonomamente quali sono le **feature** (caratteristiche, dimensioni) discriminative, così da **apprendere una funzione** in grado di classificare correttamente elementi apparteneti a classi differenti.
> L'obiettivo degli algoritmi di classificazione è di apprendere autonomamente quali sono le **features** (caratteristiche, dimensioni) discriminative, così da **apprendere una funzione** in grado di classificare correttamente elementi apparteneti a classi differenti.
---

Expand Down Expand Up @@ -305,7 +305,7 @@ $$ || p - q_i || = \left( \sum_{j=0}^{D-1}|p_{j}-q_{i,j}|^{p}\right)^\frac{1}{p}
---

- Quando k-NN è applicato a problemi di classificazione, il punto p viene classificato in base al voto dei suoi k vicini
- Quand k-NN è applicato a problemi di regressione, l'output dell'algoritmo è la media dei k-NN.
- Quando k-NN è applicato a problemi di regressione, l'output dell'algoritmo è la media dei k-NN.

---

Expand Down Expand Up @@ -460,7 +460,7 @@ $$ \frac{TP}{TF + FN} $$

#### Mean absolute error

MAE (errore medio assouto) è la media delle differenza assolute tra il valore (classe, o valore numerico) reale e quello predetto.
MAE (errore medio assouto) è la media delle differenze assolute tra il valore (classe, o valore numerico) reale e quello predetto.

È una metrica applicabile anche ai classificatori, ma usualmente viene usata per i **regressori**.

Expand Down Expand Up @@ -498,9 +498,9 @@ Questa relazione è, solitaente, anche l'obiettivo che vogliamo **minimizzare**

#### Loss function

La funzione che lega i dati osservati e quelli predetti, è detta **loss function** (funzione perdita).
La funzione che lega i dati osservati e quelli predetti, è detta **loss function** (funzione di perdita).

L'obiettivo di ogni algoritmo di machine learning espresso come algoritmo di ottimizzazione (come vedremo a breve) è quello di **minimizzare la perdita**.
L'obiettivo di ogni algoritmo di machine learning espresso come algoritmo di ottimizzazione (come vedremo a breve) è quello di **minimizzare la perdita di informazione**.

<br /> <br />

Expand Down Expand Up @@ -574,7 +574,7 @@ Spesso dimenticato, ma **di fondamentale importanza**, è il termine che permett

A differenza dei metodi tradizionali, le reti neurali sono estremamente **flessibili**.

Un singola rete neurale (input -> rete -> output) è in grado al massimo di trovare una singola ipersuperfificie, e quindi apprendere un solo decision boundary.
Un singola rete neurale (input -> rete -> output) è in grado al massimo di trovare una singola ipersuperficie, e quindi apprendere un solo decision boundary.

![single-layer](images/single-layer.png)

Expand All @@ -592,11 +592,11 @@ Apprendiamo, quindi **una funzione** che può essere vista come una generica **t

<br />

Apprendere trasofmrazioni da uno spazio all'altro e **molto potente** in quanto permette di **ridurre la complessità** dei problemi, trasferendoli da un dominio altamente dimensionale ad uno bassa dimensionalità.
Apprendere trasformazioni da uno spazio all'altro e **molto potente** in quanto permette di **ridurre la complessità** dei problemi, trasferendoli da un dominio altamente dimensionale ad uno bassa dimensionalità.

---

### Reti complementamente connesse
### Reti completamente connesse

![multi-layer](images/multi-layer.png)

Expand All @@ -606,7 +606,7 @@ $$ x = \begin{pmatrix}x_0\\ x_1 \\ \cdots \\ x_{D-1} \end{pmatrix} , W \in \math

<br />

L'output di un layer complemtamente connesso che **trasforma** un input **D-dimensionale** in un valore **M-dimensionale** è dato da:
L'output di un layer completamente connesso che **trasforma** un input **D-dimensionale** in un valore **M-dimensionale** è dato da:

<br />

Expand Down
8 changes: 4 additions & 4 deletions slides/02-cnn-cv.md
Original file line number Diff line number Diff line change
Expand Up @@ -86,7 +86,7 @@ Per poter capire perché è bene apprendere questi filtri, è prima necessario c
## L'operazione di convoluzione


In **teoria dei segnali** l'operazione di convoluzione è usata per studiare la rispotsa di un sistema fisico quando un determinato segnale è applicato al suo input.
In **teoria dei segnali** l'operazione di convoluzione è usata per studiare la risposta di un sistema fisico quando un determinato segnale è applicato al suo input.

Senza dilungarsi nella teoria, quel che è necessario sapere è che:

Expand All @@ -102,7 +102,7 @@ Senza dilungarsi nella teoria, quel che è necessario sapere è che:

### Convoluzione discreta

Dati due segnali discreti $g[n]$ e $x[n]$, l'operazione di covoluzione è calcolato come:
Dati due segnali discreti $g[n]$ e $x[n]$, l'operazione di convoluzione è calcolato come:

<br />

Expand Down Expand Up @@ -194,7 +194,7 @@ Allo stesso modo, i kernel convoluzionali possono essere volumi di filtri della

---

Data un immagine RGB, la convluzione con un kernel $3 \times 3$:
Data un immagine RGB, la convoluzione con un kernel $3 \times 3$:

1. La convoluzione di ogni canale per il rispettivo filtro a profindità 1

Expand Down Expand Up @@ -281,7 +281,7 @@ Il riutilizzo del feature extractor puù avvenire in due modi:

<br />

- **Transfer Learning**: il feature extractor viene scaricato (modello pre-trainato) e viene usato **solo** per estrarre le features e diventare l'input della **testa** di classificazione
- **Transfer Learning**: il feature extractor viene scaricato (modello pre-trained) e viene usato **solo** per estrarre le features e diventare l'input della **testa** di classificazione
- **Fine Tuning**: il feature extractor viene **rifinito** durante il processo di train, quindi non sarà solo l'input della **testa**, ma diventerà parte dell'architettura da **allenare**.

---
Expand Down

0 comments on commit 9ea28f5

Please sign in to comment.