Glossario delle reti neurali superficiali
- ADALINE
Acronimo per un neurone lineare: ADAptive LINear Element (elemento adattivo lineare).
- adattamento
Metodo di addestramento che procede attraverso la sequenza di input specificata, calcolando l’output, l’errore e la regolazione della rete per ogni vettore di input all’interno della sequenza mano a mano che gli input si presentano.
- filtro adattivo
Rete che contiene dei ritardi e i cui pesi vengono regolati dopo la presentazione di ogni nuovo vettore di input. La rete si adatta agli eventuali cambiamenti nelle proprietà del segnale di input. Questo tipo di filtro viene utilizzato nelle linee telefoniche a lunga distanza per eliminare l’eco.
- velocità di apprendimento adattivo
Velocità di apprendimento, che durante l’addestramento viene adeguata in base a un algoritmo per minimizzare il tempo di addestramento.
- architettura
Descrizione del numero dei livelli di una rete neurale, della funzione di trasferimento di ciascun livello, del numero di neuroni per livello e delle connessioni tra livelli.
- regola di apprendimento per retropropagazione
Regola di apprendimento in cui i pesi e i bias vengono regolati mediante la retropropagazione di vettori derivati da errore (delta) all’interno della rete. La retropropagazione viene comunemente applicata alle reti con flusso in avanti (feed-forward) multilivello. Questa regola viene talvolta denominata regola delta generalizzata.
- ricerca backtracking
Routine di ricerca lineare che inizia con un moltiplicatore di fase di 1 e procede a ritroso fino ad ottenere una riduzione accettabile nella performance.
- batch
Matrice di vettori di input (o target) che vengono applicati alla rete contemporaneamente. Le modifiche ai pesi e ai bias della rete si apportano una sola volta per l’intera serie di vettori appartenenti alla matrice di input. (Si sta sostituendo il termine batch con l’espressione più descrittiva “vettori concorrenti”).
- batching
Processo di presentazione di un insieme di vettori di input per il calcolo simultaneo di una matrice di vettori di output e/o di nuovi pesi e bias.
- Contesto bayesiano
Presuppone che i pesi e i bias della rete siano variabili casuali con distribuzioni specificate.
- Algoritmo BFGS quasi Newton
Variazione dell’algoritmo di ottimizzazione di Newton, in cui si ottiene un’approssimazione della matrice hessiana dai gradienti calcolati ad ogni iterazione dell’algoritmo.
- bias
Parametro neurale che viene sommato agli input ponderati del neurone e passato attraverso la funzione di trasferimento del neurone per generare l’output del neurone.
- vettore bias
Vettore di colonna dei valori di bias per un livello di neuroni.
- Metodo di Brent
Ricerca lineare che rappresenta un ibrido tra la ricerca della sezione aurea e un’interpolazione quadratica.
- rete cascade-forward
Rete stratificata in cui ogni livello riceve solo gli input dai livelli precedenti.
- Ricerca di Charalambous
Ricerca lineare ibrida che utilizza una interpolazione cubica associata a un tipo di sezionamento.
- classificazione
Associazione di un vettore di input con un particolare vettore target.
- livello competitivo
Livello di neuroni in cui solo il neurone con il massimo input netto ha un output di 1 e tutti gli altri neuroni hanno un output 0. I neuroni competono tra loro per il diritto di rispondere a un determinato vettore di input.
- apprendimento competitivo
Addestramento non supervisionato di un livello competitivo con regola instar o regola di Kohonen. I singoli neuroni imparano a diventare rilevatori di caratteristiche (feature detector). Dopo l’addestramento, il livello classifica i vettori di input tra i suoi neuroni.
- funzione di trasferimento competitivo
Accetta un vettore di input netto per un livello e restituisce gli output neurali 0 per tutti i neuroni tranne il vincitore, ovvero il neurone associato all’elemento più positivo dell’input netto n.
- vettori di output concorrenti
Nome assegnato a una matrice di vettori di input che sono presentati simultaneamente a una rete. Tutti i vettori della matrice vengono utilizzati per apportare un unico insieme di modifiche ai pesi e ai bias.
- algoritmo a gradiente coniugato
Negli algoritmi a gradiente coniugato si esegue una ricerca lungo le direzioni coniugate, che generalmente produce una convergenza più veloce rispetto alla ricerca lungo le direzioni di discesa più ripide.
- connessione
Collegamento unidirezionale tra i neuroni all’interno di una rete.
- forza di connessione
Forza del collegamento tra due neuroni all’interno di una rete. La forza, spesso denominata peso, determina l’effetto che un neurone esercita su un altro.
- ciclo
Presentazione singola di un vettore di input, calcolo dell’output e dei nuovi pesi e bias.
- neurone morto
Neurone di livello competitivo che non ha mai vinto una competizione durante l’addestramento e pertanto non è diventato un rilevatore di feature utile. I neuroni morti non rispondono a nessun vettore di addestramento.
- limite decisionale
Linea, determinata dai vettori di peso e di bias, per cui l’input netto n è zero.
- regola delta
Vedi regola di apprendimento di Widrow-Hoff.
- vettore delta
Il vettore delta per un livello è la derivata di un errore di output della rete rispetto al vettore di input netto di quel livello.
- distanza
Distanza tra neuroni, calcolata a partire dalla loro posizione tramite una funzione distanza.
- funzione distanza
Modo particolare di calcolare la distanza, ad esempio la distanza euclidea tra due vettori.
- arresto anticipato
Tecnica basata sulla suddivisione dei dati in tre sottoinsiemi. Il primo sottoinsieme è il set di addestramento, utilizzato per calcolare il gradiente e per aggiornare i pesi e i bias della rete. Il secondo sottoinsieme è il set di convalida. Quando l’errore di convalida aumenta per un numero specificato di iterazioni, l’addestramento si interrompe e vengono ripristinati i pesi e i bias al minimo dell’errore di convalida. Il terzo sottoinsieme è il set di test. Si utilizza per verificare la progettazione della rete.
- epoca
Presentazione dei set dei vettori di addestramento (di input e/o target) a una rete e calcolo dei nuovi pesi e bias. I vettori di addestramento possono essere presentati singolarmente o tutti insieme come batch.
- salto di errore
Aumento improvviso nell’errore di somma al quadrato durante l’addestramento. Spesso è dovuto a una velocità di apprendimento eccessiva.
- tasso di errore
Parametro di addestramento utilizzato con la velocità di apprendimento adattivo e l’addestramento con Momentum delle reti con retropropagazione.
- vettore di errore
Differenza tra il vettore di output di una rete in risposta a un vettore di output e un vettore di output target associato.
- rete di feedback
Rete con connessioni dall’output di un livello all’input di quello stesso livello. La connessione di feedback può essere diretta o passare attraverso vari livelli.
- rete feed-forward
Rete stratificata in cui ogni livello riceve solo gli input dai livelli precedenti.
- Aggiornamento di Fletcher-Reeves
Metodo per il calcolo di un set di direzioni coniugate. Tali direzioni vengono utilizzate come direzioni di ricerca nell’ambito di una procedura di ottimizzazione a gradiente coniugato.
- approssimazione di una funzione
Attività svolta da una rete addestrata a rispondere agli input con un’approssimazione di una funzione desiderata.
- generalizzazione
Attributo di una rete il cui output per un nuovo vettore di input tende ad essere vicino agli output dei vettori di input analoghi all’interno del suo set di addestramento.
- rete di regressione generalizzata
Approssimazione di una funzione continua ad una precisione arbitraria, dato un numero sufficientemente grande di neuroni nascosti.
- minimo globale
Valore minimo di una funzione lungo l’intero range dei suoi parametri di input. I metodi di discesa del gradiente regolano i pesi e i bias per individuare il minimo globale dell’errore per una rete.
- ricerca della sezione aurea
Ricerca lineare che non richiede il calcolo della pendenza. L’intervallo contenente il minimo della performance si suddivide ad ogni iterazione della ricerca, e ad ogni iterazione viene eliminata una suddivisione.
- discesa del gradiente
Processo di apportazione di modifiche ai pesi e ai bias, in cui le modifiche sono proporzionali alle derivate dell’errore di rete rispetto ai suddetti pesi e bias. Lo scopo della procedura è minimizzare l’errore di rete.
- funzione di trasferimento hard-limit
Funzione di trasferimento che mappa gli input uguali o maggiori di 0 a 1, e tutti gli altri valori a 0.
- Regola di apprendimento di Hebb
Storicamente è stata la prima regola di apprendimento proposta per i neuroni. I pesi vengono regolati in proporzione al prodotto degli output dei neuroni prima e dopo l’applicazione dei pesi.
- livello nascosto
Livello di una rete che non è collegato all’output della rete (ad esempio, il primo livello di una rete feed-forward a due livelli).
- neurone home
Neurone al centro di un neighborhood.
- ricerca ibrida di bisezione-cubica
Ricerca lineare che combina il metodo di bisezione e l’interpolazione cubica.
- inizializzazione
Processo di impostazione dei pesi e dei bias di una rete ai rispettivi valori originali.
- livello di input
Livello di neuroni che ricevono gli input direttamente dall’esterno della rete.
- spazio di input
Range di tutti i vettori di input possibili.
- vettore di input
Vettore presentato alla rete.
- vettore di peso di input
Vettore di riga dei pesi diretti verso un neurone.
- pesi di input
I pesi che collegano gli input della rete ai livelli.
- Matrice Jacobiana
Contiene le prime derivate degli errori di rete rispetto ai pesi e ai bias.
- Regola di apprendimento di Kohonen
Regola di apprendimento che addestra i vettori di peso di un neurone selezionato ad assumere i valori del vettore di input corrente.
- livello
Gruppo di neuroni che sono collegati agli stessi input e che inviano gli output alle stesse destinazioni.
- diagramma livelli
Figura dell’architettura di rete che mostra i livelli e le matrici di peso che li collegano. La funzione di trasferimento di ciascun livello è indicata da un simbolo. Sono inoltre riportate le dimensioni delle matrici di input, output, bias e peso. Non sono invece rappresentati i singoli neuroni e le singole connessioni.
- pesi di livello
I pesi che collegano i livelli ad altri livelli. Questi pesi devono avere ritardi non zero se formano una connessione ricorrente (ovvero un loop).
- apprendimento
Processo mediante il quale i pesi e i bias vengono regolati per ottenere un determinato comportamento di rete.
- velocità di apprendimento
Parametro di addestramento che controlla le dimensioni delle variazioni dei pesi e dei bias durante l’apprendimento.
- regola di apprendimento
Metodo di derivazione delle prossime modifiche che potrebbero essere apportate all’interno di una rete o procedura per modificare i pesi e i bias di una rete.
- Levenberg-Marquardt
Algoritmo che addestra una rete neurale da 10 a 100 volte più velocemente rispetto al consueto metodo a discesa del gradiente con retropropagazione. Calcola sempre la matrice hessiana approssimata, che ha le dimensioni n x n.
- funzione di ricerca lineare
Procedura di ricerca lungo una determinata direzione di ricerca (linea) per individuare il minimo della performance della rete.
- funzione di trasferimento lineare
Funzione di trasferimento che produce i propri input come i propri output.
- distanza di collegamento
Numero di collegamenti, o fasi, da compiere per arrivare al neurone desiderato.
- minimo locale
Minimo di una funzione all’interno di un range limitato di valori di input. Un minimo locale potrebbe non coincidere con il minimo globale.
- funzione di trasferimento a sigmoide logaritmica
Funzione di schiacciamento della forma rappresentata sotto che mappa l’input all’intervallo (0,1). (La funzione toolbox è
logsig).- Distanza di Manhattan
La distanza di Manhattan tra i due vettori x e y si calcola come
D = sum(abs(x-y))
- aumento massimo della performance
Aumento massimo consentito per la performance in un’unica iterazione dell’algoritmo di addestramento con velocità di apprendimento variabile.
- dimensioni massime di fase
Dimensioni massime di fase consentite durante una ricerca lineare. La grandezza del vettore di peso non può aumentare più delle sue dimensioni massime di fase in un’unica iterazione di un algoritmo di addestramento.
- funzione di errore quadratico medio
Funzione di performance che calcola l’errore quadratico medio tra gli output di rete a e gli output target t.
- momento
Tecnica spesso utilizzata per limitare le probabilità che una rete con retropropagazione rimanga intrappolata in un minimo superficiale.
- costante di momento
Parametro di addestramento che controlla quanto momento viene utilizzato.
- parametro mu
Valore iniziale per il µ scalare.
- neighborhood
Gruppo di neuroni che si trova entro una distanza specificata da un neurone particolare. Il neighborhood è specificato dagli indici di tutti i neuroni che si trovano all’interno di un raggio d dal neurone vincente i
*:Ni(d) = {j,dij ≤ d}
- vettore di input netto
Combinazione, all’interno di un livello, di tutti i vettori di input ponderati del livello con il relativo bias.
- neurone
Elemento di elaborazione di base di una rete neurale. Comprende pesi e bias, una giunzione sommatoria e una funzione di trasferimento di output. I neuroni artificiali, come quelli simulati e addestrati con questo toolbox, sono astrazioni di neuroni biologici.
- diagramma neuronale
Figura dell’architettura di rete che mostra i neuroni e i pesi che li collegano. La funzione di trasferimento di ciascun neurone è indicata da un simbolo.
- fase di ordinamento
Periodo di addestramento durante il quale i pesi dei neuroni devono ordinarsi all’interno dello spazio di input in modo coerente rispetto alle posizioni dei neuroni a cui sono associati.
- livello di output
Livello il cui output viene passato al mondo esterno alla rete.
- vettore di output
Output di una rete neurale. Ogni elemento del vettore di output è l’output di un neurone.
- vettore di peso di output
Vettore di colonna dei pesi provenienti da un neurone o da un input. (Vedi anche regola di apprendimento outstar).
- regola di apprendimento outstar
Regola di apprendimento che addestra il vettore di peso di output (o di input) di un neurone ad assumere i valori del vettore di output corrente del livello dopo l’applicazione del peso. Le variazioni nei pesi sono proporzionali all’output del neurone.
- overfitting
Caso in cui l’errore del set di addestramento è condotto ad un valore molto piccolo, ma diventa grande quando vengono presentati nuovi dati alla rete.
- passaggio
Ogni traversa che passa per tutti i vettori di input e target di addestramento.
- pattern
Un vettore.
- associazione di pattern
Attività svolta da una rete addestrata a rispondere con il vettore di output corretto per ciascun vettore di input presentato.
- pattern recognition
Attività svolta da una rete addestrata a rispondere quando viene presentato un vettore di input vicino a un vettore appreso. La rete “riconosce” l’input come uno dei vettori target originali.
- perceptron
Rete a livello singolo con una funzione di trasferimento hard-limit. Questa rete viene spesso addestrata con la regola di apprendimento Perceptron.
- regola di apprendimento perceptron
Regola di apprendimento per addestrare reti a livello singolo con funzione di trasferimento hard-limit. Garantisce come risultato una rete perfettamente funzionante in un periodo di tempo finito, dato che la rete è in grado di farlo.
- performance
Comportamento di una rete.
- funzione di performance
Comunemente, l’errore quadratico medio degli output della rete. Tuttavia, il toolbox tiene in considerazione anche altre funzioni di performance. Digitare
help nnperformanceper un elenco delle funzioni di performance.- Aggiornamento di Polak-Ribiére
Metodo per il calcolo di un set di direzioni coniugate. Tali direzioni vengono utilizzate come direzioni di ricerca nell’ambito di una procedura di ottimizzazione a gradiente coniugato.
- funzione di trasferimento lineare positiva
Funzione di trasferimento che produce un output zero per input negativi e un output uguale all’input per gli input positivi.
- post-elaborazione
Ritrasforma gli output normalizzati nelle stesse unità che sono state utilizzate per i target originali.
- Powell-Beale restarts
Metodo per il calcolo di un set di direzioni coniugate. Tali direzioni vengono utilizzate come direzioni di ricerca nell’ambito di una procedura di ottimizzazione a gradiente coniugato. Inoltre, questa procedura ripristina periodicamente la direzione di ricerca al negativo del gradiente.
- pre-elaborazione
Trasformazione dei dati di input o target prima della loro presentazione alla rete neurale.
- analisi dei componenti principali
Ortogonalizzazione dei componenti dei vettori di input della rete. Questa procedura è anche in grado di ridurre le dimensioni dei vettori di input eliminando i componenti ridondanti.
- Algoritmo quasi Newton
Classe di algoritmo di ottimizzazione basato sul metodo di Newton. Una matrice hessiana approssimata viene calcolata ad ogni iterazione dell’algoritmo sulla base dei gradienti.
- reti a base radiale
Rete neurale che può essere progettata direttamente inserendo speciali elementi di risposta nei punti in cui daranno i migliori risultati.
- funzione di trasferimento a base radiale
La funzione di trasferimento per un neurone a base radiale è
- regolarizzazione
Modifica della funzione di performance, che normalmente si decide di far coincidere con la somma dei quadrati degli errori di rete nel set di addestramento, tramite la somma di una frazione dei quadrati dei pesi della rete.
- retropropagazione resiliente
Algoritmo di addestramento che elimina l’effetto dannoso di avere una pendenza ridotta alle estremità delle funzioni di trasferimento con schiacciamento sigmoidali.
- funzione di trasferimento lineare saturante
Funzione che è lineare nell’intervallo (-1,+1) e che satura al di fuori di questo intervallo a -1 o +1. (La funzione toolbox è
satlin).- algoritmo a gradiente coniugato scalato
Evita la lunga ricerca lineare dell’algoritmo a gradiente coniugato standard.
- vettori di input sequenziali
Insieme di vettori che devono essere presentati a una rete in sequenza, uno dopo l’altro. I pesi e i bias della rete vengono regolati alla presentazione di ciascun vettore di input.
- parametro sigma
Determina la variazione nel peso per il calcolo della matrice hessiana approssimata nell’algoritmo a gradiente coniugato scalato.
- sigmoide
Funzione monotona a forma di S che mappa i numeri nell’intervallo (-∞,∞) ad un intervallo finito, ad esempio (-1,+1) o (0,1).
- simulazione
Prende l’input di rete p e l’oggetto di rete
nete restituisce gli output della rete a.- costante distribuita
Distanza alla quale deve trovarsi un vettore di input dal vettore di peso di un neurone per produrre un output di 0,5.
- funzione di schiacciamento
Funzione monotona crescente che prende i valori di input tra -∞ e +∞ e restituisce valori in un intervallo finito.
- regola di apprendimento star
Regola di apprendimento che addestra il vettore di peso di un neurone ad assumere i valori del vettore di input corrente. Le variazioni nei pesi sono proporzionali all’output del neurone.
- errore di somma al quadrato
Somma delle differenze al quadrato tra i target della rete e gli output effettivi per un determinato vettore di input o insieme di vettori.
- apprendimento supervisionato
Processo di apprendimento in cui le modifiche nei pesi e bias di una rete sono dovute all’intervento di un insegnante esterno. Generalmente, l’insegnante fornisce i target degli output.
- funzione di trasferimento hard-limit simmetrica
Trasferimento che mappa gli input maggiori o uguali a 0 a +1 e tutti gli altri valori a -1.
- funzione di trasferimento lineare saturante simmetrica
Produce l’input come il proprio output a condizione che l’input sia entro il range da -1 a 1. Al di fuori di questo range l’output è rispettivamente -1 e +1.
- funzione di trasferimento tan-sigmoidale
Funzione di schiacciamento della forma rappresentata sotto che mappa l’input nell’intervallo (-1,1). (La funzione toolbox è
tansig).- tapped delay line
Insieme sequenziale di ritardi con output disponibili ad ogni output di ritardo.
- vettore target
Vettore di output desiderato per un determinato vettore di input.
- vettori di test
Insieme di vettori di input (non utilizzati direttamente nell’addestramento) che si utilizzano per testare la rete addestrata.
- funzioni di topologia
Modalità di disposizione dei neuroni all’interno di una topologia a griglia, a scatola, esagonale o casuale.
- addestramento
Procedura mediante la quale una rete viene regolata per eseguire un compito particolare. Comunemente considerato un compito offline, a differenza di una regolazione effettuata durante ogni intervallo di tempo, in quanto avviene in un addestramento adattivo.
- vettore di addestramento
Vettore di input e/o target utilizzato per addestrare una rete.
- funzione di trasferimento
Funzione che mappa l’output netto n di un neurone (o di un livello) al suo output effettivo.
- fase di sincronizzazione
Periodo dell’addestramento SOFM durante il quale si prevede che i pesi si distribuiscano in modo relativamente uniforme sullo spazio di input pur mantenendo l’ordine topologico che hanno trovato durante la fase di ordinamento.
- sistema sottodeterminato
Sistema che ha più variabili che vincoli.
- apprendimento senza supervisione
Processo di apprendimento in cui le modifiche nei pesi e bias di una rete non sono dovute all’intervento di un insegnante esterno. Generalmente le modifiche sono una funzione degli attuali vettori di input della rete, dei vettori di output, nonché dei pesi e bias precedenti.
- aggiornamento
Apportazione di una modifica nei pesi e nei bias. L’aggiornamento può avvenire dopo la presentazione di un singolo vettore di input o dopo che si siano accumulate le modifiche su svariati vettori di input.
- vettori di convalida
Insieme di vettori di input (non utilizzati direttamente nell’addestramento) che si utilizzano per monitorare i progressi dell’addestramento così da preservare la rete dall’overfitting.
- funzione ponderale
Le funzioni ponderali applicano i pesi a un input per ottenere input ponderati secondo quanto specificato da una funzione particolare.
- matrice ponderale
Matrice contenente le forze di connessione dagli input di un livello ai suoi neuroni. L’elemento
wi,j di una matrice ponderaleWsi riferisce alla forza di connessione dall’inputjal neuronei.- vettore di input ponderato
Risultato dell’applicazione di un peso ad un input del livello, sia che si tratti di un input della rete che dell’output di un altro livello.
- Regola di apprendimento di Widrow-Hoff
Regola di apprendimento utilizzata per addestrare reti lineari ad un solo livello. Questa regola è il predecessore della regola di retropropagazione e viene talvolta denominata regola delta.