Contenuto principale

dlqr

Regolatore lineare quadratico (LQ) di feedback dello stato per un sistema stato-spazio a tempo discreto

Descrizione

[K,S,P] = dlqr(A,B,Q,R,N) calcola la matrice di guadagno ottimale K, la soluzione S dell'equazione algebrica di Riccati associata e i poli a loop chiuso P utilizzando le matrici stato-spazio a tempo discreto A e B. Questa funzione è valida solo per i modelli a tempo discreto. Per i modelli a tempo continuo, utilizzare lqr.

Argomenti di input

comprimi tutto

Matrice di stato, specificata come matrice n x n, dove n è il numero degli stati.

Matrice input-stato, specificata come matrice input-stato n x m, dove m è il numero di input.

Matrice ponderata stato-costo, specificata come matrice n x n, dove n è il numero di stati. È possibile utilizzare la regola di Bryson per impostare i valori iniziali di Q dati da:

Qi,i=1maximum acceptable value of (errorstates)2, i{1,2,...,n}Q=[Q1,1000Q2,200000Qn,n]

In questo caso, n è il numero di stati.

Matrice ponderata input-costo, specificata come scalare o matrice della stessa grandezza di D'D. In questo caso, D è la matrice stato-spazio di alimentazione diretta. È possibile utilizzare la regola di Bryson per impostare i valori iniziali di R dati da:

Rj,j=1maximum acceptable value of (errorinputs)2, j{1,2,...,m}R=[R1,1000R2,200000Rm,m]

In questo caso, m è il numero di input.

Matrice opzionale dei termini incrociati, specificata come matrice. Se N non è specificato, lqr imposta N su 0 per impostazione predefinita.

Argomenti di output

comprimi tutto

Guadagno ottimale del sistema a loop chiuso, restituito come vettore riga di grandezza n, dove n è il numero degli stati.

Soluzione dell'equazione algebrica di Riccati associata, restituita come matrice n x n, dove n è il numero degli stati. In altre parole, S ha la stessa dimensione della matrice stato-spazio A. Per ulteriori informazioni, vedere idare.

Poli del sistema a loop chiuso, restituiti come vettore colonna di grandezza n, dove n è il numero degli stati.

Algoritmi

dlqr calcola la matrice di guadagno ottimale K in modo tale che la legge di feedback dello stato u[n]=Kx[n] minimizzi la funzione di costo quadratica

J(u)=n=1(x[n]TQx[n]+u[n]TRu[n]+2x[n]TNu[n])

per il modello stato-spazio a tempo discreto x[n+1]=Ax[n]+Bu[n].

Oltre al guadagno sul feedback dello stato K, dlqr restituisce la soluzione orizzontale infinita S dell'equazione di Riccati a tempo discreto

ATSAS(ATSB+N)(BTSB+R)1(BTSA+NT)+Q=0

e gli autovalori a loop chiuso P = eig(ABK). La matrice di guadagno K è derivata da S utilizzando

K=(BTSB+R)1(BTSA+NT)

In qualsiasi caso, quando si omette la matrice dei termini incrociati N, dlqr imposta N su 0.

Cronologia versioni

Introduzione prima di R2006a

Vedi anche

| | | |