%% Nome del file: \newcommand {\Cartellalatex} {/home/esg/Latex} \input{\Cartellalatex/input.tex} \setcounter{Contcap}{9} \setcounter{Contprop}{1} \begin{document}\Century{1100} \setlength {\parindent} {1em} \Capitolo {9. Formule che utilizzano serie ipergeometriche} \Situazione { $A \in \CC_n^n$. Quando non indicato diversamente, $\lambda, \mu \in \CC$ e $t \in \RR$.} \Proposizione { Sia $(A - \lambda \delta)^m=0$ per qualche $m \geq 1$. Allora \m $e^{tA}=\displaystyle e^{\lambda t} \sum_{k=0}^{m-1} \frac{t^k}{k!} (A - \lambda \delta)^k $ } \Dimostrazione { Ricordando che $(A - \lambda \delta)^m=0$ e quindi $(A - \lambda \delta)^k=0$ per ogni $k \geq m$, si ha che:\m $e^{At} = e^{t \lambda \delta} e^{t(A- \lambda \delta)} = \displaystyle e^{\lambda t} \sum_{k=0}^{\infty} \frac{t^k}{k!} (A - \lambda \delta)^k = e^{\lambda t} \sum_{k=0}^{m-1} \frac{t^k}{k!} (A - \lambda \delta)^k$ \NI Questa formula, che generalizza la proposizione 8.5, segue direttamente dallo sviluppo in serie di potenze dell'esponenziale. Infatti, siccome le matrici $t \lambda \delta$ e $t(A - \lambda \delta)$ commutano, dal teorema 6.6 (2) otteniamo l'enunciato. } \Corollario { Gli autovalori di $A$ siano tutti uguali a $\lambda$. Allora\m $e^{tA} =\displaystyle e^{\lambda t} \sum_{k=0}^{n-1} \frac{t^k}{k!} (A- \lambda \delta)^k$} \Esempio { Sia $A= \Matrice{ 3 & 5 & 2 \\ 2 & 9 & 3 \\ -5 & -19 & -6}$. Allora $ (A- 2 \delta )^3 = 0$ e dalla proposizione 9.2 abbiamo\m $\begin{aligned} (A - 2 \delta)^3 &=\Matrice{ 1 & 5 & 2 \\ 2 & 7 & 3 \\ -5 & -19 & -8 } \Matrice{ 1 & 5 & 2 \\ 2 & 7 & 3 \\ -5 & -19 & -8 } \Matrice{ 1 & 5 & 2 \\ 2 & 7 & 3 \\ -5 & -19 & -8 }\\ &= \Matrice{ 1 & 2 & 1 \\ 1 & 2 & 1 \\ -3 & -6 & -3 } = \Matrice{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 } \end{aligned}$ \NI Dalla proposizione 9.2 abbiamo quindi\m $\begin{aligned} e^{tA} &= e^{2 t} ( \delta + t(A - 2 \delta) + \frac{t^2}{2} (A - 2 \delta)^2) \\ &= e^{2t} \Matriceq { \Matrice{ 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1} + t \Matrice{ 1 & 5 & 2 \\ 2 & 7 & 3 \\ -5 & -19 & -8 } + \Frac{t^2}{2} \Matrice { 1 & 2 & 1 \\ 1 & 2 & 1 \\ -3 & -6 & -3} } \\[1ex] &= e^{2t} \Matrice { 1 + t + \frac{t^2}{2} & 5t + t^2 & 2t + \frac{t^2}{2} \\[1ex] 2t + \frac{t^2}{2} & 1+7t+t^2 & 3t + \frac{t^2}{2} \\[1ex] -5t - \frac{3 t^2}{2} & -19t -3 t^2 & 1 - 8t- \frac{3 t^2}{2} } \end{aligned}$ } \Esempio { Sia $A= \Matrice{ \lambda & b & c \\ 0 & \lambda & f \\ 0 & 0 & \lambda}$. Allora \m $(A - \lambda \delta) = \Matrice{ 0 & b & c \\ 0 & 0 & f \\ 0 & 0 & 0}$, \quad $(A - \lambda \delta)^2 = \Matrice { 0 & 0 & bf \\ 0 & 0 & 0 \\ 0 & 0 & 0}$ \NI e\m $(A - \lambda \delta)^3 = \Matrice{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0} = 0$ \NI per cui dalla proposizione 9.2 abbiamo \m $\begin{aligned} e^{tA} &= e^{\lambda t} \Matriceq{ \Matrice{1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1} + t \Matrice { 0 & b & c \\ 0 & 0 & f \\ 0 & 0 & 0} + \Frac{t^2}{2} \Matrice{ 0 & 0 & bf \\ 0 & 0 & 0 \\ 0 & 0 & 0 } } \\ &= e^{\lambda t} \Matrice{ 1 & tb & tc+ \frac{t^2}{2} bf \\[1 ex] 0 & 1 & tf \\[1 ex] 0 & 0 & 1}. \end{aligned}$} \Definizione { I numeri complessi $ \lambda_1, ..., \lambda_n$ siano tutti distinti. Definiamo allora\m $L_k := \Frac{(x-\lambda_1) \dots \widehat{(x-\lambda_k)} \ldots (x -\lambda_n)}{(\lambda_k - \lambda_1) \ldots \widehat{(\lambda_k - \lambda_k)} \ldots (\lambda_k - \lambda_n)}$ \NI per $k = 1, ... ,n$ (nel caso banale $n=1$ abbiamo solo $L_1=1$). Il simbolo \, $\widehat{}$ \, indica che un termine deve essere tralasciato. I polinomi $L_k$ si chiamano \C{polinomi di Lagrange} determinati dai punti d'ascissa (talvolta detti nodi) $\lambda_1, ... , \lambda_n$. Ogni polinomio $L_k$ \eacc di grado $n-1$ e sostituendo $x$ con $\lambda_j$ vediamo che\m $L_k(\lambda_j)= \begin{cases} 1 & \quad\text{per } j = k \\ 0 & \quad\text{per } j \neq k \end{cases}$ } \Osservazione { Nella situazione della definizione 9.6 siano dati numeri complessi $y_1, ... , y_n$. Allora esiste un unico polinomio $f \in \CC[x]$ di grado $\leq n-1$ che nei nodi $\lambda_k$ assume i valori $y_k$. Si ha $f= \displaystyle \sum_{j=1}^{n} y_j L_j$.} \Dimostrazione{$\displaystyle \sum_{j=1}^n y_j L_j(\lambda_k)= \sum_{j=1}^n y_j \delta_k^j = y_k$. L'unicit\aacc segue dall'ipotesi che i $\lambda_k$ siano tutti distinti.} \Lemma { Nella situazione della definizione 9.6 si ha\\ $L_1 + \ldots + L_n = 1$.} \Dimostrazione{Se nell'osservazione 9.7 poniamo $y_k = 1$ per ogni $k$, vediamo che $L_1 + \ldots + L_k$ \eacc l'unico polinomio di grado $\leq n-1$ che nei nodi $\lambda_k$ assume il valore 1. Ma questo polinomio \eacc il polinomio costante~1.} \Lemma {Gli autovalori $\lambda_1, \ldots , \lambda_n$ di $A$ siano tutti distinti. Formiamo i polinomi di Lagrange $L_k$ come nella definizione 9.6. Allora $AL_k(A)=\lambda L_k(A)$ per $k=1, ... ,n$.} \Dimostrazione{Per il teorema di Cayley Hamilton (teorema 7.22) e il lemma 7.2 abbiamo $(A - \lambda_1 \delta) \cdots (A - \lambda_n \delta)=0$. Ancora per il lemma 7.2 si ha\m $(A - \lambda_k \delta) L_k(A) = \Frac{ (A- \lambda_k \delta) (A - \lambda_1 \delta) \cdots \widehat{(A - \lambda_k \delta)} \cdots (A - \lambda_n \delta)}{(\lambda_1 - \lambda_k)\cdots \widehat{(\lambda_k - \lambda_k)} \cdots (\lambda_k - \lambda_n)} = 0$ \NI e quindi \quad $AL_k(A) = \lambda L_k(A)$. } \Proposizione { Gli autovalori $\lambda_1, \ldots , \lambda_n$ della matrice $A$ siano tutti distinti. Formiamo i polinomi di Lagrange $L_k$ come nella definizione 9.6. Allora \m $e^{tA} = \displaystyle \sum_{k=1}^{n} e^{\lambda_k t} L_k(A)$} \Dimostrazione {Sia $X : = \displaystyle \sum_{k=1}^n e^{\lambda_k t} L_k (A)$. Verifichiamo che $X(0)= \delta$ e che $X$ soddisfa l'equazione differenziale $\dot{X} = AX$. \lista{ \item[1] $X(0) = \displaystyle \sum_{k=1}^{n} L_k (A) = \delta$. Qui abbiamo usato di nuovo il lemma 7.2: Sia $f= L_1 + \dots + L_n$. Dal lemma 9.8 sappiamo che $f=1$; per il lemma 7.2 abbiamo perci\acc{o} $\displaystyle \sum_{k=1}^n L_k (A) = f(A) = \delta$.\\ \item[2] $\dot{X} = \displaystyle \sum_{k=1}^n \lambda_k e^{\lambda_k t} L_k(A)$ \quad ,\m $AX= \displaystyle \sum_{k=1}^n e^{\lambda_k t} A L_k(A) \stackrel{9.9}{=} \sum_{k=1}^{n} \lambda_k e^{\lambda_k t} L_k(A)= \dot{X}$.}} \Definizione{Per $z \in \CC$ ed $n \in \NN$ definiamo la \C{potenza crescente}\m $z^{[n]} := \begin{cases} z (z+1)\cdots(z+n-1) &\quad\text {per } n \geq 1\\ \quad 1 &\quad\text{per } n=0 \end{cases}$ \NI $z^{[n]}$ si chiama spesso anche il \C{fattoriale superiore}. Si noti che $z^{[n]} \neq 0$ per ogni $n$, se $-z \not \in \NN$.} \Definizione{Per $\alpha_1, \ldots, \alpha_s, \beta_1, \ldots, \beta_t \in \CC$ con $- \beta_j \not \in \NN$ per ogni $j$ definiamo la \C{serie ipergeometrica} \m $\displaystyle F \Matrice{ \alpha_1 \ldots \alpha_s \\ \beta_1 \ldots \beta_t } := \sum_{n=0}^{\infty} \Frac{ \alpha_1^{[n]} \cdots \alpha_s^{[n]} }{\beta_1^{[n]} \cdots \beta_t^{[n]}} \in \CC[[x]]$ \NI Posizioni vuote possono essere indicate con $\Box$, ad esempio\m $\displaystyle F\Matrice{ \alpha & \Box \\ \beta & 1}= \sum_{n=0}^{\infty} \Frac{ \alpha^{[n]}}{\beta^{[n]} 1^{[n]}}, \quad F \Matrice{ \Box \ldots \Box \\ \beta_1 \ldots \beta_t} = \sum_{n=0}^{\infty} \Frac{1}{\beta_1^{[n]} \cdots \beta_t^{[n]}}$.\m \NI Per le propriet\aacc combinatorie delle serie ipergeometriche rimandiamo a Graham/Knuth/Patashnik e Petkov\v{s}ek/Wilf/Zeilberger, per le propriet\acc{a} analitiche a Whittaker/Watson e Andrews/Askey/Roy. Tralasciamo nel seguito considerazioni di convergenza, quasi sem\-pre evidenti.} \Nota { Siano $\alpha_1, \ldots, \alpha_s, \beta_1, \ldots, \beta_t \in \CC$ con $- \beta_j \not \in \NN$ per ogni $j$. Allora i cofficienti $a_k := \Frac { \alpha_1^{[k]} \cdots \alpha_s^{[k]}}{\beta_1^{[k]} \cdots \beta_t^{[k]}}$ di $x^k$ nella serie $F \Matrice{ \alpha_1 \ldots \alpha_s \\ \beta_1 \ldots \beta_t}$ soddisfano le seguenti relazioni:\m $\begin{aligned} a_0 &=1,\\ \Frac{a_{k+1}}{a_k} &= \Frac{(k+\alpha_1) \cdots (k+ \alpha_s)}{(k+ \beta_1) \cdots (k+\beta_t)} \end{aligned}$\m \NI per ogni $k \in \NN$. Se \eacc viceversa data una serie formale $\displaystyle \sum_{k=0}^{\infty} a_k x^k$ i cui coefficienti soddisfano queste relazioni, essa coincide con $F \Matrice{ \alpha_1 \ldots \alpha_s \\ \beta_1 \ldots \beta_t}$.} \Dimostrazione { Corso di Laboratorio di programmazione 2006/07.} \Proposizione { Nelle ipotesi della definizione 9.12 sia $\gamma \in \CC$ con $-\gamma \not \in \NN$. Allora\m $F \Matrice { \alpha_1 \ldots \alpha_s \gamma \\ \beta_1 \ldots \beta_t \gamma} = F \Matrice { \alpha_1 \ldots \alpha_s \\ \beta_1 \ldots \beta_t}$. } \Lemma { $V$ sia uno spazio vettoriale su $\CC$ e $a_1, \ldots, a_r \in \CC$. Assumiamo che $a_r \neq 0$. Consideriamo un'equazione alle differenze\m $v_{k+r} + a_1 v_{k+r-1} + \ldots + a_r v_k = 0$ \quad $(*)$\m \NI in cui si cercano i valori $v_k \in V$ per $k \geq r$, mentre i valori iniziali $v_0, \ldots, v_{r-1}$ siano dati. Sia\m $x^r + a_1 x^{r-1} + \ldots + a_r = (x- \alpha_1)^{m_1} \cdots (x - \alpha_s)^{m_s}$\m \NI con $\alpha_i \neq \alpha_j$ per $i \neq j$. Allora l'equazione $(*)$ possiede la soluzione\m $\begin{aligned} v_k = (X&_{10} + k X_{11} + \ldots + k^{m_1 - 1} X_{1, m_1 - 1}) \alpha_1^k\\ &+ \ldots + (X_{s0} + k X_{s1} + \ldots + k^{m_s - 1} X_{s, m_s - 1}) \alpha_s^k \end{aligned}$ \NI con i coefficienti $X_{ij} \in V$ univocamente determinati dalle condizioni iniziali. Si noti che l'ipotesi $a_r \neq 0$ implica $\alpha_i \neq 0$ per ogni $i$.} \Dimostrazione { Elaydi, pag. 77, Huppert, pagg. 284-288, Meschkowski, pagg. 14-15.} \Osservazione {La condizione $a_r \neq 0$ nel lemma 9.15 non \acc{e} essenziale nella risoluzione di un'equazione alle differenze. Consideriamo ad esempio un'equazione della forma $v_{k+2} + a_1 v_{k+1} = 0$. Allora il valore iniziale $v_0$ non influisce sul proseguimento della successione, e ponendo $w_k := v_{k+1}$ l'equazione si riduce a\m $w_{k+1} + a_1 w_k =0$\m \NI con $w_0 = v_1$. Bisogna per\oacc controllare la condizione $a_r \neq 0$ prima di applicare la formula del lemma 9.15.} \Definizione{ Siano $m, j \in \NN$. Allora definiamo la serie formale\m $e_{jm} := \displaystyle \sum_{k=0}^{\infty} \Frac{m!}{(k+m)!} k^j x^k$} \Osservazione{ \lista{ \item[1] $e_{00} = e^x$. \item[2] $\displaystyle e_{0m} = \Frac{m!}{x^m} \Tonde{ e^x - \sum_{k=0}^{m-1} \Frac{x^k}{k!}}$ per $m \in \NN + 1$.} } \Dimostrazione { Per $m \in \NN+1$ abbiamo\m $e_{0m} = \displaystyle \sum_{k=0}^{\infty} \Frac{m!}{(k+m)!} x^k = \Frac{m!}{x^m} \sum_{k=0}^{\infty} \Frac{x^{k+m}}{(k+m)!} = \Frac{m!}{x^m} \Matriceq { e^x - \displaystyle \sum_{k=0}^{m-1} \Frac{x^k}{k!}}$} \Lemma { Per ogni $j \in \NN + 1$ vale la formula di ricorsione\m $e_{j0}= \displaystyle x \sum_{i=0}^{j-1} \Matrice { j-1 \\ i} e_{i0}$} \Dimostrazione{ $j > 0$ implica $0^j=0$, per cui\m $\begin{aligned} e_{j0} &= \displaystyle \sum_{k=0}^{\infty} \Frac{k^j}{k!} x^k = \sum_{k=0}^{\infty} \Frac{(k+1)^j}{k!} x^{k+1} = x \sum_{k=0}^{\infty} \Frac{(k+1)^{j-1}}{k!} x^k =\\ &= x \sum_{k=0}^{\infty} \Frac{x^k}{k!} \sum_{i=0}^{j-1} \Matrice{ j-1 \\ i} k^i = x \sum_{i=0}^{j-1} \Matrice{ j-1 \\ i} \sum_{k=0}^{\infty} \Frac{k^j}{k!} x^k = \\ &= x \sum_{i=0}^{j-1} \Matrice{j-1 \\ i} e_{i0} \end{aligned}$ } \Definizione { Per $n, k \in \NN$ sia $S(n, k)$ il numero delle partizioni di un insieme con $n$ elementi in $k$ classi di equivalenza. I numeri $S(n, k)$ sono detti \C{numeri di Stirling di seconda specie}. \Eacc chiaro che $S(n, k)~=0$ per $k>n$.} \Nota {Per $n, k \in \NN$ valgono le seguenti formule:\m \lista{ \item[1] $S(n+1, k+1) = \displaystyle \sum_{j=0}^{n} \Matrice{n \\ j} S(j, k)$. \item[2] $S(n, k) = \Frac{1}{k!} \sum_{j=0}^{k} (-1)^{k-j} \Matrice{k \\ j} j^n$. \item[3] $S(n+1, k+1) = S(n, k) + (k+1) \cdot S(n, k+1)$.} \NI Possiamo cos\iacc compilare la seguente tabella:\m \Array [|c|r|r|r|r|r|r|r|r|r|r|] {\hline&&&&&&&&&&\\[-1.5ex] S(n, k) & 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9\\[0.5ex]\hline&&&&&&&&&&\\[-1.8ex] 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 1 & 0 & 1 & 1 & 1 & 1 & 1 & 1 & 1 & 1 & 1\\ 2 & 0 & 0 & 1 & 3 & 7 & 15 & 31 & 63 & 127 & 255\\ 3 & 0 & 0 & 0 & 1 & 6 & 25 & 90 & 301 & 966 & 3025\\ 4 & 0 & 0 & 0 & 0 & 1 & 10 & 65 & 350 & 1701 & 7770\\ 5 & 0 & 0 & 0 & 0 & 0 & 1 & 15 & 140 & 1050 & 6951\\ 6 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 21 & 266 & 2646\\ 7 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 28 & 462\\ 8 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 36\\ [0.5ex]\hline} } \Dimostrazione { Jacobs, pagg. 253-256, Halder/Heise, pagg. 56-59. Le formule sono elencate anche in Knuth, pagg. 65-67.} \Teorema { Per $j \in \NN$ si ha $\displaystyle e_{j0} = e^x \sum_{k=0}^{j} S(j, k) x^k$.} \Dimostrazione{Dimostriamo l'enunciato per induzione su $j$. Osserviamo prima che in tutte le sommatorie possiamo sommare da 0 ad $\infty$, perch\'e $\Matrice{n\\k} = S(n, k) = 0$ per $k>n$.\m \Stl{$j =0$}: Sappiamo dall'osservazione 9.18 che $e_{00} = e^x$. D'altra parte $S(0, 0) = 1$ e quindi $\displaystyle \sum_{k=0}^{0} S(0, k) x^k=1$. \Stl{$j \rightarrow j+1$} : $\begin{aligned} e_{j+1, 0} &\stackrel{9.19}{=} x \displaystyle \sum_{i=0}^{\infty} \Matrice{ j \\ i } e_{i0} \stackrel{\operatorname{ind.}}{=} x \sum_{i=0}^{\infty} \Matrice{j \\ i} e^x \sum_{k=0}^{\infty} S(i, k) x^k =\\ &= e^x \sum_{k=0}^{\infty} x^{k+1} \sum_{i=0}^{\infty} \Matrice{j \\ i} S(i, k) =\\ &= e^x \sum_{k=0}^{\infty} S(j+1, k+1) x^{k+1} = e^x \sum_{k=0}^{\infty} S(j+1, k) x^k \end{aligned}$ L'ultima uguaglianza vale perch\'e $S(j+1, 0)=0$, come si vede ad esempio nella tabella della nota 9.21. } \Osservazione { Abbiamo quindi\m $\begin{aligned} e_{00} &= e^x\\ e_{10} &= xe^x\\ e_{20} &= (x+ x^2) e^x\\ e_{30} &= (x + 3x^2 +x^3) e^x\\ e_{40} &= (x + 7x^2 + 6x^3 + x^4)e^x\\ &\mbox{ecc.} \end{aligned}$\m } \Lemma { $\begin{aligned} e_{0m} &= F \Matrice { \Box \\ m+1}\\ e_{jm} &= \Frac{x}{m+1} F \Matrice{ 2 \ldots 2 & \Box \\ \underbrace{1 \ldots 1}_{\text{\tiny $j$ volte}} & m+2} \end{aligned}$\m \NI per ogni $m \in \NN$ e ogni $j \in \NN + 1$.} \Dimostrazione{ $(1)$ \quad $e_{0m} = \displaystyle \sum_{k=0}^{\infty} \Frac{m!}{(k+m)!} x^k$ Sia $a_k:= \Frac{m!}{ (k+m)!}$. Allora $a_0=1$ ed $a_{k+1} / a_k = \Frac{(k+m)!}{(k+m+1)!} =~ \Frac{1}{k+m+1}$, per cui $e_{0m} = F \Matrice{ \Box \\ m+1}$. $(2)$ Sia $j>0$. Allora \m $\begin{aligned} e_{jm} &= \displaystyle \sum_{k=0}^{\infty} \Frac{m!}{(k+m)!} k^j x^k = \sum_{k=0}^{\infty} \Frac{m!}{(k+1+m)!} (k+1)^j x^{k+1}=\\ &= \Frac{x}{m+1} \sum_{k=0}^{\infty} \Frac{(m+1)!}{(k+m+1)!} (k+1)^j x^k \end{aligned}$\m Sia $a_k := \Frac{(m+1)!}{(k+m+1)!} (k+1)^j$. Allora $a_0=1$ ed $a_{k+1} / a_k = \Frac{ (k+2)^j (k+1+m)!}{(k+2+m)! (k+1)^j} = \Frac{ (k+2)^j}{ (k+1)^j (k+m+2)}$, per cui \quad $e_{jm}= \Frac{x}{m+1} F \Matrice{ 2 \ldots 2 & \Box \\ \underbrace{1 \ldots 1}_{\text{\tiny $j$ volte}} & m+2}$ } \Lemma { Siano $b_1, \ldots, b_r \in \CC$ ed $A \in \CC_n^n$. Allora in $\CC^n_n$ l'equazione alle differenze\m $M_{k+r}= b_1 M_{k+r-1} + \ldots + b_r M_r= 0 $\m \NI con le condizioni iniziali $M_0= \delta, M_1=A, \ldots, M_{r-1} = A^{r-1}$ possiede (evidentemente) una soluzione $\Fun_k M_k$ univocamente determinata. Sia $m \in \NN$ tale che $A^{m+r} = b_1 A^{m+r-1} + \ldots + b_r A^m$. Allora $A^{m+k} = M_k A^m$ per ogni $k \in \NN$.} \Dimostrazione{[40]} \Nota { Siano $m \in \NN$ e $g \in \CC[x]$ tali che $A^m g(A) =0$, ad esempio $g= x^r + a_1x^{r-1} + \ldots + a_r = (x - \alpha_1)^{m_1} \cdots (x- \alpha_s)^{m_s}$ con $a_r \neq 0$ e quindi $\alpha_i \neq 0$ per ogni $i$. Gli $\alpha_i$ siano tutti distinti e $m_i \geq 1$ per ogni $i$. Le ipotesi implicano la relazione\m $A^{m+r} + a_1 A^{m+r-1} + \ldots + a_r A^m = 0$ \m \NI Applicando il lemma 9.15 possiamo trovare matrici $M_k$ della forma\m $\begin{aligned} M_k = (X&_{10} + kX_{11}+ \ldots + k^{m_1 - 1} X_{1, m_1 -1}) \alpha_1^k \\ &+ \ldots + (X_{s0} + k X_{s1} + \ldots + k^{m_s -1} X_{s, m_s -1}) \alpha_s^k \end{aligned}$ \NI che soddisfano l'equazione alle differenze\m $M_{k+r} + a_1 M_{k+r-1} + \ldots + a_r M_k =0$ \m \NI con i coefficienti $X_{ij} \in \CC_n^n$ univocamente determinati dalle condizioni iniziali $ M_0= \delta, M_1=A, \ldots, M_{r-1} = A^{r-1}$. Per il lemma 9.25 abbiamo\m $A^{m+k} = M_k A^m = \Tonde {\displaystyle \sum_{i=1}^{s} \alpha_i^k \sum_{j=0}^{m_i - 1} k^j X_{ij}} A^m$ \NI per ogni $k \in \NN$. } \Teorema { Nelle ipotesi e con le notazioni della nota 9.26 abbiamo\m $e^{tA}= \displaystyle \sum_{k=0}^{m} C_k \Frac{(tA)^k}{k!}$ \NI con $C_k = \delta$ per $ k< m$ e\m $\begin{aligned} C_m &= \displaystyle \sum_{i=1}^{s} \sum_{j=0}^{m_i - 1} X_{ij} e_{jm} (\alpha_i t)\\ &= \sum_{i=1}^{s} \Matriceq{ X_{i0} F \Matrice{ \Box \\ m+1} (\alpha_i t) + \Frac{\alpha_i t}{m+1} \sum_{j=1}^{m_i - 1} X_{ij} F \Matrice{ 2 & \ldots & 2 & \Box \\ 1 & \ldots & 1 & m+2} (\alpha_i t)} \end{aligned}$} \Dimostrazione{ Sia $R:= \displaystyle \sum_{k=m}^{\infty} \Frac{(tA)^k}{k!}$. Allora $e^{tA} = \displaystyle \sum_{k=0}^{m-1} \Frac{(tA)^k}{k!} + R$. Inoltre\m $\begin{aligned} R &= \displaystyle \sum_{k=0}^{\infty} \Frac{(tA)^{k+m}}{(k+m)!} \sum_{i=1}^{s} \alpha_i^k \sum_{j=0}^{m_i - 1} k^j X_{ij} A^m=\\ &= \underbrace{\Tonde{ \sum_{k=0}^{\infty} \Frac{t^k m!}{(k+m)!} \sum_{i=1}^{s} \alpha_i^k \sum_{j=0}^{m_i - 1} k^j X_{ij}}}_{=:M} \Frac{(tA)^m}{m!} \end{aligned}$\m Perci\oacc\m $M= \displaystyle \sum_{i=1}^{s} \sum_{j=0}^{m_i - 1} X_{ij} \sum_{k=0}^{\infty} \Frac{m!}{(k+m)!} k^j (\alpha_i t )^k$\m \NI L'enunciato segue dal lemma 9.24. } \Corollario { Nelle ipotesi e con le notazioni della nota 9.26 assumiamo inoltre $m=0$. Allora\m $e^{tA}= \displaystyle \sum_{i=1}^{s} \sum_{j=0}^{m_j - 1} X_{ij} e_{j0} (\alpha_j t) = \sum_{i=1}^{s} e^{\alpha_i t} \sum_{j=0}^{m_i - 1} X_{ij} \sum_{k=0}^{j} S(j, k) (\alpha_i t)^k$ \NI Si noti che un'equazione di questa forma vale sicuramente se gli autovalori di $A$ sono tutti diversi da zero, cio\acc{e} se la matrice $A$ \acc{e} invertibile.} \Osservazione { Sia $\lambda \in \CC$ (non necessariamente un autovalore di $A$). Allora \quad $e^{tA} = e^{\lambda t} e^{t(A - \lambda \delta)}$.} \Dimostrazione{Gi\aacc visto nella dimostrazione della proposizione 9.4.} \Proposizione [(formula di Apostol)] {Siano $m \geq 1$ ed\\ $(A - \lambda \delta)^m (A - \mu \delta)= 0$ con $\lambda \neq \mu$. Allora\m $e^{tA} = e^{\lambda t} \Matriceq{ \displaystyle \sum_{k=0}^{m-1} \Frac{t^k}{k!} (A-\lambda \delta)^k + \Frac{1}{(\mu - \lambda)^m} \Tonde{e^{(\mu - \lambda)t} - \sum_{k=0}^{m-1} \Frac{(\mu - \lambda)^k t^k}{k!}} (A - \lambda \delta)^m}$} \Dimostrazione{[41]} \Proposizione { Siano $ m \geq 1$ ed $(A - \lambda \delta)^m (A - \mu \delta)^2 =0$ con $\lambda \neq \mu$. Allora\m $e^{tA} = e^{\lambda t} \Matriceq{ \displaystyle \sum_{k=1}^{m-1} \Frac{t^k}{k!} (A - \lambda \delta)^k + M (A - \lambda \delta)^m}$ \NI con\m $\begin{aligned} M = \Frac{1}{(\mu - \lambda)^m} &\Matriceq{\displaystyle e^{(\mu - \lambda)t} - \sum_{k=0}^{m-1} \Frac{(\mu - \lambda)^k t^k}{k!}} \\ &+ \Frac{t^{m+1}}{(m+1)!} F \Matrice{ 2 & \Box \\ m+2 & 1} ( ( \mu - \lambda) t ) \cdot (A - \mu \delta) \end{aligned}$ } \Dimostrazione{[42]} \Lemma { Siano $\lambda \in \CC$, $ - \lambda \not \in \NN$ e $J_\lambda$ la funzione di Bessel di prima specie di ordine $\lambda$. Allora\m $J_{\lambda} (x) = \Frac{1}{\lambda !} \Tonde{\Frac{x}{2}}^{\lambda} F \Matrice{ \Box & \Box \\ \lambda +1 & 1} (- x^2 / 4)$ \NI dove $\lambda ! = \Gamma(\lambda + 1)$.} \Dimostrazione{ Andrews/Askey/Roy, pag. 200.} \Lemma [(seconda trasformazione di Kummer)] {Sia $a \in \CC$ e $1 - 2a \not \in \NN$. Allora anche $\Frac{1}{2} - a \not \in \NN$ e si ha\m $F \Matrice { a & \Box \\ 2a & 1} = e^{x/2} F \Matrice { \Box & \Box \\ a+ \frac{1}{2} & 1} (x^2 / 4)$ } \Dimostrazione { Corso di Laboratorio di programmazione 2005/06.} \Nota { Dai lemmi 9.32 e 9.33 otteniamo\m $\begin{aligned} F \Matrice{2 & \Box \\ 4 & 1} &= e^{x/2} F \Matrice{ \Box & \Box \\ 5/2 & 1} ( x^2 / 4) = e^{x/2} F \Matrice { \Box & \Box \\ \frac{3}{2} + 1 & 1} (- (ix)^2 / 4) \\ &=e^{x/2} \Tonde{\Frac{3}{2}}! \Tonde{\Frac{2}{ix}}^{3/2} J_{3/2} (ix) = \Frac{3}{2} e^{x/2} \sqrt{\pi} (ix)^{-3/2} J_{3/2} (ix) \end{aligned}$ \NI Secondo Abramowitz, pagg. 437-438, e Bowman, pag. 95, si ha\m $J_{3/2} = \sqrt{\Frac{2}{\pi x}} \Tonde{\Frac{\sin x}{x} - \cos x}$ \NI Questa formula pu\oacc essere applicata nel caso $B^2 (B - \alpha \delta)^2 = 0$ con $\alpha \neq 0$ del teorema 9.27 [ELABORATO 43]} \end{document}