Des articles

6.6 : La matrice d'une application linéaire - Mathématiques


Nous allons maintenant voir que toute application linéaire (T in mathcal{L}(V, W) ), avec (V ) et (W ) espaces vectoriels de dimension finie, peut être encodée par une matrice , et, vice versa, chaque matrice définit une telle application linéaire.

Soit (V ) et (W ) des espaces vectoriels de dimension finie, et soit (T:V o W ) une application linéaire. Supposons que ((v_1,ldots,v_n) ) soit une base de (V ) et que ((w_1,ldots,w_m) ) soit une base de (W ). Nous avons vu dans le théorème 6.1.3 que (T ) est déterminé de manière unique en spécifiant les vecteurs (Tv_1,ldots, Tv_nin W). Puisque ((w_1,ldots,w_m) ) est une base de (W ), il existe des scalaires uniques (a_{ij}inmathbb{F} ) tels que
egin{equation}label{eq:Tv}
Tv_j = a_{1j} w_1 + cdots + a_{mj} w_m quad ext{for (1le jle n ).} ag{6.6.1}
end{équation}
Nous pouvons organiser ces scalaires dans une matrice (m imes n ) comme suit :
egin{équation*}
M(T) = egin{bmatrice}
a_{11} & ldots & a_{1n}
vdots && vdots
a_{m1} & ldots & a_{mn}
end{bmatrice}.
end{équation*}
Souvent, cela s'écrit aussi (A=(a_{ij})_{1le ile m,1le jle n} ). Comme dans la section A.1.1, l'ensemble de toutes les matrices (m imes n ) avec des entrées dans (mathbb{F} ) est noté (mathbb{F}^{m imes n} ).

Remarque 6.6.1. Il est important de rappeler que (M(T) ) ne dépend pas seulement de l'application linéaire (T ) mais aussi du choix de la base ((v_1,ldots,v_n) ) pour (V ) et le choix de la base ((w_1,ldots,w_m) ) pour (W ). La colonne (j^{ ext{th}} ) de (M(T) ) contient les coefficients du vecteur de base (j^{ ext{th}} ) (v_j ) lorsque développé en fonction de la base ((w_1,ldots,w_m) ), comme dans l'équation 6.6.1.

Exemple 6.6.2. Soit (T:mathbb{R}^2 o mathbb{R}^2 ) l'application linéaire donnée par (T(x,y)=(ax+by,cx+dy) ) pour certains (a,b,c,dinmathbb{R} ). Alors, par rapport à la base canonique de (mathbb{R}^2 ) donnée par (((1,0),(0,1)) ), la matrice correspondante est
egin{équation*}
M(T) = egin{bmatrice} a&b c&d end{bmatrice}
end{équation*}
puisque (T(1,0) = (a,c) ) donne la première colonne et (T(0,1)=(b,d) ) donne la deuxième colonne.

Plus généralement, supposons que (V=mathbb{F}^n ) et (W=mathbb{F}^m ), et notons la base standard pour (V ) par ((e_1, ldots,e_n) ) et la base standard pour (W ) par ((f_1,ldots,f_m) ). Ici, (e_i ) (resp. (f_i)) est le (n)-tuple (resp. (m)-tuple) avec un un en position (i ) et des zéros partout ailleurs . Alors la matrice (M(T)=(a_{ij}) ) est donnée par

egin{équation*}
a_{ij} = (Te_j)_i,
end{équation*}
où ((Te_j)_i ) désigne la composante (i^{ ext{th}} ) du vecteur (Te_j ).

Exemple 6.6.3. Soit (T:mathbb{R}^2 omathbb{R}^3 ) l'application linéaire définie par (T(x,y)=(y,x+2y,x+y) ). Alors, par rapport à la base standard, on a (T(1,0)=(0,1,1) ) et (T(0,1)=(1,2,1) ) de sorte que
egin{équation*}
M(T) = egin{bmatrice} 0&1 1& 2 1&1 end{bmatrice}.
end{équation*}
Cependant, si alternativement nous prenons les bases (((1,2),(0,1)) ) pour (mathbb{R}^2 ) et
(((1,0,0),(0,1,0),(0,0,1)) ) pour (mathbb{R}^3 ), puis (T(1,2 )=(2,5,3) ) et (T(0,1)=(1,2,1) ) de sorte que
egin{équation*}
M(T) = egin{bmatrice} 2&1 5&2 3&1 end{bmatrice}.
end{équation*}

Exemple 6.6.4. Soit (S:mathbb{R}^2 o mathbb{R}^2 ) l'application linéaire (S(x,y)=(y,x) ). Par rapport à la base (((1,2),(0,1)) ) pour (mathbb{R}^2 ), on a
egin{équation*}
S(1,2) = (2,1) = 2(1,2) -3(0,1) quad ext{et} quad
S(0,1) = (1,0) = 1(1,2)-2(0,1),
end{équation*}
et donc
[ M(S) = egin{bmatrice} 2&1- 3& -2 end{bmatrice}. ]

Étant donné les espaces vectoriels (V ) et (W ) de dimensions (n ) et (m ), respectivement, et étant donné un choix fixe de bases, notez qu'il existe une correspondance bijective entre les applications linéaires dans (mathcal{L}(V,W)) et les matrices dans (mathbb{F}^{m imes n} ). Si nous partons de l'application linéaire (T ), alors la matrice (M(T)=A=(a_{ij})) est définie via l'équation 6.6.1. Inversement, étant donné la matrice (A=(a_{ij})in mathbb{F}^{m imes n} ), on peut définir une application linéaire (T:V o W ) en fixant

[ Tv_j = sum_{i=1}^m a_{ij} w_i. ]

Rappelons que l'ensemble des applications linéaires (mathcal{L}(V,W) ) est un espace vectoriel. Comme nous avons une correspondance biunivoque entre les applications linéaires et les matrices, nous pouvons également transformer l'ensemble des matrices (mathbb{F}^{m imes n} ) en un espace vectoriel. Soit deux matrices (A=(a_{ij}) ) et (B=(b_{ij}) ) dans (mathbb{F}^{m imes n} ) et un scalaire (alphain mathbb{F} ), on définit le addition matricielle et multiplication scalaire au niveau des composants :

egin{équation*}
egin{split}
A+B &= (a_{ij}+b_{ij}),
alpha A &= (alpha a_{ij}).
end{split}
end{équation*}

Ensuite, nous montrons que le composition des applications linéaires impose un produit sur les matrices, également appelé multiplication matricielle. Supposons que (U,V,W ) soient des espaces vectoriels sur (mathbb{F} ) avec des bases ((u_1,ldots,u_p) ), ((v_1,ldots,v_n) ) et ((w_1,ldots,w_m) ), respectivement. Soient (S:U o V ) et (T:V o W ) des applications linéaires. Alors le produit est une application linéaire (Tcirc S:U o W).

Chaque application linéaire a sa matrice correspondante (M(T)=A, M(S)=B ) et (M(TS)=C ). La question est de savoir si (C ) est déterminé par (A ) et (B ). On a, pour chaque (jin {1,2,ldots p} ), que

egin{équation*}
egin{split}
(Tcirc S) u_j &= T(b_{1j}v_1 + cdots + b_{nj} v_n) = b_{1j} Tv_1 + cdots + b_{nj} Tv_n
&= sum_{k=1}^n b_{kj} Tv_k
= sum_{k=1}^n b_{kj} igl( sum_{i=1}^m a_{ik} w_i igr)
&= sum_{i=1}^m igl(sum_{k=1}^n a_{ik} b_{kj} igr) w_i.
end{split}
end{équation*}

Par conséquent, la matrice (C=(c_{ij}) ) est donnée par
egin{equation} label{eq:c}
c_{ij} = sum_{k=1}^n a_{ik} b_{kj}. ag{6.6.2}
end{équation}

L'équation 6.6.2 peut être utilisée pour définir la matrice (m imes p ) (C) comme le produit d'une matrice (m imes n ) (A) et d'une (n imes p ) matrice (B ), c'est-à-dire,
egin{équation}
C = AB. ag{6.6.3}
end{équation}

Notre dérivation implique que la correspondance entre les applications linéaires et les matrices respecte la structure du produit.

Proposition 6.6.5. Laisser (S:Uà V) et (T:Và W ​​) être des cartes linéaires. Puis

[ M(TS) = M(T)M(S).]

Exemple 6.6.6. Avec une notation comme dans les exemples 6.6.3 et 6.6.4, vous devriez être en mesure de vérifier que
egin{équation*}
M(TS) = M(T)M(S) = egin{bmatrice} 2&1 5&2 3&1 end{bmatrice}
egin{bmatrix} 2&1- 3& -2 end{bmatrix}
= egin{bmatrice} 1&0 4&1 3&1 end{bmatrice}.
end{équation*}

Étant donné un vecteur (vin V ), on peut aussi associer une matrice (M(v) ) à (v ) comme suit. Soit ((v_1,ldots,v_n) ) une base de (V ). Alors il existe des scalaires uniques (b_1,ldots,b_n) tels que

[ v= b_1 v_1 + cdots b_n v_n. ]

La matrice de (v ) est alors définie comme la matrice (n imes 1 )

[ M(v) = egin{bmatrix} b_1 vdots b_n end{bmatrix}. ]

Exemple 6.6.7 La matrice d'un vecteur (x=(x_1,ldots,x_n) in mathbb{F}^n ) dans la base standard ((e_1,ldots,e_n)) est le vecteur colonne ou (n x 1 ) matrice
egin{équation*}
M(x) = egin{bmatrix} x_1 vdots x_n end{bmatrix}
end{équation*}
puisque (x=(x_1,ldots,x_n) = x_1 e_1 + cdots + x_n e_n ).

Le résultat suivant montre comment la notion de matrice d'application linéaire (T:V o W ) et la matrice d'un vecteur (vin V ) s'emboîtent.

Proposition 6.6.8. Laisser (T:Và W ​​) être une application linéaire. Ensuite, pour chaque (vdans V),
egin{équation*}
M(Tv) = M(T) M(v).
end{équation*}

Preuve.

Soit ((v_1,ldots,v_n) ) une base de (V ) et ((w_1,ldots,w_m) ) une base de (W ). Supposons que, par rapport à ces bases, la matrice de (T ) soit (M(T)=(a_{ij})_{1le ile m, 1le jle n} ). Cela signifie que, pour tout (jin {1,2,ldots,n} ),

[ egin{équation*}
Tv_j = sum_{k=1}^m a_{kj} w_k.
end{équation*} ]

Le vecteur (vin V ) peut être écrit uniquement comme une combinaison linéaire des vecteurs de base comme

[ v = b_1 v_1 + cdots + b_n v_n. ]

D'où,

egin{équation*}
egin{split}
Tv &= b_1 T v_1 + cdots + b_n T v_n
&= b_1 sum_{k=1}^m a_{k1} w_k + cdots + b_n sum_{k=1}^m a_{kn} w_k
&= sum_{k=1}^m (a_{k1} b_1 + cdots + a_{kn} b_n) w_k.
end{split}
end{équation*}

Cela montre que (M(Tv) ) est la matrice (m imes 1 )

egin{équation*}
M(Tv) = egin{bmatrix} a_{11}b_1 + cdots + a_{1n} b_n vdots
a_{m1}b_1 + cdots + a_{mn} b_n end{bmatrix}.
end{équation*}

Il n'est pas difficile de vérifier, en utilisant la formule de multiplication matricielle, que (M(T)M(v)) donne le même résultat.

Exemple 6.6.9. Prenons l'application linéaire (S ) de l'exemple 6.6.4 avec la base (((1,2),(0,1)) ) de (mathbb{R}^2 ). Pour déterminer l'action sur le vecteur (v=(1,4)in mathbb{R}^2 ), notez que (v=(1,4)=1(1,2)+2(0 ,1) ). D'où,
egin{équation*}
M(Sv) = M(S)M(v) = egin{bmatrice} 2&1-3&-2 end{bmatrice}
egin{bmatrice} 12 end{bmatrice}
= egin{bmatrice} 4 -7 end{bmatrice}.
end{équation*}

Cela signifie que

[ Sv= 4(1,2)-7(0,1)=(4,1), ]

ce qui est bien vrai.


Les dérivées sont-elles des cartes linéaires ?

Mais entre Apostol et Rudin, je suis confus en ce sens que les dérivés totaux sont des dérivés.

Les dérivées partielles ressemblent beaucoup plus aux dérivées habituelles enseignées au lycée

Mais le Jacobien ne ressemble pas du tout à cela. Et selon mes livres, c'est une carte linéaire.

Si les dérivées sont des applications linéaires, quelqu'un peut-il m'aider à voir plus clairement comment mes intuitions sur les dérivées plus simples se rapportent aux formes plus compliquées ? Je ne comprends tout simplement pas où sont passées les limites, pourquoi c'est plus complexe et pourquoi les formes les plus simples ne sont pas décrites comme des cartes linéaires.


Remise à niveau en algèbre linéaire

Les deux éléments de base de l'algèbre linéaire sont vecteur et matrice. Le vecteur représente un point dans l'espace euclidien alors que la matrice est une application linéaire qui mappe les vecteurs d'un espace à un autre (les deux espaces peuvent être de dimensions identiques ou différentes). Ici, j'ai inventé le terme cartographie linéaire, ça veut dire le mappage d'un espace vectoriel à un autre respecte la structure (linéaire) sous-jacente de chaque espace vectoriel, c'est-à-dire qu'il préserve la linéarité, (l'espace vectoriel n'est qu'une représentation abstraite). Mathématiquement, nous écrivons comme

Ici, L est la carte linéaire également connue sous le nom de transformation linéaire.

Tout cela n'est que du jargon mathématique, mais qu'est-ce que cela fait vraiment géométriquement ? Alors, s'il y a un vecteur dans l'espace euclidien, il le redimensionnera, le fera pivoter ou fera les deux de manière séquentielle. Visualisons ce qu'une matrice (application linéaire) fait à un vecteur dans l'espace euclidien (R2 dans ce cas).


3 réponses 3

Redéfinir les symboles pour éviter toute ambiguïté : $T : mathbb^n à mathbb^n$ est l'application linéaire définie comme $T(x) = Ax$ et $S : mathbb^n imes mathbb^n à mathbb$ est la carte bilinéaire définie comme $S(x, y) = y^T A x$ .

Construire des fonctions bilinéaires à partir de fonctions linéaires en utilisant le produit interne

Une façon de comprendre $S$ est la composition de $T$ avec le produit interne standard $phi : mathbb^n imes mathbb^n à mathbb$ défini comme $phi(x, y) = y^T x$ , à savoir

Cette vue nous permet de remarquer certaines propriétés de $S$ basées sur des propriétés de $T$ et des propriétés connues de $phi$ . Par exemple, puisque $phi$ est connu pour être non dégénéré, $S$ est non dégénéré si et seulement si $T$ est un isomorphisme.

La construction se généralise facilement au cas $n imes m$ en composant $T : mathbb^m o mathbb^n$ avec $phi$ .

Changement de base

Pour une matrice fixe $A in mathbb^$ la construction ci-dessus donne deux fonctions : une fonction linéaire $T_A : mathbb^n à mathbb^n$ et une fonction bilinéaire $S_A : mathbb^n imes mathbb^n à mathbb$ . La construction a lieu dans une base fixe, mais les fonctions résultantes $S$ et $T$ sont indépendantes de la base, il est donc naturel de se demander comment leur représentation matricielle change sous les transformations de base.

Il est facile de voir que la matrice représentant une fonction linéaire se transforme différemment de la matrice représentant une fonction bilinéaire. Soit $B$ une matrice inversible décrivant un changement de base. Puis

chaque fois que $A' = B^<-1>AB$ , c'est-à-dire que les matrices représentant une application linéaire fixe sont similaires. D'autre part,

chaque fois que $A^ <''>= B^TAB$ , c'est-à-dire que les matrices représentant une application bilinéaire fixe sont congruentes.

Cela montre qu'il faut être prudent lorsqu'on utilise des représentations matricielles de fonctions linéaires et bilinéaires. Même lorsqu'une fonction linéaire $T$ et une fonction bilinéaire $S$ sont représentées par la même matrice dans une base, cela n'implique pas qu'elles soient représentées par la même matrice dans une autre base (sauf si la transformation de base est orthogonale).

Toute forme bilinéaire $bcolon mathbb R^n imesmathbb R^n omathbb R$ correspond naturellement à une application linéaire $Phi_bcolon mathbb R^n o(mathbb R^n) ^*$ , où $(mathbb R^n)^*=operatorname(mathbb R^n,mathbb R)$ est l'espace dual. Cette correspondance est donnée par egin b quadlongmapstoquad Phi_bcolonmathbb R^n& o(mathbb R^n)^*, x &mapsto b(x,-). finir Ici $b(x,-)$ désigne l'application linéaire $mathbb R^n omathbb R$ envoyant $y$ à $b(x,y)$ .

En considérant les éléments de $mathbb R^n$ comme vecteurs colonnes, on peut considérer les éléments de $(mathbb R^n)^*$ comme vecteurs lignes : pour $ hoin(mathbb R^n)^ *$ et $x=(x_1,dots,x_n)^T$ nous avons egin ho(x) &= ho(x_1 e_1+cdots+x_n e_n) = x_1 ho(e_1) +cdots + x_n ho(e_n) &= egin ho(e_1) & ho(e_2) & dots & ho(e_n)end commencer x_1 x_2 vdots x_nend. finir En utilisant cette identification, il existe un isomorphisme $<>^Tcolon(mathbb R^n)^* omathbb R^n$ donné par $ymapsto y^T$ .

Maintenant, en commençant par $b(x,y) = y^TAx$ cela donne $Phi_b(x)=(ymapsto y^TAx)$ que nous avons identifié avec le vecteur ligne $Phi_b(x)=(Ax) ^T$. En utilisant l'isomorphisme ci-dessus, nous obtenons alors une application linéaire $mathbb R^n omathbb R^n$ : egin mathbb R^n &xrightarrow (mathbb R^n)^* xrightarrow mathbb R^n, x &longmapsto (Ax)^T mapsto Ax. finir

C'est ainsi qu'en partant de l'application bilinéaire définie par $A$ on obtient l'application linéaire définie par $A$ . Vous pouvez bien sûr aussi procéder dans l'autre sens.

De manière plus abstraite, vous pouvez penser à cela en termes d'adjonction tenseur-hom avec l'isomorphisme (dépendant de la base !) $(mathbb R^n)^*cong(mathbb R^n)$ : egin < exte> &leftrightarrow omopérateur(mathbb R^notimesmathbb R^n,mathbb R) &cong operatorname(mathbb R^n, om de l'opérateur(mathbb R^nàmathbb R)) &= operatorname(mathbb R^n,(mathbb R^n)^*) &cong operatorname(mathbb R^n,mathbb R^n). finir


Solution 1

Par la condition que $Amathbf_i=mathbf_i$, on a une égalité matricielle $A[mathbf_1 mathbf_2 mathbf_3]=[mathbf_1 mathbf_2 mathbf_3]$.
Nous avons explicitement
[ Acommencer
1 & 0 & 0
1 &1 &0
1 & 1 & 1
finir
=commencer
1 & -1 & 3
2 &0 &1
0 & 3 & 1
finir.] Pour trouver la matrice $A$, on trouve la matrice inverse de $egin
1 & 0 & 0
1 &1 &0
1 & 1 & 1
finir$ et multipliez à droite par celui-ci.


Réclamation DMCA

Si vous pensez que le contenu disponible via le site Web (tel que défini dans nos conditions d'utilisation) enfreint un ou plusieurs de vos droits d'auteur, veuillez nous en informer en fournissant un avis écrit (« Avis d'infraction ») contenant les informations décrites ci-dessous au responsable désigné. mandataire ci-dessous. Si Varsity Tutors prend des mesures en réponse à un avis d'infraction, il tentera de bonne foi de contacter la partie qui a rendu ce contenu disponible au moyen de l'adresse e-mail la plus récente, le cas échéant, fournie par cette partie à Varsity Tutors.

Votre avis d'infraction peut être transmis à la partie qui a rendu le contenu disponible ou à des tiers tels que ChillingEffects.org.

Veuillez noter que vous serez responsable des dommages (y compris les coûts et les honoraires d'avocat) si vous déclarez faussement qu'un produit ou une activité enfreint vos droits d'auteur. Ainsi, si vous n'êtes pas sûr que le contenu situé sur ou lié par le site Web enfreint vos droits d'auteur, vous devriez d'abord envisager de contacter un avocat.

Veuillez suivre ces étapes pour déposer un avis :

Vous devez inclure les éléments suivants :

Une signature physique ou électronique du propriétaire du droit d'auteur ou d'une personne autorisée à agir en son nom Une identification du droit d'auteur prétendu avoir été violé Une description de la nature et de l'emplacement exact du contenu que vous prétendez porter atteinte à votre droit d'auteur, en détail pour permettre aux tuteurs universitaires de trouver et d'identifier positivement ce contenu, par exemple, nous avons besoin d'un lien vers la question spécifique (pas seulement le nom de la question) qui contient le contenu et une description de quelle partie spécifique de la question - une image, un lien, le texte, etc. – votre plainte fait référence à votre nom, adresse, numéro de téléphone et adresse e-mail et une déclaration de votre part : (a) que vous croyez de bonne foi que l'utilisation du contenu que vous prétendez porter atteinte à vos droits d'auteur est non autorisé par la loi, ou par le propriétaire du droit d'auteur ou l'agent de ce propriétaire (b) que toutes les informations contenues dans votre avis d'infraction sont exactes, et (c) sous peine de parjure, que vous êtes soit le titulaire du droit d'auteur ou une personne autorisée à agir en son nom.

Envoyez votre plainte à notre agent désigné à :

Charles Cohn Varsity Tutors LLC
101, chemin S. Hanley, bureau 300
Saint-Louis, MO 63105


4 réponses 4

Par définition de la projection sur $W$ nous avons $ DeclareMathOperator proj_W v = proj_W (x + y) = x $ Pour deux scalaires arbitraires $lambda_i$ et deux vecteurs $v_i in V$ nous avons des divisions individuelles $v_i = x_i + y_i$ avec $x_i in W$ et $y_i in W^perp$. On peut les combiner en $ lambda_1 v_1 + lambda_2 v_2 = lambda_1 (x_1 + y_1) + lambda_2(x_2 + y_2) = (lambda_1 x_1 + lambda_2 x_2) + (lambda_1 y_1 + lambda_2 y_2) $ en raison des règles de calcul en $V$.

En raison de la fermeture de $W$ et $W^perp$ chacun (une propriété d'espace vectoriel) nous avons $ lambda_1 x_1 + lambda_2 x_2 in W lambda_1 y_1 + lambda_2 y_2 in W^perp $ ce qui implique $ proj_W(lambda_1 v_1 + lambda_2 v_2) = lambda_1 x_1 + lambda_2 x_2 $ Par contre on a $ lambda_i proj_W(v_i) = lambda_i x_i $ donc on obtient $ proj_W( lambda_1 v_1 + lambda_2 v_2) = lambda_1 x_1 + lambda_2 x_2 = lambda_1 proj_W(v_1) + lambda_2 proj_W(v_2) $ Cela signifie que $proj_W$ est linéaire sur $V$.

Si $langlecdot,cdot angle$ est votre produit scalaire et si $(e_1,ldots,e_k)$ est une base orthonormée de $W$, alors$(forall vin V):T( v)=somme_^klangle v,e_j angle e_j.$Cela exprime $T$ comme une somme d'applications linéaires. Par conséquent, $T$ est linéaire.


Transformations linéaires

UNE transformation linéaire (ou simplement transformation, appelé quelques fois carte linéaire) est un mappage entre deux espaces vectoriels : il prend un vecteur en entrée et se transforme dans un nouveau vecteur de sortie. Une fonction est dite linéaire si les propriétés d'additivité et de multiplication scalaire sont conservées, c'est-à-dire que le même résultat est obtenu si ces opérations sont effectuées avant ou après la transformation. Les fonctions linéaires sont appelées synonymes de transformations linéaires.

Notation des transformations linéaires

Vous pouvez rencontrer la notation suivante pour décrire une transformation linéaire : La télé. Il s'agit du vecteur v transformé par T. Une métamorphose T est associé à une matrice spécifique. Puisque l'additivité et la multiplication scalaire doivent être conservées dans la transformation linéaire, vous pouvez écrire :

En algèbre linéaire, les informations concernant une transformation linéaire peuvent être représentées sous forme de matrice. De plus, chaque transformation linéaire peut être exprimée sous forme de matrice.

Lorsque vous faites la transformation linéaire associée à une matrice, on dit que vous appliquer la matrice au vecteur. Plus concrètement, cela signifie que vous calculez le produit matrice-vecteur de la matrice et du vecteur. Dans ce cas, la matrice peut parfois être appelée un matrice de transformation. Par exemple, vous pouvez appliquer une matrice UNE à un vecteur v avec leur produit Un V.

Application de matrices

Gardez à l'esprit que, pour appliquer une matrice à un vecteur, vous gauche multiplier le vecteur par la matrice : la matrice est à gauche du vecteur.

Lorsque vous multipliez plusieurs matrices, les transformations linéaires correspondantes sont combinées dans l'ordre de droite à gauche.

Par exemple, disons qu'une matrice UNE fait une rotation de 45 degrés dans le sens des aiguilles d'une montre et une matrice B fait un étirement, le produit BA signifie que vous faites d'abord la rotation, puis l'étirement.

Cela montre que le produit matriciel est :

  • Non commutatif (UN BBA) : l'étirement puis la rotation est une transformation différente de la rotation puis l'étirement.
  • Associatif (abc)) = ((UN B)C) : les mêmes transformations associées aux matrices UNE, B, et C se font dans le même ordre.

Un produit matrice-vecteur peut ainsi être considéré comme un moyen de transformer un vecteur. Vous avez vu dans Essential Math for Data Science que la forme de UNE et v doit correspondre pour que le produit soit possible.

Une bonne façon de comprendre la relation entre les matrices et les transformations linéaires est de visualiser réellement ces transformations. Pour ce faire, vous utiliserez une grille de points dans un espace à deux dimensions, chaque point correspondant à un vecteur (il est plus facile de visualiser des points que des flèches pointant depuis l'origine).

Commençons par créer la grille à l'aide de la fonction meshgrid() de Numpy :

La fonction meshgrid() vous permet de créer toutes les combinaisons de points à partir des tableaux x et y . Tracez le nuage de points correspondant à xx et yy .

Vous pouvez voir la grille sur la figure 1. La couleur correspond à l'addition des valeurs xx et yy. Cela rendra les transformations plus faciles à visualiser.


6.6.2. La statique des fermes¶

Le domaine de la statique s'intéresse à la détermination des forces agissant sur les systèmes civils et mécaniques. Connaître l'ampleur des forces exercées sur les parties d'un système est nécessaire pour s'assurer que les systèmes sont conçus pour être suffisamment solides.

Nous considérons ici une structure composée de sept fermes. Cet exemple est tiré d'un texte sur la statique et la dynamique. [MERIAM78] La page du livre de Meriam’s est ici. truss_problem.pdf

Les problèmes statiques comme celui-ci sont résolus à deux niveaux. Tout d'abord, nous considérons les forces externes sur la structure globale. Cela nous indiquera les efforts sur les supports de la structure. Trois équations sont utilisées pour cette étape.

La somme des moments est nulle. Ici, nous définissons un point focal, puis calculons le moment de chaque force externe comme le produit de la valeur de la force perpendiculaire à la structure par la distance du point focal. Cela garantit que la structure ne tourne pas.

Somme des forces dans la direction est nulle.

Somme des forces dans la direction est nulle.

Ensuite, utilisez le méthode des articulations pour déterminer la force sur chaque ferme. Nous examinons chaque joint et écrivons des équations pour les forces dans le et le directions. Ces forces doivent également être égales à zéro pour chaque articulation.

Comme vous pouvez le voir sur la page numérisée du manuel de Meriam, il s'agit d'un problème assez simple. Lorsqu'elle est prise dans l'ordre souhaité, chaque équation se réduit à n'avoir qu'une seule variable inconnue.

Lorsqu'il est résolu avec une matrice, chaque force de ferme peut être entrée comme une force de compression. Les fermes qui sont en tension auront une force négative.

L'équation matricielle est surdéterminée, ce qui signifie que nous avons plus d'équations que d'inconnues. Lorsque cela se produit, nous multiplions les deux côtés de l'équation par .


Voir la vidéo: Matrice dapplication linéaire 12 (Décembre 2021).