Des articles

11.1 : Applications des sinusoïdes


De la même manière, les fonctions exponentielles peuvent être utilisées pour modéliser une grande variété de phénomènes dans la nature,footnote{Voir la section ef{ExpLogApplications}.} les fonctions cosinus et sinus peuvent être utilisées pour modéliser leur juste part de comportements naturels. Dans la section 10.5, nous avons introduit le concept de sinusoïde en tant que fonction qui peut être écrite soit sous la forme (C(x) = A cos(omega x + phi) + B) pour (omega > 0) ou de manière équivalente, sous la forme (S(x) = A sin(omega x + phi) + B) pour (omega > 0). À l'époque, nous restions indécis quant à la forme que nous préférions, mais le temps d'une telle indécision est révolu. Pour plus de clarté, nous nous concentrons sur la fonction sinus (les ennemis du sinus peuvent utiliser l'identité de co-fonction (cosleft(frac{pi}{2} - heta ight) = sin( heta) ) pour transformer tous les sinus en cosinus). Dans cette section et passez à la variable indépendante (t), car les applications de cette section dépendent du temps. Nous réintroduisons et résumons ci-dessous tous les faits et définitions importants concernant cette forme de sinusoïde.

Remarque (PageIndex{1}): Propriétés du sinusoïde

[ S(t) = A sin(omega t + phi) + B]

  1. Le amplitude est (|A|)
  2. Le fréquence angulaire est (omega) et le fréquence ordinaire est (f = dfrac{omega}{2pi})
  3. Le point final est (T = dfrac{1}{f} = dfrac{2pi}{omega})
  4. Le phase est (phi) et le déphasage est (-dfrac{phi}{omega})
  5. Le décalage vertical ou extbf{baseline} est (B)

En plus de connaître ces formules, il est utile de se rappeler ce que ces quantités signifient dans leur contexte. L'amplitude mesure le déplacement maximal de l'onde sinusoïdale par rapport à sa ligne de base (déterminé par le décalage vertical), la période est le temps qu'il faut pour terminer un cycle de la sinusoïde, la fréquence angulaire indique combien de cycles sont terminés sur un intervalle de longueur (2pi), et la fréquence ordinaire mesure combien de cycles se produisent par unité de temps. La phase indique quel angle (phi) correspond à (t=0), et le déphasage représente combien d'une "avance" la sinusoïde a sur la fonction sinus non décalée. La figure ci-dessous est reprise de la section 10.5.

Dans la section ef{circularmotion}, nous avons introduit le concept de mouvement circulaire et dans la section ef{cosinesinebeyond}, nous avons développé des formules pour le mouvement circulaire. Notre première incursion dans le mouvement sinusoïdal met ces notions à profit.

Exemple (PageIndex{1}): ycoordonwheel

Rappelez-vous de l'exercice ef{giantwheelmotion} dans la section ef{Angles} que la roue géante à Cedar Point est un cercle d'un diamètre de 128 pieds qui repose sur une plate-forme de 8 pieds de haut, faisant sa hauteur totale de 136 pieds. Il effectue deux tours en 2 minutes et 7 secondes. En supposant que les coureurs se trouvent au bord du cercle, trouvez une sinusoïde qui décrit la hauteur des passagers au-dessus du sol (t) secondes après avoir passé le point de la roue le plus proche du sol.

Solution.

Nous esquissons la situation problématique ci-dessous et supposons une rotation dans le sens inverse des aiguilles d'une montre.footnote{Sinon, nous pourrions simplement observer le mouvement de la roue de l'autre côté.}

Nous savons d'après les équations données à la page pageref{equationsforcircularmotion} dans la section ef{cosinesinebeyond} que la coordonnée (y) pour le mouvement antihoraire sur un cercle de rayon (r) centré à l'origine avec une constante la vitesse angulaire (fréquence) (omega) est donnée par (y = rsin(omega t)). Ici, (t=0) correspond au point ((r,0)) de sorte que ( heta), l'angle mesurant la quantité de rotation, est en position standard. Dans notre cas, le diamètre de la roue est de 128 pieds, donc le rayon est (r = 64) pieds. Puisque la roue effectue deux tours en 2 minutes et 7 secondes (ce qui correspond à (127) secondes) la période (T = frac{1}{2} (127) = frac{127}{2}) secondes. Par conséquent, la fréquence angulaire est (omega = frac{2pi}{T} = frac{4 pi}{127}) radians par seconde. En rassemblant ces deux informations, nous avons que (y = 64 sinleft(frac{4 pi}{127} t ight)) décrit la coordonnée (y) sur la roue géante après (t) secondes, en supposant qu'il soit centré en ((0,0)) avec (t=0) correspondant au point (Q). Afin de trouver une expression pour (h), nous prenons le point (O) dans la figure comme origine. Étant donné que la base du tour de la roue géante est à (8) pieds au-dessus du sol et que la roue géante elle-même a un rayon de (64) pieds, son centre est à (72) pieds au-dessus du sol. Pour tenir compte de ce décalage vertical vers le haut,footnote{Nous réajustons notre "base" de (y=0) à (y=72).} nous ajoutons (72) à notre formule pour (y ) pour obtenir la nouvelle formule (h = y + 72 = 64 sinleft(frac{4 pi}{127} t ight) + 72). Ensuite, nous devons ajuster les choses pour que (t=0) corresponde au point (P) au lieu du point (Q). C'est là que la phase entre en jeu. Géométriquement, nous devons décaler l'angle ( heta) dans la figure en (frac{pi}{2}) radians. De la section ef{cosinesinebeyond}, nous savons ( heta = omega t = frac{4 pi}{127} t), donc nous écrivons (temporairement) la hauteur en termes de ( heta) comme (h =64 sinleft( heta ight) + 72). Soustraire (frac{pi}{2}) de ( heta) donne la réponse finale (h(t) = 64 sinleft( heta - frac{pi}{2} ight) + 72 = 64sinleft(frac{4 pi}{127} t -frac{pi}{2} ight) + 72). Nous pouvons vérifier le caractère raisonnable de notre réponse en traçant (y = h(t)) sur l'intervalle (left[0, frac{127}{2} ight]).

Quelques remarques sur l'exemple ef{ycoordonwheel} s'imposent. Tout d'abord, notez que l'amplitude de (64) dans notre réponse correspond au rayon de la roue géante. Cela signifie que les passagers de la roue géante ne s'éloignent jamais de plus de (64) pieds verticalement du centre de la roue, ce qui est logique. Deuxièmement, le déphasage de notre réponse est (frac{pi/2}{4pi/127} = frac{127}{8} = 15.875). Cela représente le « retard » (en secondes) que nous introduisons en commençant le mouvement au point (P) par opposition au point (Q). Autrement dit, les passagers qui « partent » à (P) mettent (15,875) secondes pour « rattraper » jusqu'au point (Q).

Notre prochain exemple revisite les données de lumière du jour introduites pour la première fois dans la section 2.5, exercice ef{regsunlight}.

Exemple (PageIndex{2}):sinusoidsunlight

Selon le site Web de l'observatoire naval américain, le nombre d'heures (H) de lumière du jour que Fairbanks, en Alaska a reçu le 21e jour du (n)e mois de 2009 est indiqué ci-dessous. Ici (t = 1) représente le 21 janvier 2009, (t = 2) représente le 21 février 2009, et ainsi de suite.

[egin{tabular}{|l|r|r|r|r|r|r|r|r|r|r|r|r|} hline Mois & & & & & & & & & & & & & Nombre & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 & 11 & 12 hline Heures de & & & & & & & & & & & & Lumière du jour & 5,8 & 9,3 & 12,4 & 15,9 & 19,4 & 21,8 & 19,4 & 15,6 & 12,4 & 9,1 & 5,6 & 3,3 hline end{tabular}]

  1. label{roughsinusoidfit} Trouvez une sinusoïde qui modélise ces données et utilisez un utilitaire graphique pour représenter graphiquement votre réponse avec les données.
  2. Comparez votre réponse à la partie ef{roughsinusoidfit} à celle obtenue en utilisant la fonction de régression d'une calculatrice.

Solution

  1. Pour avoir une idée des données, nous les traçons ci-dessous.
  2. Les données semblent certainement sinusoïdales,footnote{D'accord, il semble que ce soit la forme ')wedge)' que nous avons vue dans certains des graphiques de la section ef{AbsoluteValueFunctions}. Faites-nous plaisir.} mais en fin de compte, l'ajustement manuel d'une sinusoïde aux données n'est pas une science exacte. On s'efforce de trouver les constantes (A), (omega), (phi) et (B) pour que la fonction (H(t) = Asin(omega t + phi) + B) correspond étroitement aux données. Nous allons d'abord après le décalage vertical (B) dont la valeur détermine la ligne de base. Dans une sinusoïde typique, la valeur de (B) est la moyenne des valeurs maximale et minimale. On prend donc ici (B = frac{3.3+21.8}{2} = 12.55). Vient ensuite l'amplitude (A) qui est le déplacement de la ligne de base aux valeurs maximales (et minimales). On trouve (A = 21,8 - 12,55 = 12,55 - 3,3 = 9,25). À ce stade, nous avons (H(t) = 9,25sin(omega t + phi) + 12,55). Ensuite, nous allons après la fréquence angulaire (omega). Puisque les données collectées s'étendent sur une période d'un an (12 mois), nous prenons la période (T = 12) mois.footnote{Même si les données collectées se situent dans l'intervalle ([1,12]) , qui a une longueur de (11), nous devons considérer le point de données à (t=1) comme un échantillon représentatif de la quantité de lumière du jour pour chaque jour de janvier. C'est-à-dire qu'il représente (H(t)) sur l'intervalle ([0,1]). De même, (t=2) est un échantillon de (H(t)) sur ([1,2]), et ainsi de suite.} Cela signifie (omega = frac{2pi }{T} = frac{2pi}{12} = frac{pi}{6}). La dernière quantité à trouver est la phase (phi). Contrairement à l'exemple précédent, il est plus facile dans ce cas de trouver le déphasage (-frac{phi}{omega}). Puisque nous avons choisi (A > 0), le déphasage correspond à la première valeur de (t) avec (H(t) = 12,55) (la valeur de base).footnote{Voir la figure page pageref{genericsinsuoidfigure}.} Ici, nous choisissons (t = 3), puisque sa valeur (H) correspondante de (12.4) est plus proche de (12.55) que la valeur suivante, (15.9 ), ce qui correspond à (t=4). Par conséquent, (-frac{phi}{omega} = 3), donc (phi = -3 omega = -3 left(frac{pi}{6} ight) = - frac{pi}{2}). On a (H(t) = 9,25 sinleft(frac{pi}{6} t - frac{pi}{2} ight) + 12,55). Ci-dessous un graphique de nos données avec la courbe (y = H(t)).
  3. Bien que les deux modèles semblent être des ajustements raisonnables aux données, le modèle de la calculatrice est peut-être le meilleur ajustement. La calculatrice ne nous donne pas une valeur (r^{2}) comme elle l'a fait pour les régressions linéaires dans la section ef{Regression}, ni ne nous donne une valeur (R^{2}) comme elle l'a fait pour les régressions quadratiques, cubiques et quartiques comme dans la section ef{GraphsofPolynomials}. La raison de cela, tout comme la raison de l'absence de (R^{2}) pour le modèle logistique de la section ef{ExpLogApplications}, dépasse le cadre de ce cours. Nous devrons simplement utiliser notre propre jugement pour choisir le meilleur modèle sinusoïdal.

Mouvement harmonique

L'une des applications majeures des sinusoïdes en science et en ingénierie est l'étude du index{mouvement harmonique} extbf{mouvement harmonique}. Les équations du mouvement harmonique peuvent être utilisées pour décrire un large éventail de phénomènes, du mouvement d'un objet sur un ressort, à la réponse d'un circuit électronique. Dans cette sous-section, nous limitons notre attention à la modélisation d'un système de ressort simple. Avant de nous lancer dans les mathématiques, nous devons discuter de certains termes et concepts de physique. En physique, la « masse » est définie comme une mesure de la résistance d'un objet au mouvement en ligne droite, tandis que le « poids » est la quantité de force (traction) exercée par la gravité sur un objet. La masse d'un objet ne peut pas changer,footnote{Eh bien, en supposant que l'objet ne soit pas soumis à des vitesses relativistes dots} alors que son poids pourrait changer. Un objet qui pèse 6 livres à la surface de la Terre pèserait 1 livre à la surface de la Lune, mais sa masse est la même aux deux endroits. Dans le système d'unités anglais, « livres » (lbs.) est une mesure de force (poids), et l'unité de masse correspondante est la « slug ». Dans le système SI, l'unité de force est le « Newtons » (N) et l'unité de masse associée est le « kilogramme » (kg). Nous convertissons entre la masse et le poids en utilisant la formulefootnote{Ceci est une conséquence de la deuxième loi du mouvement de Newton (F = ma) où (F) est la force, (m) est la masse et (a ) est l'accélération. Dans notre situation actuelle, la force impliquée est le poids qui est causé par l'accélération due à la gravité.} (w = mg). Ici, (w) est le poids de l'objet, (m) est la masse et (g) est l'accélération due à la pesanteur.

Dans le système anglais, (g = 32 frac{ ext{feet}}{ ext{second}^2}), et dans le système SI, (g = 9.8frac{ ext{meters} }{ ext{second}^2}). Ainsi, sur Terre, un Masse de 1 limace pèse 32 livres et un Masse de 1kg pèse 9.8 N.footnote{Notez que (1) livre ( = 1 , frac{ ext{slug foot}}{ ext{second}^2}) et (1) Newton ( = 1 , frac{ ext{kg meter}}{ ext{second}^2}).} Supposons que nous attachions un objet de masse (m) à un ressort comme illustré ci-dessous. Le poids de l'objet étirera le ressort. Le système est dit « en équilibre » lorsque le poids de l'objet est parfaitement équilibré avec la force de rappel du ressort. La distance parcourue par le ressort pour atteindre l'équilibre dépend de la « constante de ressort » du ressort. Généralement désignée par la lettre (k), la constante de ressort relie la force (F) appliquée au ressort à la quantité (d) que le ressort s'étire conformément à href{en.Wikipedia.org/wiki /Hooke's...erline{Loi de Hooke}}footnote{Vous connaissez bien ? Nous avons vu la loi de Hooke dans la section ef{Variation}.} (F = kd). Si l'objet est relâché au-dessus ou en dessous de la position d'équilibre, ou si l'objet est relâché avec une vitesse ascendante ou descendante, l'objet rebondira de haut en bas sur l'extrémité du ressort jusqu'à ce qu'une force externe l'arrête. Si nous laissons (x(t)) dénoter le déplacement de l'objet de la position d'équilibre au temps (t), alors (x(t) = 0) signifie que l'objet est à la position d'équilibre, (x (t) < 0) signifie que l'objet est extit{au-dessus} de la position d'équilibre, et (x(t) > 0) signifie que l'objet est extit{au-dessous} de la position d'équilibre. La fonction (x(t)) est appelée 'l'équation du mouvement' de l'objet.footnote{Pour garder les unités compatibles, si nous utilisons le système anglais, nous utilisons les pieds (ft.) pour mesurer le déplacement. Si nous sommes dans le système SI, nous mesurons le déplacement en mètres (m). Le temps est toujours mesuré en secondes (s).}

Si nous ignorons toutes les autres influences sur le système à l'exception de la gravité et de la force du ressort, alors la physique nous dit que la gravité et la force du ressort se combattront pour toujours et que l'objet oscillera indéfiniment. Dans ce cas, nous décrivons le mouvement comme "libre" (ce qui signifie qu'il n'y a pas de force externe provoquant le mouvement) et "non amorti" (ce qui signifie que nous ignorons la friction causée par le milieu environnant, qui dans notre cas est l'air). Le théorème suivant, issu des Equations Différentielles, donne (x(t)) en fonction de la masse (m) de l'objet, la constante de ressort (k), le déplacement initial (x_{ ext{ iny (0)}}) de l'objet et la vitesse initiale (v_{ ext{ iny (0)}}) de l'objet. Comme avec (x(t)), (x_{ ext{ iny (0)}} = 0) signifie que l'objet est libéré de la position d'équilibre, (x_{ ext{ iny (0)}} < 0) signifie que l'objet est relâché extit{au-dessus} de la position d'équilibre et (x_{ ext{ iny (0)}}>0) signifie que l'objet est relâché extit{ci-dessous} la position d'équilibre. En ce qui concerne la vitesse initiale (v_{ ext{ iny (0)}}) est concerné, (v_{ ext{ iny (0)}} =0 ( signifie l'objet est libéré 'du repos', (v_{ ext{ iny (0)}}<0) signifie que l'objet se dirige vers extit{vers le haut} et (v_{ ext{ iny (0 )}}>0) signifie que l'objet se dirige vers le bas .footnote{Les conventions de signes ici sont reprises de la physique. Sans le ressort, l'objet tomberait vers le sol, qui est la direction « naturelle » ou « positive ». Étant donné que la force du ressort agit en opposition directe avec la gravité, tout mouvement vers le haut est considéré comme « négatif ».}

Remarque (PageIndex{1}) : équation pour le mouvement harmonique libre non amorti :

Supposons qu'un objet de masse (m) soit suspendu à un ressort de constante de ressort (k). Si le déplacement initial de la position d'équilibre est (x_{0}) et la vitesse initiale de l'objet est (v_{0}), alors le déplacement (x) de la position d'équilibre au temps ( t) est donné par (x(t) = A sin(omega t + phi)) où

  1. (omega = sqrt{dfrac{k}{m}}) et (A = sqrt{x_{ ext{ iny (0)}}^2 + left( dfrac{ v_{ ext{ iny (0)}}}{omega} ight)^2})
  2. (Asin(phi) = x_{ ext{ iny (0)}}) et (Aomegacos(phi) = v_{ ext{ iny (0 )}}).

C'est un excellent exercice d'"analyse dimensionnelle" pour vérifier que les formules données dans le théorème ef{freeundampedmotion} fonctionnent de telle sorte que (omega) a les unités (frac{1}{s}) et ( A) a des unités ft. ou m, selon le système que nous choisissons.

Exemple (PageIndex{3}): freeudampedex

Supposons qu'un objet pesant 64 livres étire un ressort de 8 pieds.

  1. Si l'objet est attaché au ressort et libéré à 3 pieds au-dessous de la position d'équilibre du repos, trouvez l'équation du mouvement de l'objet, (x(t)). Quand l'objet passe-t-il pour la première fois par la position d'équilibre ? L'objet se dirige-t-il vers le haut ou vers le bas à cet instant ?
  2. Si l'objet est attaché au ressort et relâché à 3 pieds au-dessous de la position d'équilibre avec une vitesse ascendante de (8) pieds par seconde, trouvez l'équation du mouvement de l'objet, (x(t)). Quelle est la plus longue distance parcourue par l'objet au dessus la position d'équilibre ? Quand cela se produit-il pour la première fois ? Confirmez votre résultat à l'aide d'un utilitaire graphique.

Solution

Afin d'utiliser les formules du théorème ef{freeundampedmotion}, nous devons d'abord déterminer la constante de ressort (k) et la masse de l'objet (m). Pour trouver (k), on utilise la loi de Hooke (F = kd). Nous savons que l'objet pèse (64) lbs. et étire le ressort (8) ft.. En utilisant (F = 64) et (d = 8), on obtient (64 = k cdot 8 (, ou (k = 8 frac { ext{lbs.}}{ ext{ft.}}). Pour trouver (m), nous utilisons (w = mg) avec (w = 64) lbs. et (g =32 frac{ ext{ft.}}{s^2}). Nous obtenons (m = 2) slugs. Nous pouvons maintenant procéder à l'application du théorème ef{freeundampedmotion}.

  1. Avec (k = 8) et (m = 2), on obtient (omega = sqrt{frac{k}{m}} = sqrt{frac{8}{2}} = 2). On nous dit que l'objet est relâché à 3 pieds extit{sous} la position d'équilibre 'du repos'. Cela signifie (x_{ ext{ iny (0)}} = 3) et (v_{ ext{ iny (0)}} = 0). Par conséquent, (A = sqrt{x_{ ext{ iny (0)}}^2 + left( frac{v_{ ext{ iny (0)}}}}{omega } ight)^2} = sqrt{3^2 + 0^2} = 3). Pour déterminer la phase (phi), on a (Asin(phi) = x_{ ext{ iny (0)}}), ce qui donne dans ce cas (3 sin (phi) = 3) donc (sin(phi) = 1). Seuls (phi = frac{pi}{2}) et les angles qui lui sont coterminaux satisfont à cette condition, nous choisissons doncfootnote{Pour confirmation, notons que (Aomegacos(phi) = v_{ ext{ iny (0)}}), qui dans ce cas réduit à (6cos(phi) = 0).} la phase à (phi = frac{ pi}{2}). Par conséquent, l'équation du mouvement est (x(t) = 3sinleft(2t + frac{pi}{2} ight)). Pour trouver quand l'objet passe par la position d'équilibre, nous résolvons (x(t)= 3sinleft(2t + frac{pi}{2} ight) = 0). En passant par l'analyse habituelle, nous trouvons (t = -frac{pi}{4} + frac{pi}{2} k) pour les entiers (k). Puisque nous nous intéressons au premier passage de l'objet par la position d'équilibre, nous recherchons la plus petite valeur positive (t) qui dans ce cas est (t = frac{pi}{4} approx 0.78 ) secondes après le début du mouvement. Le bon sens suggère que si nous relâchons l'objet en dessous de la position d'équilibre, l'objet devrait se déplacer vers le haut lorsqu'il le traverse pour la première fois. Pour vérifier cette réponse, nous représentons graphiquement un cycle de (x(t)). Puisque notre domaine appliqué dans cette situation est (t geq 0), et la période de (x(t)) est (T = frac{2pi}{omega} = frac{2 pi}{2} = pi), on trace (x(t)) sur l'intervalle ([0,pi]). En rappelant que (x(t) > 0) signifie que l'objet est en dessous de la position d'équilibre et (x(t) < 0) signifie que l'objet est au-dessus de la position d'équilibre, le fait que notre graphique traverse le ( t)-axe de positif (x) à négatif (x) à (t = frac{pi}{4}) confirme notre réponse.
  2. La seule différence entre ce problème et le problème précédent est que nous libérons maintenant l'objet avec une vitesse ascendante de (8 , frac{ ext{ft}}{s}). Nous avons toujours (omega = 2) et (x_{ ext{ iny (0)}} = 3), mais maintenant nous avons (v_{ ext{ iny (0 )}} = -8), le négatif indiquant la vitesse est dirigé vers le haut. Ici, on obtient (A = sqrt{x_{ ext{ iny (0)}}^2 + left( frac{v_{ ext{ iny (0)}}}{ omega} ight)^2} = sqrt{3^2 + (-4)^2} = 5). De (Asin(phi) = x_{ ext{ iny (0)}}), on obtient (5sin(phi) = 3) ce qui donne (sin( phi) = frac{3}{5}). De (Aomegacos(phi) = v_{ ext{ iny (0)}}), on obtient (10cos(phi) = -8), ou ( cos(phi) = -frac{4}{5}). Cela signifie que (phi) est un angle du quadrant II que nous pouvons décrire en termes d'arcsinus ou d'arccosinus. Puisque (x(t)) est exprimé en termes de sinus, nous choisissons d'exprimer (phi = pi - arcsinleft(frac{3}{5} ight)). Par conséquent, (x(t)= 5 sinleft(2t + left[pi - arcsinleft(frac{3}{5} ight) ight] ight)). Puisque l'amplitude de (x(t)) est (5), l'objet se déplacera au plus (5) pieds au-dessus de la position d'équilibre. Pour trouver quand cela se produit, nous résolvons l'équation (x(t)= 5 sinleft(2t + left[pi - arcsinleft(frac{3}{5} ight) ight] ight)= -5), le négatif signifiant encore une fois que l'objet est extit{au-dessus} de la position d'équilibre. En passant par les machinations habituelles, on obtient (t = frac{1}{2} arcsinleft(frac{3}{5} ight) +frac{pi}{4} + pi k ) pour les entiers (k). La plus petite de ces valeurs se produit lorsque (k=0), c'est-à-dire (t = frac{1}{2} arcsinleft(frac{3}{5} ight) +frac{ pi}{4} environ 1.107) secondes après le début du mouvement. Pour vérifier notre réponse à l'aide de la calculatrice, nous représentons graphiquement (y = 5 sinleft(2x + left[pi - arcsinleft(frac{3}{5} ight) ight] ight) ) sur un utilitaire graphique et confirmez que les coordonnées du premier minimum relatif sont approximativement ((1.107,-5)).

Il est possible, bien qu'au-delà de la portée de ce cours, de modéliser les effets du frottement et d'autres forces externes agissant sur le système.footnote{Prenez un bon cours d'équations différentielles pour voir cela !} contexte pour extit{dériver} des équations du mouvement pour ces scénarios, nous pouvons certainement les analyser. Nous examinons trois cas dans l'exemple suivant.

Exemple (PageIndex{4}): Sous-amortissement

  1. Écrivez (x(t) = 5e^{-t/5} cos(t) + 5e^{-t/5} sqrt{3} sin(t)) sous la forme (x(t ) = A(t) sin(omega t + phi)). Tracez (x(t)) à l'aide d'un utilitaire graphique.
  2. Écrivez (x(t) = (t+3)sqrt{2} cos(2t) + (t+3) sqrt{2} sin(2t)) sous la forme (x(t) = A(t) sin(omega t + phi)). Tracez (x(t)) à l'aide d'un utilitaire graphique.
  3. Trouvez la période de (x(t) = 5sin(6t) - 5sinleft(8t ight)). Tracez (x(t)) à l'aide d'un utilitaire graphique.

Solution

  1. On commence à réécrire (x(t) = 5e^{-t/5} cos(t) + 5e^{-t/5} sqrt{3} sin(t)) en factorisant (5e ^{-t/5}) des deux termes pour obtenir (x(t) = 5e^{-t/5} left( cos(t) + sqrt{3} sin(t) ight )). Nous convertissons ce qui reste entre parenthèses à la forme requise en utilisant les formules introduites dans l'exercice ef{sinusoidexercise2} de la section ef{TrigGraphs}. On trouve (left( cos(t) + sqrt{3} sin(t) ight) = 2sinleft(t+frac{pi}{3} ight)) de sorte que (x(t) = 10e^{-t/5} sinleft(t + frac{pi}{3} ight)). Représenter cela sur la calculatrice sous la forme (y = 10e^{-x/5} sinleft(x + frac{pi}{3} ight)) révèle un comportement intéressant. La nature sinusoïdale perdure indéfiniment, mais elle s'atténue. Dans la sinusoïde (A sin(omega x + phi)), le coefficient (A) de la fonction sinus est l'amplitude. Dans le cas de (y = 10e^{-x/5} sinleft(x + frac{pi}{3} ight)), on peut penser à la extit{function} ( A(x) = 10e^{-x/5}) comme amplitude. Comme (x ightarrow infty), (10e^{-x/5} ightarrow 0) ce qui signifie que l'amplitude continue de diminuer vers zéro. En effet, si l'on représente (y = pm 10e^{-x/5}) avec (y = 10e^{-x/5} sinleft(x + frac{pi}{3 } ight)), nous voyons cette atténuation se produire. Cette équation correspond au mouvement d'un objet sur un ressort où il y a une légère force qui agit pour « amortir », ou ralentir le mouvement. Un exemple de ce type de force serait le frottement de l'objet contre l'air. Dans ce modèle, l'objet oscille indéfiniment, mais avec une amplitude de plus en plus petite.
  2. En procédant comme dans le premier exemple, on factorise ((t+3)sqrt{2}) de chaque terme de la fonction (x(t) = (t+3)sqrt{2} cos( 2t) + (t+3) sqrt{2} sin(2t)) pour obtenir (x(t) = (t+3)sqrt{2}(cos(2t) + sin(2t ))). On trouve ((cos(2t) + sin(2t)) = sqrt{2} sinleft(2t + frac{pi}{4} ight)), donc (x( t) = 2(t+3) sinleft(2t + frac{pi}{4} ight)). En représentant cela sur la calculatrice sous la forme (y = 2(x+3) sinleft(2x + frac{pi}{4} ight)), nous trouvons que l'amplitude de la sinusoïde augmente. Puisque notre fonction d'amplitude ici est (A(x) = 2(x+3) = 2x+6), qui continue de croître sans limite comme (x ightarrow infty), ce n'est guère surprenant. Le phénomène illustré ici est le mouvement « forcé ». C'est-à-dire que nous imaginons que l'ensemble de l'appareil sur lequel le ressort est fixé oscille également. Dans ce cas, nous assistons à un effet de "résonance" -- la fréquence de l'oscillation externe correspond à la fréquence du mouvement de l'objet sur le ressort.footnote{Le lecteur est invité à étudier les implications destructrices de href{fr .Wikipedia.org/wiki/Resonan...{resonance}}.}
  3. Enfin, nous arrivons à (x(t) = 5sin(6t) - 5sin(8t)). Pour trouver la période de cette fonction, nous devons déterminer la longueur du plus petit intervalle sur lequel à la fois (f(t) = 5sin(6t)) et (g(t) = 5sin(8t) ) effectuer un nombre entier de cycles. Pour ce faire, nous prenons le rapport de leurs fréquences et réduisons aux termes les plus bas : (frac{6}{8} = frac{3}{4}). Cela nous dit que pour chaque (3) cycles que (f) fait, (g) fait (4). En d'autres termes, la période de (x(t)) est trois fois la période de (f(t)) (qui est quatre fois la période de (g(t))), ou ( pi). Nous représentons (y = 5sin(6x) - 5sin(8x)) sur ([0,pi]) sur la calculatrice pour vérifier cela. Cette équation de mouvement résulte également d'un mouvement « forcé », mais ici la fréquence de l'oscillation externe est différente de celle de l'objet sur le ressort. Étant donné que les sinusoïdes ici ont des fréquences différentes, elles ne sont pas synchronisées et ne s'amplifient pas comme dans l'exemple précédent. Pour aller plus loin, nous pouvons utiliser une somme pour produire l'identité pour réécrire (x(t) = 5sin(6t) - 5sin(8t)) comme (x(t) = -10 sin (t) cos(7t)). Le facteur de fréquence inférieure dans cette expression, (-10sin(t)), joue un rôle intéressant dans le graphe de (x(t)). Ci-dessous, nous représentons (y = 5sin(6x) - 5sin(8x)) et (y = pm 10 sin(x)) sur ([0,2pi]). Ceci est un exemple du phénomène de « battement », et le lecteur curieux est également invité à explorer ce concept.footnote{Un bon point de départ est cet article sur href{en.Wikipedia.org/wiki/Beat_(a ...ligne{battements}}.}

Sinusoïdes basse fréquence pour une meilleure performance de flambement par cisaillement des plaques minces

Les sinusoïdes à basse fréquence (LFS) augmentent la résistance au voilement par cisaillement des plaques d'acier minces.

Les LFS obtiennent des gains de résistance au cisaillement similaires à ceux des raidisseurs transversaux avec moins de matériau.

La fréquence est plus efficace que l'amplitude pour augmenter la résistance au cisaillement.

Une géométrie LFS standardisée peut couvrir une large gamme de profondeurs et d'épaisseurs de bande.

LFS permet aux âmes des poutres de pont d'approcher leur résistance au cisaillement plastique.


11.1.1. Lacunes de la transformée de Fourier : difficultés d'interprétation

La transformée de Fourier est impliquée dans un large éventail d'applications de traitement du signal. Cependant, malgré sa définition mathématique rigoureuse, il peut conduire à des difficultés d'interprétation physique. Il ressort, par exemple, clairement de sa définition que l'évaluation d'une valeur spectrale X(v) nécessite la connaissance de tout l'historique des signaux, de – ∞ à + ∞. De la même manière, la valeur du signal à tout moment t s'exprime par la transformée de Fourier inverse comme une superposition d'un nombre infini d'exponentielles complexes, c'est-à-dire d'ondes éternelles parfaitement délocalisées dans le domaine temporel. Si ce point de vue mathématique est capable de révéler des propriétés de signal intéressantes dans de nombreux cas, il peut aussi être parfois assez inapproprié.

C'est typiquement le cas des signaux transitoires, dont on sait qu'ils sont bornés dans le temps. L'analyse de Fourier peut fournir cette image du signal, mais de manière quelque peu artificielle, c'est-à-dire comme une somme d'un nombre infini de sinusoïdes virtuelles qui s'annulent. Par conséquent, on obtient un zéro « dynamique » sur un intervalle de temps où le signal s'annule, alors que d'un point de vue physique ce devrait être un zéro « statique », puisque le signal n'existe pas sur cet intervalle. De plus, l'analyse de Fourier exprime un signal d'énergie finie comme une superposition linéaire de signaux de base d'énergie infinie.

Ces difficultés d'interprétation physique suggèrent que la transformée de Fourier devrait .

Avoir Traitement du signal numérique à l'aide de Matlab maintenant avec l'apprentissage en ligne O'Reilly.

Les membres O'Reilly bénéficient d'une formation en ligne en direct, ainsi que de livres, de vidéos et de contenu numérique de plus de 200 éditeurs.


Caractéristiques cliniques du syndrome d'obstruction sinusoïdale hépatique : analyse de 8 cas]

Objectif: Étudier le diagnostic et le traitement du syndrome d'obstruction sinusoïdale (SOS).

Méthodes : Les données de 8 patients atteints de SOS, y compris les manifestations cliniques, les résultats de laboratoire, l'imagerie, la pathologie et le déroulement du diagnostic et du traitement ont été examinées. Tous les cas ont été suivis.

Résultats: Les principales manifestations cliniques comprenaient une distension abdominale, une hépatalgie et des signes d'ascite et d'hépatomégalie. Il y avait des lésions hépatocellulaires légères ou modérées chez 6 patients et des lésions lourdes chez 2. Le gradient sérum-ascite albumine de tous les patients dépassait 11,1 g/L. Les niveaux de CA125 à la fois dans le sérum et dans l'ascite ont augmenté de manière significative. L'échographie de tous les patients a montré une hépatomégalie, l'apparition d'une hypertension portale et des veines hépatiques atténuées. Un flux sanguin inversé dans la veine porte a été observé dans 5 cas. L'imagerie par résonance magnétique a montré que l'agent de contraste s'accumulait de manière inégale dans le foie à la fois pendant la période portale et la période de latence, mais qu'il remplissait mal les veines hépatiques. La biopsie hépatique per cutsem a montré que les sinusoïdes hépatiques de tous les patients étaient congestionnés, mais une occlusion veinulaire n'a été observée que dans 3 cas. Cinq cas avaient été mal diagnostiqués. Un patient a guéri après transplantation hépatique, 4 patients ont récupéré progressivement par traitement à l'héparine et ainsi de suite et 3 patients sont décédés.

Conclusion : Des signes d'hypertension portale exceptionnelle avec une lésion hépatocellulaire légère sont la principale caractéristique clinique du SOS. Les taux sériques et d'ascite de CA125 chez les patients SOS sont significativement élevés. Le taux d'erreurs de diagnostic de SOS est assez élevé, l'échographie et l'imagerie par résonance magnétique ont une valeur significative dans le diagnostic et le diagnostic différentiel, tandis que la valeur de la biopsie hépatique per cutsem est limitée. La combinaison de l'imagerie et de la pathologie devrait contribuer à un diagnostic correct du SOS. L'application d'un anticoagulant au début de l'évolution est vitale, une transplantation hépatique doit être envisagée dans les cas graves.


Caractéristiques

Utilisation intensive des démos en ligne – Utilise des démos pour l'analyse des données afin de permettre aux étudiants de visualiser les résultats de première main.

Utilisation de MATLAB (version 7.0) pour générer des implémentations informatiques des techniques d'analyse et de conception des signaux et des systèmes – Donne aux étudiants la possibilité de vérifier des théories et d'expérimenter des applications des techniques étudiées.

• Large gamme d'exemples et de problèmes sur différents domaines de l'ingénierie – Touche des domaines allant des circuits électriques et des systèmes mécaniques aux dispositifs électromécaniques, tels qu'un moteur à courant continu.

Chapitres sur le contrôle de rétroaction, le filtrage numérique et la représentation d'état – Préparer les étudiants aux cours optionnels de niveau supérieur sur ces sujets.

• Time-domain aspects of signals and systems (Chs. 1 and 2) – Discusses the basic properties of signals and systems, the discrete-time convolution model, the input/output difference equation model, the input/output differential equation model, and the continuous-time convolution model.

Frequency-domain aspects of signals and systems – Begins with signals that are a sum of sinusoids, then addresses the Fourier series representation of periodic signals, the Fourier transform of nonperiodic signals, and the use of the Fourier transform in the study of signal modulation.

Fourier analysis of discrete-time signals – Focuses on the discrete-time Fourier transform (DTFT) and the discrete Fourier transform (DFT).

Fourier theory applied to the study of both continuous-time and discrete-time systems – Reviews applications to ideal analog filtering, sampling, signal reconstruction, and digital filtering.

Study of the Laplace transform – Begins with the definition and properties, as well the transfer function representation of linear time-invariant continuous-time systems.

• Introduction of the z-transform and the transfer function representation of linear time-invariant discrete-time systems – Completes the discussion of the frequency response function first considered in Chapter 5.

Analysis of linear time-invariant continuous-time systems – Uses the transfer function representation to carry out this analysis.

Transfer function framework – Applied to the problem of control (Ch. 9).

• Laplace and z-transform frameworks – Applied to the design of digital filters and controllers (Ch. 10).

• Fundamentals of the state description of linear time-invariant continuous-time and discrete-time systems – Discussed in Ch.11.

Nouveau dans cette édition

• Completely updated Companion Web-site (http://users.ece.gatech.edu/

bonnie/book3) — Includes new and modified MATLAB M-files and data files used in the Third Edition, plus additional worked problems, on-line demos, and a MATLAB tutorial.

• Substantially revised material on signals — Discusses how to download signals (time series) from the Web and analyze the data includes details on common types of digital filters, such as moving average and exponential moving average filters, with applications to filtering data downloaded from the Web addresses signal analysis using the DFT to extract the dominant cyclic components of a signal.

• New section with examples of Fourier transforms — Illustrates the spectral content of common types of signals.

• Significantly restructured for greater usability — Reduces the degree of mathematical complexity and includes new practical applications involving downloaded data and other illustrations.

• New illustrations and end-of-chapter summaries — Give additional insight into the meaning and significance of the mathematical formulations and material covered in each chapter.

• Flexible organization of content — Allows instructors to adapt the presentation for use in either a one-quarter or one-semester course.

• Focus on the problem of data analysis in the presence of noise — Addresses the issue of noise, which often arises in engineering, business, finance, and other fields.

• Major enhancement of the MATLAB component — Uses the MATLAB

Symbolic Math Toolbox throughout the text to complement and simplify various computational aspects of the theory and examples provided. Examples illustrate how this tool can be used to solve differential equations, evaluate integrals for computing system responses, and for computing Fourier and Laplace transforms, and inverse transforms, including inverse z-transforms.

• Enhanced material on control systems — Includes the description of a digital control lab project based on a LEGO â Mindstorm kit, which provides students with hands-on experience in designing and implementing digital controllers for a dc motor.


Adaptive Parameter Identification of Sinusoidal Signals

A novel adaptive identification framework is proposed for sinusoidal signals to estimate all unknown parameters (i.e. offset, amplitude, frequency and phase). The proposed identification is independent of any observer/predictor design and thus can be implemented in a simplified manner. The adaptive laws are driven by appropriate parameter error information derived by applying filter operations on the output measurements. Globally exponential convergence of the parameter estimation is proved. The proposed idea is further extended for multi-sinusoid signals and verified in terms of simulations.


Linear Systems and Signals, Third Edition, has been refined and streamlined to deliver unparalleled coverage and clarity. It emphasizes a physical appreciation of concepts through heuristic reasoning and the use of metaphors, analogies, and creative explanations. The text uses mathematics not only to prove axiomatic theory but also to enhance physical and intuitive understanding. Hundreds of fully worked examples provide a hands-on, practical grounding of concepts and theory. Its thorough content, practical approach, and structural adaptability make Linear Systems and Signals, Third Edition, the ideal text for undergraduates.

PREFACE xv
B BACKGROUND
B.1 Complex Numbers 1
B.1-1 A Historical Note 1
B.1-2 Algebra of Complex Numbers 5
B.2 Sinusoids 16
B.2-1 Addition of Sinusoids 18
B.2-2 Sinusoids in Terms of Exponentials 20
B.3 Sketching Signals 20
B.3-1 Monotonic Exponentials 20
B.3-2 The Exponentially Varying Sinusoid 22
B.4 Cramer’s Rule 23
B.5 Partial Fraction Expansion 25
B.5-1 Method of Clearing Fractions 26
B.5-2 The Heaviside “Cover-Up” Method 27
B.5-3 Repeated Factors of Q(x) 31
B.5-4 A Combination of Heaviside “Cover-Up” and Clearing Fractions 32
B.5-5 Improper F(x) with m = n 34
B.5-6 Modified Partial Fractions 35
B.6 Vectors and Matrices 36
B.6-1 Some Definitions and Properties 37
B.6-2 Matrix Algebra 38
B.7 MATLAB: Elementary Operations 42
B.7-1 MATLAB Overview 42
B.7-2 Calculator Operations 43
B.7-3 Vector Operations 45
B.7-4 Simple Plotting 46
B.7-5 Element-by-Element Operations 48
B.7-6 Matrix Operations 49
B.7-7 Partial Fraction Expansions 53
B.8 Appendix: Useful Mathematical Formulas 54
B.8-1 Some Useful Constants 54
v
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page vi — #6
vi Contents
B.8-2 Complex Numbers 54
B.8-3 Sums 54
B.8-4 Taylor and Maclaurin Series 55
B.8-5 Power Series 55
B.8-6 Trigonometric Identities 55
B.8-7 Common Derivative Formulas 56
B.8-8 Indefinite Integrals 57
B.8-9 L’Hôpital’s Rule 58
B.8-10 Solution of Quadratic and Cubic Equations 58
References 58
Problems 59
1 SIGNALS AND SYSTEMS
1.1 Size of a Signal 64
1.1-1 Signal Energy 65
1.1-2 Signal Power 65
1.2 Some Useful Signal Operations 71
1.2-1 Time Shifting 71
1.2-2 Time Scaling 73
1.2-3 Time Reversal 76
1.2-4 Combined Operations 77
1.3 Classification of Signals 78
1.3-1 Continuous-Time and Discrete-Time Signals 78
1.3-2 Analog and Digital Signals 78
1.3-3 Periodic and Aperiodic Signals 79
1.3-4 Energy and Power Signals 82
1.3-5 Deterministic and Random Signals 82
1.4 Some Useful Signal Models 82
1.4-1 The Unit Step Function u(t) 83
1.4-2 The Unit Impulse Function δ(t) 86
1.4-3 The Exponential Function est 89
1.5 Even and Odd Functions 92
1.5-1 Some Properties of Even and Odd Functions 92
1.5-2 Even and Odd Components of a Signal 93
1.6 Systems 95
1.7 Classification of Systems 97
1.7-1 Linear and Nonlinear Systems 97
1.7-2 Time-Invariant and Time-Varying Systems 102
1.7-3 Instantaneous and Dynamic Systems 103
1.7-4 Causal and Noncausal Systems 104
1.7-5 Continuous-Time and Discrete-Time Systems 107
1.7-6 Analog and Digital Systems 109
1.7-7 Invertible and Noninvertible Systems 109
1.7-8 Stable and Unstable Systems 110
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page vii — #7
Contents vii
1.8 System Model: Input–Output Description 111
1.8-1 Electrical Systems 111
1.8-2 Mechanical Systems 114
1.8-3 Electromechanical Systems 118
1.9 Internal and External Descriptions of a System 119
1.10 Internal Description: The State-Space Description 121
1.11 MATLAB: Working with Functions 126
1.11-1 Anonymous Functions 126
1.11-2 Relational Operators and the Unit Step Function 128
1.11-3 Visualizing Operations on the Independent Variable 130
1.11-4 Numerical Integration and Estimating Signal Energy 131
1.12 Summary 133
References 135
Problems 136
2 TIME-DOMAIN ANALYSIS OF CONTINUOUS-TIME SYSTEMS
2.1 Introduction 150
2.2 System Response to Internal Conditions: The Zero-Input Response 151
2.2-1 Some Insights into the Zero-Input Behavior of a System 161
2.3 The Unit Impulse Response h(t) 163
2.4 System Response to External Input: The Zero-State Response 168
2.4-1 The Convolution Integral 170
2.4-2 Graphical Understanding of Convolution Operation 178
2.4-3 Interconnected Systems 190
2.4-4 A Very Special Function for LTIC Systems:
The Everlasting Exponential est 193
2.4-5 Total Response 195
2.5 System Stability 196
2.5-1 External (BIBO) Stability 196
2.5-2 Internal (Asymptotic) Stability 198
2.5-3 Relationship Between BIBO and Asymptotic Stability 199
2.6 Intuitive Insights into System Behavior 203
2.6-1 Dependence of System Behavior on Characteristic Modes 203
2.6-2 Response Time of a System: The System Time Constant 205
2.6-3 Time Constant and Rise Time of a System 206
2.6-4 Time Constant and Filtering 207
2.6-5 Time Constant and Pulse Dispersion (Spreading) 209
2.6-6 Time Constant and Rate of Information Transmission 209
2.6-7 The Resonance Phenomenon 210
2.7 MATLAB: M-Files 212
2.7-1 Script M-Files 213
2.7-2 Function M-Files 214
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page viii — #8
viii Contents
2.7-3 For-Loops 215
2.7-4 Graphical Understanding of Convolution 217
2.8 Appendix: Determining the Impulse Response 220
2.9 Summary 221
References 223
Problems 223
3 TIME-DOMAIN ANALYSIS OF DISCRETE-TIME SYSTEMS
3.1 Introduction 237
3.1-1 Size of a Discrete-Time Signal 238
3.2 Useful Signal Operations 240
3.3 Some Useful Discrete-Time Signal Models 245
3.3-1 Discrete-Time Impulse Function δ[n] 245
3.3-2 Discrete-Time Unit Step Function u[n] 246
3.3-3 Discrete-Time Exponential γ n 247
3.3-4 Discrete-Time Sinusoid cos( n+θ ) 251
3.3-5 Discrete-Time Complex Exponential ej n 252
3.4 Examples of Discrete-Time Systems 253
3.4-1 Classification of Discrete-Time Systems 262
3.5 Discrete-Time System Equations 265
3.5-1 Recursive (Iterative) Solution of Difference Equation 266
3.6 System Response to Internal Conditions: The Zero-Input Response 270
3.7 The Unit Impulse Response h[n] 277
3.7-1 The Closed-Form Solution of h[n] 278
3.8 System Response to External Input: The Zero-State Response 280
3.8-1 Graphical Procedure for the Convolution Sum 288
3.8-2 Interconnected Systems 294
3.8-3 Total Response 297
3.9 System Stability 298
3.9-1 External (BIBO) Stability 298
3.9-2 Internal (Asymptotic) Stability 299
3.9-3 Relationship Between BIBO and Asymptotic Stability 301
3.10 Intuitive Insights into System Behavior 305
3.11 MATLAB: Discrete-Time Signals and Systems 306
3.11-1 Discrete-Time Functions and Stem Plots 306
3.11-2 System Responses Through Filtering 308
3.11-3 A Custom Filter Function 310
3.11-4 Discrete-Time Convolution 311
3.12 Appendix: Impulse Response for a Special Case 313
3.13 Summary 313
Problems 314
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page ix — #9
Contents ix
4 CONTINUOUS-TIME SYSTEM ANALYSIS USING
THE LAPLACE TRANSFORM
4.1 The Laplace Transform 330
4.1-1 Finding the Inverse Transform 338
4.2 Some Properties of the Laplace Transform 349
4.2-1 Time Shifting 349
4.2-2 Frequency Shifting 353
4.2-3 The Time-Differentiation Property 354
4.2-4 The Time-Integration Property 356
4.2-5 The Scaling Property 357
4.2-6 Time Convolution and Frequency Convolution 357
4.3 Solution of Differential and Integro-Differential Equations 360
4.3-1 Comments on Initial Conditions at 0− and at 0+ 363
4.3-2 Zero-State Response 366
4.3-3 Stability 371
4.3-4 Inverse Systems 373
4.4 Analysis of Electrical Networks: The Transformed Network 373
4.4-1 Analysis of Active Circuits 382
4.5 Block Diagrams 386
4.6 System Realization 388
4.6-1 Direct Form I Realization 389
4.6-2 Direct Form II Realization 390
4.6-3 Cascade and Parallel Realizations 393
4.6-4 Transposed Realization 396
4.6-5 Using Operational Amplifiers for System Realization 399
4.7 Application to Feedback and Controls 404
4.7-1 Analysis of a Simple Control System 406
4.8 Frequency Response of an LTIC System 412
4.8-1 Steady-State Response to Causal Sinusoidal Inputs 418
4.9 Bode Plots 419
4.9-1 Constant Ka1a2/b1b3 422
4.9-2 Pole (or Zero) at the Origin 422
4.9-3 First-Order Pole (or Zero) 424
4.9-4 Second-Order Pole (or Zero) 426
4.9-5 The Transfer Function from the Frequency Response 435
4.10 Filter Design by Placement of Poles and Zeros of H(s) 436
4.10-1 Dependence of Frequency Response on Poles
and Zeros of H(s) 436
4.10-2 Lowpass Filters 439
4.10-3 Bandpass Filters 441
4.10-4 Notch (Bandstop) Filters 441
4.10-5 Practical Filters and Their Specifications 444
4.11 The Bilateral Laplace Transform 445
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page x — #10
x Contents
4.11-1 Properties of the Bilateral Laplace Transform 451
4.11-2 Using the Bilateral Transform for Linear System Analysis 452
4.12 MATLAB: Continuous-Time Filters 455
4.12-1 Frequency Response and Polynomial Evaluation 456
4.12-2 Butterworth Filters and the Find Command 459
4.12-3 Using Cascaded Second-Order Sections for Butterworth
Filter Realization 461
4.12-4 Chebyshev Filters 463
4.13 Summary 466
References 468
Problems 468
5 DISCRETE-TIME SYSTEM ANALYSIS USING THE z-TRANSFORM
5.1 The z-Transform 488
5.1-1 Inverse Transform by Partial Fraction Expansion and Tables 495
5.1-2 Inverse z-Transform by Power Series Expansion 499
5.2 Some Properties of the z-Transform 501
5.2-1 Time-Shifting Properties 501
5.2-2 z-Domain Scaling Property (Multiplication by γ n) 505
5.2-3 z-Domain Differentiation Property (Multiplication by n) 506
5.2-4 Time-Reversal Property 506
5.2-5 Convolution Property 507
5.3 z-Transform Solution of Linear Difference Equations 510
5.3-1 Zero-State Response of LTID Systems: The Transfer Function 514
5.3-2 Stability 518
5.3-3 Inverse Systems 519
5.4 System Realization 519
5.5 Frequency Response of Discrete-Time Systems 526
5.5-1 The Periodic Nature of Frequency Response 532
5.5-2 Aliasing and Sampling Rate 536
5.6 Frequency Response from Pole-Zero Locations 538
5.7 Digital Processing of Analog Signals 547
5.8 The Bilateral z-Transform 554
5.8-1 Properties of the Bilateral z-Transform 559
5.8-2 Using the Bilateral z-Transform for Analysis of LTID Systems 560
5.9 Connecting the Laplace and z-Transforms 563
5.10 MATLAB: Discrete-Time IIR Filters 565
5.10-1 Frequency Response and Pole-Zero Plots 566
5.10-2 Transformation Basics 567
5.10-3 Transformation by First-Order Backward Difference 568
5.10-4 Bilinear Transformation 569
5.10-5 Bilinear Transformation with Prewarping 570
5.10-6 Example: Butterworth Filter Transformation 571
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xi — #11
Contents xi
5.10-7 Problems Finding Polynomial Roots 572
5.10-8 Using Cascaded Second-Order Sections to Improve Design 572
5.11 Summary 574
References 575
Problems 575
6 CONTINUOUS-TIME SIGNAL ANALYSIS: THE FOURIER SERIES
6.1 Periodic Signal Representation by Trigonometric Fourier Series 593
6.1-1 The Fourier Spectrum 598
6.1-2 The Effect of Symmetry 607
6.1-3 Determining the Fundamental Frequency and Period 609
6.2 Existence and Convergence of the Fourier Series 612
6.2-1 Convergence of a Series 613
6.2-2 The Role of Amplitude and Phase Spectra in Waveshaping 615
6.3 Exponential Fourier Series 621
6.3-1 Exponential Fourier Spectra 624
6.3-2 Parseval’s Theorem 632
6.3-3 Properties of the Fourier Series 635
6.4 LTIC System Response to Periodic Inputs 637
6.5 Generalized Fourier Series: Signals as Vectors 641
6.5-1 Component of a Vector 642
6.5-2 Signal Comparison and Component of a Signal 643
6.5-3 Extension to Complex Signals 645
6.5-4 Signal Representation by an Orthogonal Signal Set 647
6.6 Numerical Computation of Dn 659
6.7 MATLAB: Fourier Series Applications 661
6.7-1 Periodic Functions and the Gibbs Phenomenon 661
6.7-2 Optimization and Phase Spectra 664
6.8 Summary 667
References 668
Problems 669
7 CONTINUOUS-TIME SIGNAL ANALYSIS: THE FOURIER
TRANSFORM
7.1 Aperiodic Signal Representation by the Fourier Integral 680
7.1-1 Physical Appreciation of the Fourier Transform 687
7.2 Transforms of Some Useful Functions 689
7.2-1 Connection Between the Fourier and Laplace Transforms 700
7.3 Some Properties of the Fourier Transform 701
7.4 Signal Transmission Through LTIC Systems 721
7.4-1 Signal Distortion During Transmission 723
7.4-2 Bandpass Systems and Group Delay 726
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xii — #12
xii Contents
7.5 Ideal and Practical Filters 730
7.6 Signal Energy 733
7.7 Application to Communications: Amplitude Modulation 736
7.7-1 Double-Sideband, Suppressed-Carrier (DSB-SC) Modulation 737
7.7-2 Amplitude Modulation (AM) 742
7.7-3 Single-Sideband Modulation (SSB) 746
7.7-4 Frequency-Division Multiplexing 749
7.8 Data Truncation: Window Functions 749
7.8-1 Using Windows in Filter Design 755
7.9 MATLAB: Fourier Transform Topics 755
7.9-1 The Sinc Function and the Scaling Property 757
7.9-2 Parseval’s Theorem and Essential Bandwidth 758
7.9-3 Spectral Sampling 759
7.9-4 Kaiser Window Functions 760
7.10 Summary 762
References 763
Problems 764
8 SAMPLING: THE BRIDGE FROM CONTINUOUS
TO DISCRETE
8.1 The Sampling Theorem 776
8.1-1 Practical Sampling 781
8.2 Signal Reconstruction 785
8.2-1 Practical Difficulties in Signal Reconstruction 788
8.2-2 Some Applications of the Sampling Theorem 796
8.3 Analog-to-Digital (A/D) Conversion 799
8.4 Dual of Time Sampling: Spectral Sampling 802
8.5 Numerical Computation of the Fourier Transform:
The Discrete Fourier Transform 805
8.5-1 Some Properties of the DFT 818
8.5-2 Some Applications of the DFT 820
8.6 The Fast Fourier Transform (FFT) 824
8.7 MATLAB: The Discrete Fourier Transform 827
8.7-1 Computing the Discrete Fourier Transform 827
8.7-2 Improving the Picture with Zero Padding 829
8.7-3 Quantization 831
8.8 Summary 834
References 835
Problems 835
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xiii — #13
Contents xiii
9 FOURIER ANALYSIS OF DISCRETE-TIME SIGNALS
9.1 Discrete-Time Fourier Series (DTFS) 845
9.1-1 Periodic Signal Representation by Discrete-Time Fourier Series 846
9.1-2 Fourier Spectra of a Periodic Signal x[n] 848
9.2 Aperiodic Signal Representation
by Fourier Integral 855
9.2-1 Nature of Fourier Spectra 858
9.2-2 Connection Between the DTFT and the z-Transform 866
9.3 Properties of the DTFT 867
9.4 LTI Discrete-Time System Analysis by DTFT 878
9.4-1 Distortionless Transmission 880
9.4-2 Ideal and Practical Filters 882
9.5 DTFT Connection with the CTFT 883
9.5-1 Use of DFT and FFT for Numerical Computation of the DTFT 885
9.6 Generalization of the DTFT to the z-Transform 886
9.7 MATLAB: Working with the DTFS and the DTFT 889
9.7-1 Computing the Discrete-Time Fourier Series 889
9.7-2 Measuring Code Performance 891
9.7-3 FIR Filter Design by Frequency Sampling 892
9.8 Summary 898
Reference 898
Problems 899
10 STATE-SPACE ANALYSIS
10.1 Mathematical Preliminaries 909
10.1-1 Derivatives and Integrals of a Matrix 909
10.1-2 The Characteristic Equation of a Matrix:
The Cayley–Hamilton Theorem 910
10.1-3 Computation of an Exponential and a Power of a Matrix 912
10.2 Introduction to State Space 913
10.3 A Systematic Procedure to Determine State Equations 916
10.3-1 Electrical Circuits 916
10.3-2 State Equations from a Transfer Function 919
10.4 Solution of State Equations 926
10.4-1 Laplace Transform Solution of State Equations 927
10.4-2 Time-Domain Solution of State Equations 933
10.5 Linear Transformation of a State Vector 939
10.5-1 Diagonalization of Matrix A 943
10.6 Controllability and Observability 947
10.6-1 Inadequacy of the Transfer Function Description of a System 953
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xiv — #14
xiv Contents
10.7 State-Space Analysis of Discrete-Time Systems 953
10.7-1 Solution in State Space 955
10.7-2 The z-Transform Solution 959
10.8 MATLAB: Toolboxes and State-Space Analysis 961
10.8-1 z-Transform Solutions to Discrete-Time, State-Space Systems 961
10.8-2 Transfer Functions from State-Space Representations 964
10.8-3 Controllability and Observability of Discrete-Time Systems 965
10.8-4 Matrix Exponentiation and the Matrix Exponential 968
10.9 Summary 969
References 970
Problems 970
INDEX 975


Morphological mechanisms for regulating blood flow through hepatic sinusoids

Department of Cell Biology and Anatomy, College of Medicine, University of Arizona, Tucson, AZ, U.S.A.

Department of Cell Biology and Anatomy, College of Medicine, University of Arizona, Tucson, AZ, U.S.A.

Abstrait

Abstrait: This review summarizes what is known about the various morphological sites that regulate the distribution of blood flow to and from the sinusoids in the hepatic microvascular system. These sites potentially include the various segments of the afferent portal venules and hepatic arterioles, the sinusoids themselves, and central and hepatic venules. Given the paucity of smooth muscle in the walls of these vessels, various sinusoidal lining cells have been suggested to play a role in regulating the diameters of sinusoids and influencing the distribution and velocity of blood flow in these vessels. While sinusoidal endothelial cells have been demonstrated to be contractile and to exhibit sphincter function, attention has recently focused on the perisinusoidal stellate cell as the cell responsible for controlling the sinusoidal diameter. A very recent study, however, suggested that the principal site of vasoconstriction elicited by ET-1 was the pre-terminal portal venule. This raised the question of whether or not the diameters of sinusoids might decrease due to passive recoil when inflow is reduced or eliminated and intra-sinusoidal pressure falls. In more recent in vivo microscopic studies, clamping of the portal vein dramatically reduced sinusoidal blood flow as well as the diameters of sinusoids. The sinusoidal lumens rapidly returned to their initial diameters upon restoration of portal blood flow suggesting that sinusoidal blood pressure normally distends the sinusoidal wall which can recoil when the pressure drops. Stellate cells may be responsible for this reaction given the nature of their attachment to parenchymal cells by obliquely oriented microprojections from the lateral edges of their subendothelial processes. This suggests that care must be exercised when interpreting the mechanism for the reduction of sinusoidal diameters following drug administration without knowledge of changes occurring to the portal venous and hepatic inflow.


Les références

Braeuning A, Singh Y, Rignall B, Buchmann A, Hammad S, Othman A, von Recklinghausen I, Godoy P, Hoehme S, Drasdo D, Hengstler JG, Schwarz M (2010) Phenotype and growth behavior of residual β-catenin-positive hepatocytes in livers of β-catenin-deficient mice. Histochem Cell Biol 134(5):469–481

Godoy P, Lakkapamu S, Schug M, Bauer A, Stewart JD, Bedawi E, Hammad S, Amin J, Marchan R, Schormann W, Maccoux L, von Recklinghausen I, Reif R, Hengstler JG (2010) Dexamethasone-dependent versus-independent markers of epithelial to mesenchymal transition in primary hepatocytes. Biol Chem 391(1):73–83

Godoy P, Hewitt NJ, Albrecht U et al (2013) Recent advances in 2D and 3D in vitro systems using primary hepatocytes, alternative hepatocyte sources and non-parenchymal liver cells and their use in investigating mechanisms of hepatotoxicity, cell signaling and ADME. Arch Toxicol 87:1315–1530

Hoehme S, Drasdo D (2010) A cell-based simulation software for multi-cellular systems. Bioinformatics 26(20):2641–2642

Hoehme S, Brulport M, Bauer A, Bedawy E, Schormann W, Hermes M, Puppe V, Gebhardt R, Zellmer S, Schwarz M, Bockamp E, Timmel T, Hengstler JG, Drasdo D (2010) Prediction and validation of cell alignment along microvessels as order principle to restore tissue architecture in liver regeneration. Proc Natl Acad Sci USA 107(23):10371–10376

Höhme S, Hengstler JG, Brulport M, Schäfer M, Bauer A, Gebhardt R, Drasdo D (2007) Mathematical modelling of liver regeneration after intoxication with CCl4. Chem Biol Interact 168(1):74–93

Marguet D, Baggio L, Kobayashi T, Bernard AM, Pierres M, Nielsen PF, Ribel U, Watanabe T, Drucker DJ, Wagtmann N (2000) Enhanced insulin secretion and improved glucose tolerance in mice lacking CD26. Proc Natl Acad Sci USA 97(12):6874–6879

Nussler AK, Wildemann B, Freude T, Litzka C, Soldo P, Friess H, Hammad S, Hengstler JG, Braun KF, Trak-Smayra V, Godoy P, Ehnert S (2014) Chronic CCl4 intoxication causes liver and bone damage similar to the human pathology of hepatic osteodystrophy: a mouse model to analyse the liver-bone axis. Arch Toxicol 88(4):997–1006

Rogler CE, Zhou HC, LeVoci L, Rogler LE (2007) Clonal, cultured, murine fetal liver hepatoblasts maintain liver specification in chimeric mice. Hepatology 46(6):1971–1978

Schliess F, Hoehme S, Henkel SG, Ghallab A, Driesch D, Böttger J, Guthke R, Pfaff M, Hengstler JG, Gebhardt R, Häussinger D, Drasdo D, Zellmer S (2014) Integrated metabolic spatial-temporal model for the prediction of ammonia detoxification during liver damage and regeneration. Hepatology. doi:10.1002/hep.27136

Schreiber S, Rignall B, Braeuning A, Marx-Stoelting P, Ott T, Buchmann A, Hammad S, Hengstler JG, Schwarz M, Köhle C (2011) Phenotype of single hepatocytes expressing an activated version of β-catenin in liver of transgenic mice. J Mol Histol 42(5):393–400

Tarantola E, Bertone V, Milanesi G, Capelli E, Ferrigno A, Neri D, Vairetti M, Barni S, Freitas I (2012) Dipeptidylpeptidase-IV, a key enzyme for the degradation of incretins and neuropeptides: activity and expression in the liver of lean and obese rats. Eur J Histochem 56(4):e41


9 Answers 9

Negative frequency doesn't make much sense for sinusoids, but the Fourier transform doesn't break up a signal into sinusoids, it breaks it up into complex exponentials (also called "complex sinusoids" or "cisoids"):

These are actually spirals, spinning around in the complex plane:

Spirals can be either left-handed or right-handed (rotating clockwise or counterclockwise), which is where the concept of negative frequency comes from. You can also think of it as the phase angle going forward or backward in time.

In the case of real signals, there are always deux equal-amplitude complex exponentials, rotating in opposite directions, so that their real parts combine and imaginary parts cancel out, leaving only a real sinusoid as the result. This is why the spectrum of a sine wave always has 2 spikes, one positive frequency and one negative. Depending on the phase of the two spirals, they could cancel out, leaving a purely real sine wave, or a real cosine wave, or a purely imaginary sine wave, etc.

The negative and positive frequency components sommes both necessary to produce the real signal, but if you already know that it's a real signal, the other side of the spectrum doesn't provide any extra information, so it's often hand-waved and ignored. For the general case of complex signals, you need to know both sides of the frequency spectrum.

Let's say you had a spinning wheel. How would you describe how fast it is spinning? You'd probably say it's spinning at X revolutions per minute (rpm). Now how do you convey in what direction it's spinning with this number? It's the same X rpm if it's spinning clockwise or anti-clockwise. So you scratch your head and say oh well, here's a smart idea: I'll use the convention of +X to indicate that it's spinning clockwise and -X for anti-clockwise. Voila! You've invented negative rpms!

Negative frequency is no different from the above simple example. A simple mathematical explanation of how the negative frequency pops up can be seen from the Fourier transforms of pure tone sinusoids.

Consider the Fourier transform pair of a complex sinusoid: $e^longleftrightarrow delta(omega+omega_0)$ (ignoring constant multiplier terms). For a pure sinusoid (real), we have from Euler's relation:

and hence, its Fourier transform pair (again, ignoring constant multipliers):

$cos(omega_0 t)longleftrightarrow delta(omega+omega_0) + delta(omega-omega_0)$

You can see that it has two frequencies: a positive one at $omega_0$ and a negative one at $-omega_0$ by definition! The complex sinusoid of $ae^$ is widely used because it is incredibly useful in simplifying our mathematical calculations. However, it has only one frequency and a real sinusoid actually has two.

Currently, my viewpoint (it is subject to change) is the following

For sinusoidal repetition only positive frequencies makes sense. The physical interpretation is clear. For complex exponential repetition both positive and negative frequencies makes sense. It may be possible to attach a physical interpretation to negative frequency. That physical interpretation of negative frequency has to do with direction of repetition.

The definition of frequency as provided on wiki is: "Frequency is the number of occurrences of a repeating event per unit time"

If sticking to this definition negative frequency does not make sense and therefore has no physical interpretation. However, this definition of frequency is not thorough for complex exponential repetition which can also have direction.

Negative frequencies are used all the time when doing signal or system analysis. The fundamental reason for this being the Euler formula $e^ = cos( omega n) + j, sin(omega n)$ and the fact that complex exponentials are eigenfunctions of LTI systems.

The sinusoidal repetition is normally of interest and the complex exponential repetition is often used to obtain the sinusoidal repetition indirectly. That the two are related can be easily seen by considering the Fourier representation written using complex exponentials e.g. $ x[n]= frac<1> <2pi>int_<-pi>^!!!domega X(e^) e^ $

However, this is equivalent to

$ x[n] = frac<1> <2pi>int_<0>^!!domega [a(omega) cos(omega n) + b(omega) sin(omega n)] = frac<1> <2pi>int_<0>^!!domega alpha(omega) sin(omega n + phi(omega))] $

So instead of considering a positive 'sinusoidal frequency axis', a negative and positive 'complex exponential frequency axis' is considered. On the 'complex exponential frequency axis', for real signals, it is well known that the negative frequency part is redundant and only the positive 'complex exponential frequency axis' is considered. In making this step implicitly we know that the frequency axis represents complex exponential repetition and not sinusoidal repetition.

The complex exponential repetition is a circular rotation in the complex plane. In order to create a sinusoidal repetition it takes two complex exponential repetitions, one repetition clock-wise and one repetition counter clock-wise. If a physical device is constructed that produces a sinusoidal repetition inspired by how the sinusoidal repetition is created in the complex plane, that is, by two physically rotating devices that rotates in opposite directions, one of the rotating devices can be said to have a negative frequency and thereby the negative frequency has a physical interpretation.

In many common applications negative frequencies have no direct physical meaning at all. Consider a case where there is an input and an output voltage in some electrical circuit with resistors, capacitors, and inductors. There is simply a real input voltage with one frequency and there is a single output voltage with the same frequency but different amplitude and phase.

The ONLY reason why you would consider complex signals, complex Fourier Transforms and phasor math at this point is mathematically convenience. You could do it just as well with entirely real math, it would just be a lot harder.

There are different types of time/frequency transforms. The Fourier Transform uses a complex exponential as its basis function and applied to a single real-valued sine wave happens to produces a two valued results which is interpreted as positive and negative frequency. There are other transforms (like the Discrete Cosine Transform) which would not produce any negative frequencies at all. Again, it’s a matter of mathematical convenience the Fourier Transform is often the quickest and most efficient way to solve a specific problem.

You should study the Fourier transform or series to understand the negative frequency. Indeed Fourier showed that we can show all of waves using some sinusoids. Each sinusoid can be shown with two peaks at the frequency of this wave one in positive side and one in negative. So the theoretical reason is clear. But for the physical reason, I always see that people say negative frequency has just mathematical meaning. But I guess a physical interpretation that I'm not pretty sure When you study the circular motion as the principal of discussions about the waves, the direction of speed of the movement on the half-circle is inverse of the another half. This can be the reason why we have two peaks in both sides of the frequency domain for each sine wave.

What is the meaning of negative distance? One possibility is that it's for continuity, so you don't have to flip planet Earth upside down every time you walk across the equator, and want to plot your position North with a continuous 1st derivative.

Same with frequency, when one might do such things as FM modulation with a modulation wider than the carrier frequency. How would you plot that?

An easy way of thinking about the problem is to imaging a standing wave. The standing wave (in time domain) can be represented as a sum of two oppositely moving traveling waves (in frequency domain with positive and negative k vector, or +w and -w which is equivalent). Here comes the answer on why you have two frequency components in the FFT. FFT is basically a sum (convolution) of many of such oppositely traveling waves that represent your function in time domain.

Used to be to get the right answer for power you had to double the answer. But if you integrate from minus infinity to plus infinity you get the right answer without the arbitrary double. So they said there must be negative frequecies. But no one has ever really found them. They are therefore imaginary or at least from a physical point of view unexplained.

This has turned out to be quite the hot topic.

After reading the rich multitude of good and diverse opinions and interpretations and letting the issue simmer in my head for sometime, I believe I have a physical interpretation of the phenomenon of negative frequencies. And I believe the key interpretation here is that fourier is blind to time. Expaning on this further:

There has been a lot of talk about the 'direction' of the frequency, and thus how it can be +ve or -ve. While the overarching insights of the authors saying this is not lost, this statement is nontheless inconsistent with the definition of temporal frequency, so first we must define our terms very carefully. Par exemple:

Distance is a scalar (can only ever be +ve), while displacement is a vector. (ie, has direction, can be +ve or -ve to illustrate heading).

Speed is a scalar (can only be +ve), while velocity is a vector. (ie, again, has direction, and can be +ve or -ve).

  • Temporal Frequency is a scalar, (can only be +ve)! Frequency is defined as number of cycles per unit time. If this is the accepted definition, we ne peux pas simply claim that it is going in 'a different direction'. Its a scalar after-all. Instead, we must define a new term - the vector equivalent of frequency. Perhaps 'angular frequency' would be the right terminology here, and indeed, that is precisely what a digital frequency measures.

Now all the sudden we are in the business of measuring number of rotations per unit time, (a vector quantity that can have direction), VS just the number of repititions of some physical oscillation.

Thus when we are asking about the physical interpretation of negative frequencies, we are also implicitly asking about how the scalar and very real measures of number of oscillations per unit time of some physical phenomenon like waves on a beach, sinusoidal AC current over a wire, map to this angular-frequency that now all the sudden happens to have direction, either clockwise or counterclockwise.

From here, to arrive at a physical interpretation of negative frequencies two facts need to be heeded. The first one is that as Fourier pointed out, an oscillatory real tone with scalar temporal frequency, f, can be constructed by adding two oscillatory complex tones, with vector angular frequencies, +w and -w together.

Thats great, but so what? Well, the complex tones are rotating in directions opposite to each other. (See also Sebastian's comment). But what is the significance of the 'directions' here that give our angular frequencies their vector status? What physical quantity is being reflected in the direction of rotation? The answer is time. In the first complex tone, time is travelling in the +ve direction, and in the second complex tone, time is travelling in the -ve direction. Time is going backwards.

Keeping this in mind and taking a quick diversion to recall that temporal frequency is the first derivative of phase with respect to time, (simply the change of phase over time), everything begins to fall into place:

The physical interpretation of negative frequencies is as follows:

My first realization was that fourier is time-agnostic. That is, if you think about it, there is nothing in fourier analysis or the transform itself that can tell you what the 'direction' of time is. Now, imagine a physically oscillating system (ie a real sinusoid from say, a current over a wire) that is oscillating at some scalar temporal-frequency, f.

Imagine 'looking' down this wave, in the forwards direction of time as it progresses. Now imagine calculating its difference in phase at every point in time you progress further. This will give you your scalar temporal frequency, and your frquency is positive. So far so good.

But wait a minute - if fourier is blind to time, then why should it only consider your wave in the 'forward' time direction? There is nothing special about that direction in time. Thus by symmetry, the other direction of time must also be considered. Thus now imagine 'looking' up at the same wave, (ie, backwards dans le temps), et en effectuant également le même calcul de phase delta. Puisque le temps recule maintenant et que votre fréquence est à changement de phase/(temps négatif), votre fréquence sera maintenant négative !

Ce que Fourier dit vraiment, c'est que ce signal a de l'énergie s'il est joué dans le temps à la fréquence bin f, mais a AUSSI de l'énergie s'il est joué en arrière dans le temps mais à la fréquence bin -f. En un sens, il DOIT le dire parce que Fourier n'a aucun moyen de « savoir » quelle est la « vraie » direction du temps !

Alors, comment Fourier capture-t-il cela? Eh bien, afin de montrer le direction du temps, une sorte de rotation doit être utilisé de telle sorte qu'une rotation dans le sens des aiguilles d'une montre traite de « regarder » le signal dans la flèche vers l'avant du temps, et une rotation dans le sens inverse des aiguilles d'une montre traite de « regarder » le signal comme si le temps reculait. La fréquence temporelle scalaire que nous connaissons tous devrait maintenant être égale à la valeur absolue (mise à l'échelle) de notre fréquence angulaire vectorielle. Mais comment un point signifiant le déplacement d'une onde sinusoïdale peut-il arriver à son point de départ après un cycle tout en tournant simultanément autour d'un cercle et maintenir une manifestation de la fréquence temporelle qu'il signifie ? Seulement si les grands axes de ce cercle sont composés de la mesure du déplacement de ce point par rapport à la sinusoïde d'origine, et d'une sinusoïde décalée de 90 degrés. (C'est exactement de cette façon que Fourier obtient ses bases sinus et cosinus contre lesquelles vous projetez chaque fois que vous effectuez une DFT !). Et enfin, comment garder ces axes séparés ? Le 'j' garantit que la magnitude sur chaque axe est toujours indépendante de la magnitude sur l'autre, car les nombres réels et imaginaires ne peuvent pas être ajoutés pour donner un nouveau nombre dans l'un ou l'autre domaine. (Mais ce n'est qu'une remarque).

La transformée de Fourier est indépendante du temps. Il ne peut pas dire la direction du temps. C'est au cœur des fréquences négatives. Puisque fréquence = changement de phase/temps, chaque fois que vous prenez la DFT d'un signal, Fourier dit que si le temps avançait, votre énergie se situe sur l'axe des fréquences +ve, mais si votre temps reculait, votre énergie est situé sur l'axe des fréquences -ve.

Comme notre univers l'a déjà montré, c'est précisément parce que Fourier ne connaît pas la direction du temps, que les deux côtés de la DFT doit être symétrique, et pourquoi l'existence de fréquences négatives est nécessaire et en fait bien réelle.


Voir la vidéo: Phasage expérimental: le remplacement isomorphe (Décembre 2021).