Des articles

17.4 : Analyse quantitative


Lorsque nous travaillons avec un grand nombre de variables qui décrivent des aspects d'un phénomène (par exemple, des éléments d'un test en tant que mesures multiples du trait sous-jacent de "maîtrise du sujet"), nous concentrons souvent notre attention sur ce que ces mesures multiples ont " en commun". En utilisant des informations sur la co-variation parmi les multiples mesures, nous pouvons déduire une dimension ou un facteur sous-jacent ; une fois cela fait, nous pouvons situer nos observations le long de cette dimension. L'approche de localisation, ou de notation, des cas individuels en termes de leurs scores sur les facteurs de la variance commune entre plusieurs indicateurs est l'objectif de l'analyse des facteurs et des composantes (et d'autres techniques de mise à l'échelle moins courantes).

Si nous pensons à notre problème à deux modes, nous pourrions appliquer cette logique de "mise à l'échelle" aux acteurs ou aux événements. C'est-à-dire que nous pourrions « échelonner » ou indexer la similitude des acteurs en termes de participation aux événements - mais pondérer les événements en fonction de la variance commune entre eux. De même, nous pourrions « échelonner » les événements en termes de schémas de co-participation des acteurs - mais pondérer les acteurs en fonction de leur fréquence de co-occurrence. Des techniques comme Outils>MDS et l'analyse des facteurs ou des composantes principales pourrait être utilisée pour « mettre à l'échelle » les acteurs ou les événements.

Il est également possible d'appliquer ce type de logique de mise à l'échelle aux données acteur par événement. UCINET comprend deux techniques d'analyse factorielle étroitement liées (Outils>Mise à l'échelle 2 modes>SVD et Outils>Analyse factorielle d'échelle à 2 modes) qui examinent simultanément la variance en commun entre les acteurs et les événements. UCINET comprend également Outils>Mise à l'échelle à 2 modes>Correspondance qui applique la même logique aux données binaires. Une fois que les dimensions sous-jacentes de la variance conjointe ont été identifiées, nous pouvons alors « mapper » à la fois les acteurs et les événements dans le même « espace ». Cela nous permet de voir quels acteurs sont similaires en termes de participation à des événements (qui ont été pondérés pour refléter des modèles communs), quels événements sont similaires en termes de quels acteurs y participent (pondérés pour refléter des modèles communs) et quels acteurs et les événements sont situés "proche" les uns des autres.

Il est parfois possible d'interpréter les facteurs ou les dimensions sous-jacents pour comprendre pourquoi les acteurs et les événements vont de pair comme ils le font. Plus généralement, des groupes d'acteurs et d'événements situés de manière similaire peuvent former des « types » ou des « domaines » significatifs d'action sociale.

Ci-dessous, nous appliquerons très brièvement ces outils aux données sur les grands donateurs aux initiatives californiennes sur la période 2000-2004. Notre objectif est d'illustrer la logique de la mise à l'échelle à 2 modes. La discussion ici est très courte sur les traitements techniques des différences (importantes) entre les techniques.

Analyse SVD à deux modes

La décomposition en valeur singulière (SVD) est une méthode d'identification des facteurs sous-jacents aux données bimodes (évaluées). La méthode d'extraction des facteurs (valeurs singulières) diffère quelque peu de l'analyse factorielle et composante conventionnelle, c'est donc une bonne idée d'examiner à la fois les résultats de la factorisation SVD et 2-mode.

Pour illustrer le SVD, nous avons entré une matrice de 23 principaux donateurs (ceux qui ont donné un total combiné de plus de 1 000 000 $ à cinq campagnes ou plus) par 44 initiatives de vote en Californie. Chaque acteur est noté -1 s'il a contribué en opposition à l'initiative, +1 s'il a contribué en faveur de l'initiative, ou 0 s'il n'a pas contribué. La matrice résultante est constituée de données valorisées qui peuvent être examinées avec SVD et analyse factorielle ; cependant, le faible nombre de contributeurs à de nombreuses initiatives et la variance très restreinte de l'échelle ne sont pas idéales.

La figure 17.6 montre les « valeurs singulières » extraites de la matrice rectangulaire donateur par initiative en utilisant Outils>Mise à l'échelle 2 modes>SVD.

17.6 : Mise à l'échelle bimodale des donateurs et des initiatives californiennes par décomposition en valeur unique : valeurs singulières

Les « valeurs singulières » sont analogues aux « valeurs propres » dans les techniques de mise à l'échelle des facteurs et des composants les plus courantes. Le résultat montre ici que l'« espace » conjoint de la variance entre bailleurs et initiatives n'est pas bien saisi par une simple caractérisation. Si nous pouvions facilement donner un sens aux modèles avec des idées comme "gauche/droite" et "financière/morale" comme dimensions sous-jacentes, il n'y aurait que quelques valeurs singulières qui expliqueraient des parties substantielles de la variance articulaire. Ce résultat nous dit que la manière dont les acteurs et les événements « se mettent ensemble » n'est pas propre, simple et facile - dans ce cas.

Avec cette mise en garde importante à l'esprit, nous pouvons examiner comment les événements et les donateurs sont « mis à l'échelle » ou situés sur les dimensions sous-jacentes. Premièrement, les initiatives de vote. La figure 17.7 montre l'emplacement ou les scores d'échelle de chacune des propositions de vote sur les six premières dimensions sous-jacentes de cet espace hautement multidimensionnel.

Graphique 17.7 : Donateurs et initiatives SVD de Californie : mise à l'échelle des initiatives

Il s'avère que la première dimension tend à localiser les initiatives soutenant les dépenses publiques pour l'éducation et la protection sociale vers un pôle, et les initiatives soutenant la limitation du pouvoir législatif vers l'autre - bien que de telles interprétations soient entièrement subjectives. La deuxième dimension et les dimensions supérieures semblent suggérer que les initiatives peuvent également être considérées comme différentes les unes des autres par d'autres aspects.

Dans le même temps, les résultats nous permettent de localiser ou de redimensionner les donateurs selon les mêmes dimensions sous-jacentes. Ces chargements sont illustrés à la figure 17.8.

Graphique 17.8 : Donateurs et initiatives SVD de Californie : mise à l'échelle des donateurs

Vers l'extrémité positive de la dimension un (que nous avons précédemment interprétée comme favorisant les dépenses publiques), nous trouvons le parti démocrate, les employés publics et les syndicats d'enseignants ; au pôle opposé, on trouve des républicains et quelques groupes d'entreprises et professionnels.

Il est souvent utile de visualiser les emplacements des acteurs et des événements dans un nuage de points défini par des scores d'échelle sur les différentes dimensions. La carte de la figure 17.9 montre les résultats pour les deux premières dimensions de cet espace.

Graphique 17.9 : Donateurs et initiatives SVD de Californie : carte en deux dimensions

Notons que la première dimension (gauche-droite sur la figure) semble avoir ses pôles « ancrés » par les différences entre les initiatives ; la deuxième dimension (haut-bas) semble être définie davantage par les différences entre les groupes (à l'exception de la proposition 56). Le résultat ne localise pas proprement et clairement des événements particuliers et des acteurs particuliers le long de fortes dimensions linéaires. Cependant, il produit des grappes intéressantes qui montrent des groupes d'acteurs ainsi que les problèmes qui sont au cœur de leurs modèles de participation. Les démocrates et les syndicats se regroupent (en haut à droite) avec un certain nombre de propositions particulières dans lesquelles ils ont été très actifs (par exemple 46, 63). Groupe d'entreprises, de construction et de capital-risque (plus vaguement) en bas à droite, ainsi que les questions fondamentales qui ont constitué leur programme principal dans le processus d'initiative (par exemple, la proposition 62).

Analyse factorielle à deux modes

L'analyse factorielle fournit une méthode alternative à la SVD pour atteindre les mêmes objectifs : identifier les dimensions sous-jacentes de l'espace conjoint de la variance acteur par événement, et localiser ou mettre à l'échelle les acteurs et les événements dans cet espace. La méthode utilisée par l'analyse factorielle pour identifier les dimensions diffère de la SVD. La figure 17.10 montre les valeurs propres (par composantes principales) calculées par Outils>Mise à l'échelle à 2 modes>Analyse factorielle.

Graphique 17.10 : Valeurs propres de l'affacturage bimodal des donateurs et initiatives californiens

Cette solution, bien que différente de la SVD, suggère également une complexité dimensionnelle considérable dans la variance conjointe des acteurs et des événements. C'est-à-dire que des caractérisations simples des dimensions sous-jacentes (par exemple « gauche/droite ») ne fournissent pas de prédictions très précises sur les emplacements des acteurs ou des événements individuels. La méthode d'analyse factorielle produit une complexité légèrement inférieure à celle de la SVD.

En gardant à l'esprit la mise en garde d'un ajustement assez médiocre d'une solution de faible dimension, examinons la mise à l'échelle des acteurs sur les trois premiers facteurs (Figure 17.11)

17.11 : Chargements des donateurs

Le premier facteur, par cette méthode, produit un modèle similaire à SVD. À un pôle se trouvent les démocrates et les syndicats, à l'autre se trouvent de nombreux groupes capitalistes. Il existe cependant quelques différences notables (par exemple AFSCME). La figure 17.12 montre les chargements des événements.

Graphique 17.12 : Chargements d'événements

Les modèles ici ont également une certaine similitude avec les résultats SVD, mais diffèrent considérablement dans les détails. Pour visualiser les modèles, les chargements des acteurs et des événements sur les dimensions pourraient être extraits des fichiers de données de sortie et représentés graphiquement à l'aide d'un nuage de points.

Analyse des correspondances à deux modes

Pour les données binaires, l'utilisation de l'analyse factorielle et du SVD n'est pas recommandée. Les méthodes de factorisation opèrent sur les matrices de variance/covariance ou de corrélation entre les acteurs et les événements. Lorsque les connexions des acteurs aux événements sont mesurées au niveau binaire (ce qui est très souvent le cas dans l'analyse de réseau), les corrélations peuvent sérieusement sous-estimer la covariance et rendre les modèles difficiles à discerner.

Comme alternative à la mise à l'échelle binaire acteur par événement, la méthode d'analyse des correspondances (Outils>Mise à l'échelle à 2 modes>Correspondance) peut être utilisé. L'analyse des correspondances (plutôt que l'analyse des classes latentes) fonctionne sur des tableaux croisés binaires multivariés, et ses hypothèses de distribution sont mieux adaptées aux données binaires.

Pour illustrer l'application de l'analyse des correspondances, nous avons dichotomisé les données des donateurs politiques et des initiatives en attribuant une valeur de 1 si un acteur a fait un don en faveur ou contre une initiative, et en attribuant un zéro s'il n'a pas participé à la campagne. d'une initiative particulière. Si nous voulions que notre analyse prête attention à la partisanerie, plutôt qu'à la simple participation, nous aurions pu créer deux ensembles de données - l'un basé sur l'opposition ou non, l'autre basé sur le soutien ou non - et faire deux analyses de correspondance distinctes.

La figure 17.13 montre la localisation des événements (initiatives) selon trois dimensions de l'espace conjoint acteur-événement identifié par la méthode d'analyse des correspondances.

Graphique 17.13 : Coordonnées de l'événement pour la co-participation des donateurs aux campagnes de l'initiative californienne

Étant donné que ces données ne reflètent pas la partisanerie, mais uniquement la participation, nous ne nous attendrions pas à ce que les résultats correspondent à ceux discutés dans les sections ci-dessus. Et, ils ne le font pas. Nous voyons cependant que cette méthode peut également être utilisée pour localiser les initiatives selon de multiples dimensions sous-jacentes qui capturent la variance à la fois des acteurs et des événements. La figure 17.14 montre la mise à l'échelle des acteurs.

Graphique 17.14 : L'acteur coordonne la co-participation des donateurs aux campagnes de l'initiative californienne

La première dimension présente ici une certaine similitude avec les pôles démocrate/syndical versus capitaliste. Ici, cependant, cette différence signifie que les deux groupements ont tendance à participer à des groupes d'initiatives différents, plutôt que de s'affronter dans les mêmes campagnes.

La visualisation est souvent la meilleure approche pour trouver des modèles significatifs (en l'absence d'une théorie solide). La figure 17.15 montre le tracé des acteurs et des événements dans les deux premières dimensions de l'espace d'analyse conjointe des correspondances.

Graphique 17.15 : Carte bidimensionnelle d'analyse des correspondances

Le quadrant inférieur droit contient ici un groupe significatif d'acteurs et d'événements, et illustre comment les résultats de l'analyse des correspondances peuvent être interprétés. En bas à droite, nous avons quelques propositions concernant les jeux de casino indiens (68 et 70) et deux propositions concernant les questions écologiques/de conservation (40 et 50). Deux des principales nations amérindiennes (les bandes Cahualla et Morongo des Indiens de la mission) sont cartographiées ensemble. Le résultat montre qu'il existe un ensemble de problèmes qui « coexistent » avec un ensemble de donateurs - les acteurs définissant les événements et les événements définissant les acteurs.


Comprendre l'analyse qualitative et quantitative

Dans le domaine des relations publiques et des communications, il est essentiel d'utiliser à la fois une pensée quantitative et qualitative. Cependant, les deux sont souvent confondus. En conséquence, les professionnels des relations publiques et des communications tentent parfois d'attribuer des pseudo-mesures arbitraires au travail qualitatif (un processus connu sous le nom de « faire des chiffres »), ou tentent d'influencer l'analyse quantitative avec des perspectives qualitatives.

Mélanger l'un ou l'autre diminue gravement la crédibilité du praticien des relations publiques et diminue la confiance que nous accordent nos parties prenantes, nos dirigeants et nos clients.

Distinguons les deux.

Analyse qualitative signifie fondamentalement mesurer quelque chose par sa qualité plutôt que par sa quantité. Lorsque nous effectuons une analyse qualitative, nous explorons la façon dont nous décrivons quelque chose. Très souvent, nous ne pouvons pas utiliser de nombres ou d'expressions numériques pour décrire ces choses. Lorsque nous faisons un travail qualitatif, nous travaillons avec des descriptions. Nous travaillons avec des sentiments, des pensées, des perceptions. Nous essayons de comprendre les motivations et les comportements.

Analyse quantitative est le contraire de mesurer par la quantité plutôt que par la qualité. Lorsque nous effectuons une analyse quantitative, nous explorons des faits, des mesures, des nombres et des pourcentages. Lorsque nous effectuons un travail quantitatif, nous travaillons avec des nombres, des statistiques, des formules et des données.

Les analyses qualitatives et quantitatives sont d'une importance vitale pour les relations publiques.


17.4 : Analyse quantitative

La spectrométrie de masse est un outil important utilisé par de nombreux scientifiques à travers le monde. Néanmoins, les commentaires sur les forces et les limites des logiciels actuels se limitent souvent à des anecdotes plutôt qu'à des enquêtes formelles. Au cours de 100 entretiens sur l'état des logiciels de spectrométrie de masse, des tendances surprenantes se sont fusionnées sur plusieurs sujets : perception de la frontière, perception de la qualité des logiciels et différences entre les environnements commerciaux et à but non lucratif. Plus particulièrement, les entretiens ont suggéré un schisme substantiel entre la satisfaction des utilisateurs avec les logiciels actuels et les perceptions des développeurs sur la qualité des logiciels. Les réponses anonymisées des scientifiques sont présentées et résumées dans leurs suggestions pour améliorer l'état de l'art.

Articles de recherche
Étendre la couverture du protéome en combinant des méthodes MS/MS et une plate-forme bioinformatique modifiée adaptée pour la recherche dans les bases de données des spectres de masse de photodissociation ultraviolette de polarité positive et négative de 193 nm
  • Sylvestre M. Greer ,
  • Maréchal Berne,
  • Christophe Becker et
  • Jennifer S. Brodbelt*

Pour étendre la couverture du protéome obtenue à partir des approches de spectrométrie de masse ascendante, trois méthodes d'activation ionique complémentaires, la dissociation par collision à plus haute énergie (HCD), la photodissociation ultraviolette (UVPD) et l'UVPD en mode négatif (NUVPD), sont utilisées pour interroger les peptides tryptiques dans un lysat d'hépatocytes humains à l'aide d'un spectromètre de masse Orbitrap haute performance. L'utilité de combiner les résultats de plusieurs techniques d'activation (HCD+UVPD+NUVPD) est analysée pour la profondeur et l'étendue totales de la couverture du protéome. Cette étude évalue également une nouvelle version de l'algorithme Byonic, qui a été personnalisé pour les recherches dans les bases de données des données UVPD et NUVPD. Les recherches utilisant l'algorithme personnalisé ont abouti à plus de 50 % d'identifications de peptides supplémentaires pour les ensembles de données de peptides trypsiques UVPD et NUVPD par rapport aux autres algorithmes de recherche. L'inclusion des spectres UVPD et NUVPD a entraîné plus de 600 identifications de protéines supplémentaires par rapport au HCD seul.

Interactome haute confiance pour RNF41 basé sur plusieurs tests orthogonaux
  • Delphine Masschaele ,
  • Joris Wauman,
  • Giel Vandemoortele,
  • Delphine De Sutter,
  • Leentje De Ceuninck ,
  • Sven Eyckerman* , et
  • Jan Tavernier*

La protéine Ring Finger 41 (RNF41) est une ubiquitine ligase E3 impliquée dans l'ubiquitination et la dégradation de nombreuses protéines, notamment les récepteurs ErbB3, BIRC6 et parkin. À côté de cela, RNF41 régule le trafic intracellulaire de certains récepteurs de cytokines associés à JAK2 en ubiquitinant et en supprimant USP8, ce qui, à son tour, déstabilise le complexe ESCRT-0. Pour élucider davantage la fonction de RNF41, nous avons utilisé différentes approches orthogonales pour révéler le complexe protéique RNF41 : purification par affinité-spectrométrie de masse, BioID et Virotrap. Nous avons combiné ces résultats avec des ensembles de données connus pour RNF41 obtenus avec des écrans de microarray MAPPIT et Y2H. De cette façon, nous établissons un réseau d'interactomes complet à haute résolution comprenant 175 partenaires protéiques candidats. Pour supprimer les artefacts méthodologiques potentiels de ce réseau, nous avons distillé les données dans une carte d'interactome de haute confiance en conservant un total de 19 hits de protéines identifiés dans deux ou plusieurs des méthodes orthogonales. AP2S1, un nouveau partenaire d'interaction RNF41, a été sélectionné à partir de cet interactome de haute confiance pour une validation fonctionnelle plus poussée. Nous révélons un rôle pour AP2S1 dans la signalisation des récepteurs de la leptine et du LIF et montrons que RNF41 stabilise et relocalise AP2S1.

Caractérisation de la biosynthèse de l'acide indole-3-acétique et effets de cette phytohormone sur le protéome du microbe associé aux plantes Pantoea sp. YR343
  • Kasey Estenson,
  • Gregory B. Hurst ,
  • Robert F. Standaert ,
  • Ambre N. Bible ,
  • David Garcia,
  • Karuna Chourey,
  • Mitchel J. Doktycz et
  • Jennifer L. Morrell-Falvey*

L'acide indole-3-acétique (IAA) joue un rôle central dans la croissance et le développement des plantes, et de nombreux microbes associés aux plantes produisent de l'IAA en utilisant le tryptophane comme précurseur. À l'aide d'analyses génomiques, nous avons prédit que Pantoea sp. YR343, un microbe isolé de Populus deltoides, synthétise l'IAA en utilisant la voie indole-3-pyruvate (IPA). Pour mieux comprendre la biosynthèse de l'IAA et les effets de l'exposition à l'IAA sur la physiologie cellulaire, nous avons caractérisé les protéomes de Pantoea sp. YR343 cultivé en présence de tryptophane ou d'IAA. L'exposition à l'IAA a entraîné une régulation à la hausse des protéines censées fonctionner dans le transport des glucides et des acides aminés et la biosynthèse des exopolysaccharides (EPS). Les profils des métabolites des cellules de type sauvage ont montré la production d'IPA, d'IAA et de tryptophol, ce qui correspond à une voie d'IPA active. Enfin, nous avons construit un mutant ΔipdC qui a montré l'élimination du tryptophol, compatible avec une perte d'activité IpdC, mais était toujours capable de produire de l'IAA (20 % des niveaux de type sauvage). Bien que nous n'ayons pas réussi à détecter les intermédiaires d'autres voies de biosynthèse connues de l'IAA, ce résultat suggère la possibilité d'une voie alternative ou la production d'IAA par une voie non enzymatique chez Pantoea sp. YR343. Le mutant ΔipdC a été capable de coloniser efficacement le peuplier, ce qui suggère qu'une voie IPA active n'est pas requise pour l'association des plantes.

La métabolomique révèle que l'activation des récepteurs d'hydrocarbures aryliques induit un dysfonctionnement métabolique du foie et des glandes mammaires chez les souris allaitantes
  • Kerry R. Belton,
  • Yuan Tian,
  • Limin Zhang,
  • Mallappa Anitha ,
  • Philippe B. Smith,
  • Gary H. Perdew et
  • Andrew D. Patterson*

Le foie et la glande mammaire ont des rôles métaboliques complémentaires pendant la lactation. Les substrats synthétisés par le foie sont libérés dans la circulation et sont absorbés par la glande mammaire pour la production de lait.Le récepteur d'hydrocarbure aryle (AHR) a été identifié comme un régulateur de lactation chez la souris, et son activation a été associée à une myriade de défauts morphologiques, moléculaires et fonctionnels tels que le développement des glandes rabougries, une diminution de la production de lait et des changements dans l'expression des gènes. Dans cette étude, nous avons identifié des changements métaboliques indésirables dans le réseau de lactation (mammaire, foie et sérum) associés à l'activation de l'AHR en utilisant une métabolomique basée sur la résonance magnétique nucléaire (RMN) 1H. Des souris enceintes exprimant Ahrd (faible affinité) ou Ahrb (haute affinité) ont été nourries avec des régimes contenant de la bêta-naphtoflavone (BNF), un puissant agoniste de l'AHR. L'analyse métabolomique mammaire, sérique et hépatique a identifié des changements significatifs dans les intermédiaires du cycle des lipides et du TCA chez les souris Ahrb. Nous avons observé une diminution des taux d'acides aminés et de glucose dans les extraits de glande mammaire de souris Ahrb nourries avec du BNF. Le sérum de souris Ahrb nourries avec du BNF présentait des changements significatifs dans les LDL/VLDL (augmentés) et les HDL, PC et GPC (diminués). L'analyse PCR quantitative a révélé une réduction d'environ 50 % de l'expression des principaux gènes mammaires de la lactogenèse, notamment la protéine acide de lactosérum, la α-lactalbumine et la β-caséine. Nous avons également observé des perturbations morphologiques et développementales dans la glande mammaire qui sont cohérentes avec les rapports précédents. Nos observations soutiennent que l'activité AHR contribue à la régulation du métabolisme dans le réseau de lactation.

Priorisation systématique des protéines pour des études protéomiques ciblées grâce à l'exploration de la littérature
  • Kun-Hsing Yu,
  • Tsung-Lu Michael Lee,
  • Chi-Shiang Wang,
  • Yu-Ju Chen,
  • Christophe Ré,
  • Samuel C. Kou,
  • Jung Hsien Chiang* ,
  • Isaac S. Kohane* , et
  • Michael Snyder*

Il y a plus de 3,7 millions d'articles publiés sur les fonctions biologiques ou les implications des protéines sur les maladies, constituant une ressource importante de connaissances en protéomique. Cependant, il est difficile de résumer manuellement les millions de découvertes en protéomique dans la littérature et de quantifier leur pertinence pour la biologie et les maladies d'intérêt. Nous avons développé un cadre bioinformatique entièrement automatisé pour identifier et hiérarchiser les protéines associées à toute entité biologique. Nous avons utilisé les 22 domaines ciblés du projet Biology/Disease-driven (B/D)-Human Proteome Project (HPP) comme exemples, hiérarchisé les protéines pertinentes grâce à leurs scores de moteur de recherche de référence universel pour les protéines (PURPOSE), validé la pertinence du score en comparant les résultats de la hiérarchisation des protéines avec une base de données organisée, calculé les scores des protéines sur les sujets de B/D-HPP et caractérisé les principales protéines dans les organismes modèles communs. Nous avons encore étendu le flux de travail bioinformatique pour identifier les protéines pertinentes dans tous les systèmes organiques et les maladies humaines et déployé un outil basé sur le cloud pour hiérarchiser les protéines liées à tous les termes de recherche personnalisés en temps réel. Notre outil peut faciliter la priorisation des protéines pour tout système organique ou maladie d'intérêt et peut contribuer au développement d'études protéomiques ciblées pour la médecine de précision.

Peptidomique différentielle induite par l'accouplement de neuropeptides et d'hormones protéiques dans Agrotis ipsilon Les mites
  • Max Diesner,
  • Aurore Gallot,
  • Hellena Binz,
  • Cyril Gaertner,
  • Simon Vitecek,
  • Jörg Kahnt,
  • Joachim Schachtner,
  • Emmanuelle Jacquin-Joly, et
  • Christophe Gadenne*

Chez de nombreux insectes, l'accouplement induit des changements drastiques dans les réponses des mâles et des femelles aux phéromones sexuelles ou aux odeurs de la plante hôte. Chez le papillon mâle Agrotis ipsilon, l'accouplement induit une inhibition transitoire des réponses comportementales et neuronales à la phéromone sexuelle femelle. Comme les neuropeptides et les hormones peptidiques régulent la plupart des processus comportementaux, nous émettons l'hypothèse qu'ils pourraient être impliqués dans cette plasticité olfactive dépendante de l'accouplement. Ici, nous avons utilisé le séquençage d'ARN de nouvelle génération et une combinaison de chromatographie liquide, de spectrométrie de masse à temps de vol à ionisation par désorption laser assistée par matrice (MALDI-TOF) et de profilage direct des tissus pour analyser le transcriptome et le peptidome de différents compartiments du cerveau dans des zones vierges et mâles et femelles accouplés d'A. ipsilon. Nous avons identifié 37 transcrits codant pour des précurseurs de neuropeptides putatifs et 54 neuropeptides bioactifs putatifs à partir de 23 précurseurs de neuropeptides (70 séquences au total, 25 précurseurs de neuropeptides) dans différentes zones du système nerveux central, y compris les lobes antennaires, le ganglion gnathal et les corps cardiaques-corps. complexe allata. Les comparaisons entre les mâles et les femelles vierges et accouplés ont révélé des différences spécifiques aux tissus dans la composition peptidique entre les sexes et selon l'état physiologique. Les mâles accouplés ont montré des différences après l'accouplement dans l'occurrence des neuropeptides, ce qui pourrait participer à la plasticité olfactive induite par l'accouplement.

La suppression de la triglycéride lipase adipeuse lie l'accumulation de triacylglycérol à un phénotype plus agressif dans les cellules de carcinome pulmonaire A549
  • Tamara Tomin,
  • Katarina Fritz,
  • Juergen Gindlhuber,
  • Linda Waldherr,
  • Bettina Pucher,
  • Gerhard G. Thallinger,
  • Daniel K. Nomura ,
  • Matthias Schittmayer et
  • Ruth Birner Gruenberger*

La triglycéride lipase adipeuse (ATGL) catalyse l'étape limitante de la dégradation des triacylglycérols dans les adipocytes, mais elle est exprimée dans la plupart des tissus. Il a été démontré que l'enzyme est perdue dans de nombreuses tumeurs humaines, et sa perte peut jouer un rôle dans les premiers stades du développement du cancer. Nous rapportons ici que la perte d'ATGL prend en charge un phénotype de cancer plus agressif dans un système modèle dans lequel ATGL a été supprimé dans les cellules cancéreuses du poumon A549 par CRISPR/Cas9. Nous avons observé que la perte d'ATGL entraînait une accumulation de triacylglycérol dans les gouttelettes lipidiques et des niveaux plus élevés de phospholipides cellulaires et d'espèces lipidiques bioactives (lyso- et éther-phospholipides). La protéomique quantitative sans marqueur a révélé une expression élevée de la kinase pro-oncogène SRC dans les cellules appauvries en ATGL, qui a également été trouvée au niveau de l'ARNm et confirmée au niveau des protéines par Western blot. Constamment, une expression plus élevée de SRC phosphorylée (active) (Y416 phospho-SRC) a été observée dans les cellules ATGL-KO. Les cellules appauvries en ATGL ont migré plus rapidement, ce qui dépendait de l'activité de la kinase SRC. Nous proposons que la perte d'ATGL peut ainsi augmenter l'agressivité du cancer par l'activation de la signalisation pro-oncogène via la kinase SRC et l'augmentation des niveaux de lipides bioactifs.

Évaluation systématique de l'utilisation du plasma et du sérum humains pour la protéomique au fusil de chasse basée sur la spectrométrie de masse
  • Jiayi Lan,
  • Antonio Nuñez Galindo ,
  • James Doecke,
  • Christophe Fowler,
  • Ralph N. Martins ,
  • Stéphanie R. Rainey-Smith ,
  • Ornella Cominetti , et
  • Loïc Dayon*

Au cours des deux dernières décennies, le plasma EDTA a été utilisé comme matrice d'échantillon préférée pour le profilage protéomique du sang humain. Le sérum a également été largement utilisé. Seules quelques études ont évalué la différence et la pertinence des profils de protéome obtenus à partir d'échantillons de plasma, tels que plasma EDTA ou lithium-héparine-plasma, et de sérum. Une évaluation plus complète de l'utilisation du plasma EDTA, du plasma héparine et du sérum élargirait considérablement l'exhaustivité de la protéomique au fusil de chasse des échantillons de sang. Dans cette étude, nous avons évalué l'utilisation de l'héparine-plasma par rapport au plasma EDTA et au sérum pour profiler les protéomes sanguins à l'aide d'un pipeline protéomique automatisé évolutif (ASAP2). L'utilisation de plasma et de sérum pour la protéomique au fusil de chasse basée sur la spectrométrie de masse a d'abord été testée avec des échantillons groupés commerciaux. La cohérence de la couverture du protéome et les performances quantitatives ont été comparées. En outre, les mesures de protéines dans des échantillons de plasma EDTA et d'héparine-plasma ont été comparées à l'aide de paires d'échantillons appariées de 20 individus de l'étude australienne sur l'imagerie, les biomarqueurs et le mode de vie (AIBL). Nous avons identifié 442 protéines en commun entre les échantillons de plasma EDTA et d'héparine-plasma. L'accord global de la quantification relative des protéines entre les paires d'échantillons a démontré que la protéomique au fusil de chasse utilisant des flux de travail tels que l'ASAP2 convient à l'analyse du plasma héparine et qu'un tel type d'échantillon peut être pris en compte dans des études de recherche clinique à grande échelle. De plus, les chevauchements partiels de la couverture du protéome (par exemple, 70%) ont montré que les mesures de l'héparine-plasma pourraient être complémentaires à celles obtenues à partir du plasma EDTA.

La première comparaison basée sur le protéome à cellules entières et la lysine-acétylome entre Trichophyton rubrum Stades conidiaux et mycéliens
  • Xingye Xu,
  • Tao Liu,
  • Jian Yang,
  • Lihong Chen,
  • Bo Liu,
  • Lingling Wang et
  • Qi Jin*

Trichophyton rubrum est l'agent pathogène fongique le plus répandu dans le monde, qui a été étudié en tant qu'organisme modèle dermatophyte important. Malgré la prévalence de T. rubrum, les thérapies antifongiques disponibles ne sont pas suffisamment efficaces. Dans cette étude, nous avons effectué la première comparaison entre les deux principaux stades de croissance de T. rubrum : les stades conidial et mycélien, sur la base de leurs protéomes cellulaires entiers et de leurs acétylomes de lysine. Au total, 4343 protéines ont été identifiées dans les deux stades et 1879 protéines ont été identifiées comme étant exprimées de manière différentielle entre les deux stades. Les résultats ont montré que les protéases sécrétoires étaient plus abondantes dans les conidies, tandis que le métabolisme aérobie et la synthèse des protéines étaient significativement activés au stade mycélien. De plus, 386 sites acétylés sur 285 protéines et 5414 sites acétylés sur 2335 protéines ont été identifiés dans les conidies et les mycéliums, respectivement. Les modifications d'acétylation étaient fortement impliquées dans le métabolisme et la synthèse des protéines dans les deux étapes, mais différemment impliquées dans les voies de l'Encyclopédie de Kyoto des gènes et des génomes et dans la régulation épigénétique entre les deux étapes. De plus, l'inhibition des acétyltransférases ou des désacétylases inhibe significativement la croissance fongique et induit l'apoptose. Ces résultats amélioreront notre compréhension des caractéristiques biologiques et physiologiques de T. rubrum et faciliteront le développement de thérapies améliorées ciblant ces champignons pathogènes médicalement importants.

Profils métaboliques liés à l'obésité et discrimination de l'obésité métaboliquement malsaine
  • Minoo Bagheri,
  • Farshad Farzadfar,
  • Lu Qi,
  • Mir Saeed Yekaninejad,
  • Maryam Chamari,
  • Oana A. Zeleznik ,
  • Zahra Kalantar,
  • Zarin Ebrahimi,
  • Ali Sheidaie,
  • Berthold Koletzko,
  • Olaf Uhl , et
  • Abolghasem Djazayery*

Un sous-groupe particulier d'adultes obèses, considérés comme obèses métaboliquement sains (MHO), présente un risque réduit de complications métaboliques. Cependant, la base moléculaire contribuant à ce phénotype sain reste incertaine. L'objectif de ce travail était d'identifier les modèles de métabolites liés à l'obésité qui différaient entre les groupes MHO et les groupes obèses métaboliquement malsains (MUHO) et d'examiner si ces modèles sont associés au développement de troubles cardiométaboliques dans un échantillon de population adulte iranienne âgée de 18 à 50 ans. Les métabolites valides ont été définis comme des métabolites ayant passé avec succès l'analyse de contrôle qualité de l'étude. Dans cette étude cas-témoins, 104 métabolites valides de 107 patients MHO et 100 patients MUHO ont été comparés séparément à ceux de 78 adultes métaboliquement sains (NWMH) de poids normal. Une régression linéaire multivariée a été utilisée pour étudier toutes les relations potentielles dans l'étude. Une approche métabolomique ciblée utilisant la chromatographie liquide couplée à la spectrométrie de masse triple quadripôle a été utilisée pour profiler les métabolites plasmatiques. L'étude a révélé qu'après correction de Bonferroni, les acides aminés à chaîne ramifiée, la tyrosine, l'acide glutamique, les diacyl-phosphatidylcholines C32:1 et C38:3 étaient directement et l'acyl-carnitine C18:2, les acyl-lysophosphatidylcholines C18:1 et C18 : 2, et les alkyl-lysophosphatidylcholines C18.0 étaient inversement associées au phénotype MHO. Les mêmes schémas ont été observés chez les patients MUHO, à l'exception des profils d'acyl-carnitine et de lysophosphatidylcholine où l'acyl-carnitine C3:0 et l'acyl-lysophosphatidylcholine C16:1 étaient plus élevés et les acyl-lysophosphatidylcholines C18:1, C18:2 étaient plus faibles dans ce phénotype. De plus, la proline et les diacyl-phosphatidylcholines C32:2 et C34:2 étaient directement et la sérine, les asparagines et l'acyl-alkyl-phosphatidylcholine C34:3 étaient négativement liées au groupe MUHO. Les facteurs composés d'acides aminés étaient directement et ceux contenant des lysophosphatidylcholines étaient inversement liés aux biomarqueurs cardiométaboliques dans les deux phénotypes. Fait intéressant, le facteur contenant des diacyl-phosphatidylcholines était directement associé aux troubles cardiométaboliques dans le groupe MUHO. Un schéma particulier d'acides aminés et de phospholipides contenant de la choline peut aider à identifier la santé métabolique chez les patients obèses.

Neuroptidomique des noyaux habénulaires de rat
  • Ning Yang,
  • Krishna D. B. Anapindi,
  • Stanislav S. Rubakhine ,
  • Pingli Wei,
  • Qing Yu,
  • Lingjun Li,
  • Paul J. Kenny et
  • Jonathan V. Swedler*

Conservés chez les vertébrés, les noyaux habénulaires sont une paire de petites structures symétriques dans l'épithalamus. Les noyaux relient fonctionnellement le prosencéphale et le mésencéphale en recevant des données et en se projetant vers plusieurs régions du cerveau. Chaque noyau habénulaire comprend deux principaux sous-noyaux asymétriques, l'habenula médial et latéral. Ces sous-noyaux sont associés à différents processus et troubles physiologiques, tels que la dépression, la dépendance à la nicotine et l'encodage de stimuli aversifs ou l'omission de stimuli de récompense attendus. L'élucidation des fonctions des noyaux habénulaires au niveau moléculaire nécessite la connaissance de leur complément neuropeptidique. Dans ce travail, trois techniques de spectrométrie de masse (MS) : chromatographie liquide (LC) couplée à Orbitrap tandem MS (MS/MS), LC couplée à transformée de Fourier (FT)-résonance cyclotron ionique (ICR) MS/MS et matrice- Désorption/ionisation laser assistée (MALDI) FT-ICR MS—ont été utilisés pour découvrir les profils neuropeptides de l'habenula médiale et latérale du rongeur. Avec l'aide de la stabilisation tissulaire et de la bioinformatique, un total de 262 et 177 neuropeptides produits à partir de 27 et 20 prohormones ont été détectés et identifiés dans les régions médiale et latérale de l'habenula, respectivement. Parmi ces neuropeptides, 136 ont été exclusivement retrouvés dans l'habenula médial et 51 étaient exclusivement exprimés dans l'habenula latéral. De plus, de nouveaux sites de sulfatation, une modification post-traductionnelle rare, sur la prohormone sécrétogranine I sont identifiés. Les résultats démontrent que ces deux petits noyaux cérébraux ont un répertoire peptidique riche et différencié, ces informations permettant une gamme d'études de suivi.

L'analyse interactome de la protéine NS1 codée par le virus de la grippe A H7N9 révèle un rôle inhibiteur de la NS1 dans la maturation de l'ARNm de l'hôte
  • Rei-Lin Kuo,
  • Chi-Jene Chen ,
  • Ee-Hong Tam,
  • Chung-Guei Huang,
  • Li-Hsin Li ,
  • Zong Hua Li,
  • Pei-Chia Su ,
  • Hao-Ping Liu, et
  • Chih Ching Wu*

Les infections par le virus de la grippe A peuvent entraîner de graves maladies respiratoires. Le sous-type H7N9 du virus de la grippe aviaire A a été transmis à l'homme et a causé de graves maladies et la mort. La protéine non structurale 1 (NS1) du virus de la grippe A est un déterminant de la virulence au cours de l'infection virale. Pour élucider les fonctions de la NS1 codée par le virus de la grippe A H7N9 (H7N9 NS1), des partenaires d'interaction de H7N9 NS1 dans des cellules humaines ont été identifiés par immunoprécipitation suivie d'une SDS-PAGE couplée à une chromatographie liquide-spectrométrie de masse en tandem (GeLC-MS/MS) . Nous avons identifié 36 protéines cellulaires en tant que partenaires d'interaction du H7N9 NS1, et elles sont impliquées dans le traitement de l'ARN, l'épissage de l'ARNm via le spliceosome et la voie de surveillance de l'ARNm. Il a été confirmé que deux des partenaires d'interaction, la sous-unité 2 du facteur de spécificité de clivage et de polyadénylation (CPSF2) et CPSF7, interagissent avec H7N9 NS1 en utilisant la co-immunoprécipitation et l'immunotransfert sur la base de la découverte précédente selon laquelle les deux protéines sont impliquées dans la machinerie de polyadénylation pré-ARNm. De plus, nous illustrons que la surexpression de H7N9 NS1, ainsi que l'infection par le virus de la grippe A H7N9, ont interféré avec la polyadénylation du pré-ARNm dans les cellules hôtes. Cette étude a détaillé l'interactome de H7N9 NS1 dans les cellules hôtes, et les résultats démontrent un nouvel endotype pour H7N9 NS1 dans l'inhibition de la maturation de l'ARNm de l'hôte.

Identification protéomique des protéines induites par l'interféron avec des répétitions tétratricopeptides comme marqueurs de la polarisation des macrophages M1
  • Cheng Huang,
  • Caitlin Lewis,
  • Nathalie A. Borg ,
  • Canaux de Meritxell ,
  • Henri Diep,
  • Grant R. Drummond ,
  • Robert J. Goode,
  • Ralf B. Schittenhelm,
  • Antoine Vinh,
  • Mingyu Zhu,
  • Barbara Kemp-Harper* ,
  • Oded Kleifeld* , et
  • Martin J. Pierre*

Les macrophages, qui s'accumulent dans les tissus pendant l'inflammation, peuvent être polarisés vers des phénotypes pro-inflammatoires (M1) ou réparateurs tissulaires (M2). L'équilibre entre ces phénotypes peut avoir une influence considérable sur l'issue de maladies inflammatoires telles que l'athérosclérose. Des biomarqueurs améliorés des macrophages M1 et M2 seraient bénéfiques pour la recherche, le diagnostic et le suivi des effets des essais thérapeutiques dans ces maladies. Pour identifier de nouveaux biomarqueurs, nous avons caractérisé les protéomes globaux des macrophages THP-1 polarisés aux états M1 et M2 par rapport aux macrophages non polarisés (M0). La polarisation M1 a entraîné une expression accrue de nombreuses protéines pro-inflammatoires, y compris les produits de 31 gènes sous le contrôle transcriptionnel du facteur régulateur 1 de l'interféron (IRF-1). En revanche, la polarisation M2 a identifié des protéines régulées par des composants du facteur de transcription AP-1. Parmi les protéines les plus fortement régulées à la hausse dans les conditions M1 se trouvaient les trois protéines induites par l'interféron avec des répétitions tétratricopeptides (IFIT : IFIT1, IFIT2 et IFIT3), qui fonctionnent dans la défense antivirale. De plus, les ARNm IFIT1, IFIT2 et IFIT3 étaient fortement régulés à la hausse dans les macrophages primaires humains polarisés M1 et IFIT1 était également exprimé dans un sous-ensemble de macrophages dans les sections du sinus aortique et de l'artère brachiocéphalique de souris athéroscléreuses ApoE–/–. Sur la base de ces résultats, nous proposons que les IFIT puissent servir de marqueurs utiles de l'athérosclérose et potentiellement d'autres maladies inflammatoires.

La métabolomique ciblée révèle un rôle protecteur pour le PPARα basal dans la cholestase induite par le -naphtylisothiocyanate
  • Manyun Dai,
  • Huiying Hua,
  • Hante Lin,
  • Gang Xu,
  • Xiaowei Hu,
  • Fei Li,
  • Frank J. Gonzalez,
  • Viser Liu* , et
  • Julin Yang*

Le α-naphthylisothiocyanate (ANIT) est un agent expérimental utilisé pour induire une cholestase intrahépatique. La lignée de souris Ppara-null est largement utilisée pour explorer les rôles physiologiques et pathologiques de PPARα. Cependant, on sait peu de choses sur l'influence du PPARα sur l'hépatotoxicité de l'ANIT. Dans la présente étude, des souris de type sauvage et Ppara-null ont été traitées par voie orale avec de l'ANIT pour induire une cholestase. Le métabolome sérique des souris de type sauvage s'est séparé de celui des souris Ppara-null, entraîné par des modifications des métabolites des acides biliaires (BA). La phosphatase alcaline et les BA totales étaient élevées de manière préférentielle chez les souris Ppara-null, ce qui était en corrélation avec les modifications des gènes Cyp7a1, Cyp8b1, Mrp3, Cyp3a11, Cyp2b10, Ugt1a2 et Ugt1a5 et a montré une interférence entre PPARα basal et les voies potentiellement adaptatives.Il6, Tnfa et les gènes cibles de la voie STAT3 (Socs3, Fga, Fgb et Fgg) étaient régulés à la hausse chez les souris Ppara-null mais pas chez les souris de type sauvage. La voie JNK a été activée dans les deux lignées de souris, tandis que NF-κB et STAT3 n'ont été activés que chez les souris Ppara-null. Ces données suggèrent que la protection contre la cholestase par le PPARα basal implique la régulation du métabolisme du BA et l'inhibition de la signalisation NF-κB/STAT3. Compte tenu des études sur les effets protecteurs du PPARα basal et activé, il convient d'être prudent lorsque l'on tente de tirer des conclusions dans lesquelles le PPARα est modifié par manipulation génétique, jeûne ou activation dans des études pharmacologiques et toxicologiques.

Des analyses protéomiques et biochimiques révèlent un nouveau mécanisme pour promouvoir l'ubiquitination et la dégradation des protéines par l'UFBP1, un élément clé de l'ufmylation
  • Ying Zhu,
  • Qing Lei,
  • Dan Li,
  • Yang Zhang,
  • Xiaogang Jiang,
  • Zhanhong Hu, et
  • Guoqiang Xu*

La modification post-traductionnelle des protéines par le modificateur de pli de l'ubiquitine 1, UFM1, régule de nombreux processus biologiques tels que la réponse au stress du réticulum endoplasmique et la régulation de la progression tumorale. Une étude récente a indiqué que la protéine 1 de liaison à l'UFM1 et contenant le domaine PCI (UFBP1) est requise pour la conjugaison de l'UFM1 à un substrat. Cependant, d'autres fonctions biologiques de l'UFBP1 n'ont pas été explorées. Ici, nous utilisons l'immunoprécipitation et la protéomique quantitative sans marqueur pour identifier les protéines interagissant avec l'UFBP1 dans une lignée cellulaire de mammifère. Environ 80 protéines potentiellement interactives sont obtenues à partir d'analyses MS de trois réplicats biologiques. Les analyses bioinformatiques de ces protéines suggèrent que l'UFBP1 pourrait participer à la régulation du repliement, de la stabilité et du trafic des protéines. Des expériences biochimiques découvrent que l'expression d'UFBP1 régule à la baisse le niveau de protéines et réduit la stabilité de plusieurs de ses protéines en interaction, tandis que le knockdown d'UFBP1 augmente leurs niveaux de protéines. Des expériences d'inhibition de la synthèse des protéines et d'inhibition du protéasome révèlent que l'UFBP1 favorise leur ubiquitination et leur dégradation. Des expériences utilisant un modèle de protéine interagissant avec UFBP1 ANT3 démontrent que UFBP1 améliore l'interaction entre ANT3 et sa ligase E3 et favorise ainsi son ubiquitination et sa dégradation. Notre travail élucide un nouveau mécanisme moléculaire par lequel UFBP1 régule l'ubiquitination et la dégradation des protéines.

Développement et normalisation d'un protocole pour la spectroscopie quantitative de résonance magnétique nucléaire du proton (RMN 1 H) de la salive
  • Alexandre Gardner,
  • Harold G. Parkes,
  • Guy H. Carpenter , et
  • Po-Wah So*

Le profilage métabolique par spectroscopie RMN 1H est une technologie sous-utilisée dans la recherche salivaire, bien que des études préliminaires aient identifié des résultats prometteurs dans de multiples domaines (diagnostic, nutrition, physiologie du sport). La traduction des résultats préliminaires en connaissances validées et approuvées cliniquement est entravée par la variabilité du protocole de collecte, de stockage, de préparation et d'analyse de la salive. Cette étude vise à évaluer les effets de différents prétraitements d'échantillons sur le profil métabolique RMN 1H de la salive. Les considérations de protocole sont très variées dans la base de la littérature actuelle, y compris la centrifugation, les cycles de gel-dégel et différentes méthodes de quantification RMN. Nos résultats suggèrent que le profil du métabolite 1H RMN de la salive est résilient à tout changement résultant de la congélation, y compris la congélation de la salive avant la centrifugation. Cependant, une centrifugation a été nécessaire pour éliminer un large pic non identifié entre 1,24 et 1,3 ppm, dont l'intensité était fortement corrélée avec le contenu cellulaire de la salive. Ce pic masquait le pic méthyle du lactate et affectait significativement la quantification. La quantification des métabolites était similaire pour la salive centrifugée entre 750 g et 15 000 g. La quantification des métabolites salivaires était similaire, qu'elle soit quantifiée à l'aide de triméthylsilyl-[2,2,3,3-2H4]-propionate de sodium interne tamponné au phosphate (TSP) ou de TSP externe dans un tube RMN coaxial placé à l'intérieur du tube RMN contenant l'échantillon de salive. Nos résultats suggèrent que la littérature existante sur la RMN 1H salivaire n'aura pas été affectée par les variations du protocole commun. Cependant, l'utilisation de TSP comme standard interne sans milieu tamponné semble affecter la quantification des métabolites, notamment pour l'acétate et le méthanol. Nous incluons des recommandations de protocole pour faciliter les futures études de la salive basées sur la RMN.

La protéomique quantitative et la cytologie des domaines membranaires riches en stérols du pollen de riz révèlent des indices de polarité cellulaire préétablis dans le pollen mature

La polarité cellulaire est essentielle pour générer diverses fonctions cellulaires. Les mécanismes sous-jacents de la façon dont une cellule établit, maintient et modifie sa polarité sont mal compris. Récemment, des microdomaines membranaires riches en stérols se sont avérés être associés à ces processus. Cependant, ses caractéristiques exactes et son importance ne sont toujours pas claires. Ici, nous montrons que les microdomaines changent de manière dynamique dans le développement et la germination du pollen de riz avec un enrichissement sélectif dans l'ouverture et la pointe des tubes polliniques nouvellement nés à l'aide de la sonde filipine spécifique aux stérols. En utilisant les sensibilités d'extraction des stérols des protéines du microdomaine et la protéomique quantitative, nous avons identifié 237 protéines associées au microdomaine parmi 934 protéines membranaires résistantes aux détergents du pollen. Ce protéome comprend presque tous les régulateurs clés connus constituant le réseau de croissance polaire, et il présente plus de similitudes avec les cellules HeLa polarisées avant-arrière qu'avec les cellules en suspension non polarisées d'Arabidopsis. Nous immunolocalisons la protéine de type flotiline, un représentant de ces protéines dépendantes des stérols et visualisons directement les microdomaines dans le pollen. Ces résultats indiquent la présence de microdomaines dans le pollen et une polarité cellulaire préétablie autour de l'ouverture au cours de la maturation du pollen. Nos résultats révèlent un atlas du protéome associé au microdomaine dans le pollen. Ce travail fournit des ressources utiles et les connaissances nécessaires pour disséquer davantage les mécanismes d'établissement et de maintien de la polarité cellulaire.

PACOM : un outil polyvalent pour l'intégration, le filtrage, la visualisation et la comparaison de plusieurs ensembles de données protéomiques de spectrométrie de masse de grande taille
  • Salvador Martínez-Bartolomé,
  • J. Alberto Medina-Aunon ,
  • Miguel Ángel López-García ,
  • Carmen González-Tejedo ,
  • Gorka Prieto,
  • Rosana Navajas,
  • Emilio Salazar-Donate ,
  • Caroline Fernández-Costa ,
  • John R. Yates III* , et
  • Juan Pablo Albar

La protéomique basée sur la spectrométrie de masse est devenue une technologie à haut débit dans laquelle de nombreux ensembles de données à grande échelle sont générés à partir de diverses plates-formes analytiques. En outre, plusieurs revues scientifiques et agences de financement ont mis l'accent sur le stockage des données protéomiques dans des référentiels publics pour faciliter leur évaluation, leur inspection et leur réanalyse.(1) En conséquence, les référentiels publics de données protéomiques se développent rapidement. Cependant, des outils sont nécessaires pour intégrer plusieurs ensembles de données protéomiques afin de comparer différentes caractéristiques expérimentales ou pour effectuer une analyse de contrôle qualité. Nous présentons ici un nouvel outil Java autonome, Proteomics Assay COMparator (PACOM), capable d'importer, de combiner et de comparer simultanément de nombreuses expériences de protéomique pour vérifier l'intégrité des données protéomiques ainsi que la qualité des données. Avec PACOM, l'utilisateur peut détecter la source d'erreurs qui peuvent avoir été introduites à n'importe quelle étape d'un flux de travail protéomique et qui influencent les résultats finaux. Les ensembles de données peuvent être facilement comparés et intégrés, et la qualité et la reproductibilité des données peuvent être évaluées visuellement grâce à un riche ensemble de représentations graphiques des caractéristiques des données protéomiques ainsi qu'à une grande variété de filtres de données. Sa flexibilité et son interface simple d'utilisation font de PACOM un outil unique pour une utilisation quotidienne dans un laboratoire de protéomique. PACOM est disponible sur https://github.com/smdb21/pacom.

Approches d'échange d'anions et d'interaction hydrophile à haute performance pour une caractérisation complète basée sur la spectrométrie de masse du N-glycome d'une érythropoïétine humaine recombinante
  • Zoltan Szabo* ,
  • James R. Thayer,
  • Dietmar Reusch,
  • Yury Agroskin ,
  • Rosa Viner,
  • Jeff Rohrer,
  • Sachin P. Patil ,
  • Michael Krawitzky,
  • Andreas Huhmer,
  • Nebojsa Avdalovic,
  • Shaheer H. Khan,
  • Yan Liu, et
  • Christophe Pohl

La caractérisation complète du N-glycome d'un agent thérapeutique est difficile car les glycanes peuvent abriter de nombreuses modifications (par exemple, phosphorylation, sulfatation, acides sialiques avec une éventuelle O-acétylation). Le présent rapport présente une comparaison de deux plates-formes chromatographiques pour la caractérisation complète d'un N-glycome d'érythropoïétine humaine recombinante (rhEPO). Les deux plates-formes incluent un flux de travail commun basé sur la dérivation 2-AB et la chromatographie d'interaction hydrophile (HILIC) et un flux de travail natif de glycane lié à l'azote utilisant la chromatographie d'échange d'anions haute performance (HPAE). Les deux plates-formes ont été couplées à un spectromètre de masse Orbitrap, et la fragmentation HCD dépendante des données a permis une élucidation structurelle sûre des glycanes. Chaque plate-forme a identifié des glycanes non révélés par l'autre, et les deux ont présenté des forces et des faiblesses. Le flux de travail HILIC basé sur l'amination réductrice a fourni un meilleur débit et une meilleure sensibilité, a eu une bonne résolution des isomères et a révélé la présence d'acides sialiques O-acétylés. Cependant, il a montré de faibles performances vis-à-vis des glycanes phosphorylés et n'a pas révélé la présence de glycanes sulfatés. De plus, l'amination réductrice a introduit des artefacts de déshydratation et modifié le profil de glycosylation dans le glycome rhEPO. À l'inverse, HPAE a fourni une classification de charge impartiale (niveaux de sialylation), une résolution améliorée des isomères et a révélé plusieurs structures phosphorylées et sulfatées, mais a fourni un débit inférieur, avait des pics d'artefacts dus à la formation d'épimères et à la perte d'O-acétylation d'acide sialique. L'identification basée sur MS2 des glycanes phosphorylés et sulfatés n'a pas été possible en mode HILIC en raison de leur faible solubilité causée par les concentrations élevées d'acétonitrile utilisées au début du gradient. Après avoir analysé le glycome par les deux approches et déterminé les glycanes présents, une bibliothèque de glycanes a été créée pour des analyses de glycopeptides spécifiques au site. Les analyses de glycopeptides ont confirmé toutes les compositions annotées par l'utilisation combinée de flux de travail 2-AB- et de glycanes natifs et ont fourni un emplacement spécifique au site des glycanes. Ces deux plates-formes étaient complémentaires et, combinées, ont fourni une caractérisation plus approfondie et plus complète du rhEPO N-glycome, soutenant la conformité réglementaire pour l'industrie pharmaceutique.

Étude de métabolomique sérique chez des patients atteints de diabète sucré de type 2 traités par libération modifiée de gliclazide à l'aide d'une méthode de chromatographie en phase gazeuse et de spectrométrie de masse
  • Yang Zhou,
  • Cheng Hu,
  • Xinjie Zhao,
  • Ping Luo,
  • Jingyi Lu,
  • Qing Li,
  • Miao Chen,
  • Dandan Yan,
  • Xin Lu* ,
  • Hong-Kong,
  • Jia en train de pleurer* , et
  • Guowang Xu*

Les sulfonylurées sont l'un des médicaments couramment utilisés dans le diabète de type 2 (DT2) mais avec une incidence considérable d'échec en monothérapie. Cependant, le mécanisme de la réponse médicamenteuse des patients n'est pas clair, et les biomarqueurs d'évaluation de l'adéquation ont un besoin urgent pour une médecine de précision. Dans cette étude, une méthode pseudo-ciblée de chromatographie en phase gazeuse-spectrométrie de masse a été utilisée pour étudier le profil métabolique sérique de 66 répondeurs significatifs et 24 répondeurs non significatifs au départ et 16 semaines après la monothérapie à libération modifiée (MR) de gliclazide. Les améliorations cliniques de la glycémie et de la sensibilité à l'insuline étaient étroitement associées aux altérations du cycle du TCA, du métabolisme des corps cétoniques, de l'oxydation des lipides, du catabolisme des acides aminés à chaîne ramifiée et du métabolisme de la flore intestinale. Le profil métabolique de base différent observé dans les deux groupes impliquait que les patients présentant un niveau de dyslipidémie inférieur pourraient être plus adaptés à un traitement par sulfonylurée. Le panel de biomarqueurs composé d'HbA1c, d'acide 5,8,11,14,17-eicosapentaénoïque, de 8,11,14-eicosatriénoate de méthyle et d'hexadécanoate de méthyle montre une très bonne capacité de prédiction de l'adéquation du traitement au gliclazide, et cela peut être significatif en médecine personnalisée des patients DT2 par sulfonylurées.

Découverte optimisée de biomarqueurs phénotypiques et élimination des facteurs de confusion via une projection ajustée aux covariables sur des structures latentes à partir de données de spectroscopie métabolique
  • Joram M. Posma* ,
  • Isabel Garcia-Pérez ,
  • Timothée M.D. Ebbels,
  • John C. Lindon ,
  • Jérémie Stamler,
  • Paul Elliott,
  • Elaine Holmes et
  • Jeremy K. Nicholson*

Le métabolisme est altéré par la génétique, l'alimentation, l'état de la maladie, l'environnement et de nombreux autres facteurs. La modélisation de l'une ou l'autre de ces variables est souvent effectuée sans tenir compte des effets des autres covariables. L'attribution des différences de profil métabolique à l'un de ces facteurs doit être effectuée tout en contrôlant l'influence métabolique du reste. Nous décrivons ici un cadre d'analyse de données et un nouvel algorithme d'ajustement de la confusion pour l'analyse multivariée des données de profilage métabolique. En utilisant des données simulées, nous montrons que des nombres similaires d'associations vraies et significativement moins de faux positifs sont trouvés par rapport aux autres méthodes couramment utilisées. Les projections corrigées des covariables aux structures latentes (CA-PLS) sont illustrées ici à l'aide d'une étude de phénotypage métabolique à grande échelle de deux populations chinoises présentant des risques différents de maladie cardiovasculaire. En utilisant CA-PLS, nous constatons que certaines différences précédemment signalées sont en fait associées à des facteurs externes et découvrons un certain nombre de biomarqueurs non signalés auparavant liés à différentes voies métaboliques. CA-PLS peut être appliqué à toutes les données multivariées où la confusion peut être un problème et la procédure d'ajustement de la confusion est transposable à d'autres techniques de régression multivariée.

Stratégie de recherche dans la base de données guidée par la taxonomie métagénomique pour améliorer l'analyse métaprotéomique
  • Jinqiu Xiao,
  • Alessandro Tanca,
  • Ben Jia,
  • Yang de Runqing,
  • Bo Wang,
  • Yu Zhang, et
  • Jing Li*

La métaprotéomique fournit une mesure directe de l'information fonctionnelle en étudiant toutes les protéines exprimées par un microbiote. Cependant, en raison de la complexité et de l'hétérogénéité des communautés microbiennes, il est très difficile de construire une base de données de séquences adaptée à une étude métaprotéomique. En utilisant une base de données publique, les chercheurs pourraient ne pas être en mesure d'identifier les protéines d'espèces microbiennes mal caractérisées, tandis qu'une base de données métagénomique basée sur le séquençage peut ne pas fournir une couverture adéquate pour toutes les séquences de protéines potentiellement exprimées. Pour relever ce défi, nous proposons une stratégie de recherche de base de données (MT) guidée par la taxonomie métagénomique, dans laquelle une base de données fusionnée est utilisée, composée à la fois de séquences de protéines de référence guidées par la taxonomie provenant de bases de données publiques et de protéines d'assemblage de métagénome. En appliquant notre stratégie MT à un mélange microbien fictif, environ deux fois plus de peptides ont été détectés qu'avec la base de données métagénomique uniquement. Selon l'évaluation de la fiabilité de l'attribution taxonomique, le taux d'assignations erronées était comparable à celui obtenu à l'aide d'une base de données appariée a priori. Nous avons également évalué la stratégie MT avec un échantillon microbien intestinal humain et nous avons trouvé 1,7 fois plus de peptides qu'en utilisant une base de données métagénomique standard. En conclusion, notre stratégie MT permet la construction de bases de données capables de fournir une sensibilité et une précision élevées dans l'identification des peptides dans les études métaprotéomiques, permettant la détection de protéines d'espèces mal caractérisées au sein du microbiote.

Analyse systématique des acides gras dans les cellules humaines avec une méthode basée sur le marqueur isobare multiplexé (TMT)

Les acides gras (AG) sont des composants essentiels des cellules et sont impliqués dans de nombreuses activités cellulaires. Il a été rapporté que le métabolisme anormal de l'AF est lié à des maladies humaines telles que le cancer et les maladies cardiovasculaires. L'identification et la quantification des AG donnent un aperçu de leurs fonctions dans les systèmes biologiques, mais il est très difficile de les analyser en raison de leurs structures et propriétés. Dans ce travail, nous avons développé une nouvelle méthode en intégrant des AG marqués avec des étiquettes de masse en tandem aminoxy marquées par un isotope stable (aminoxyTMT) et une analyse spectrométrique de masse en mode positif. Sur la base de leurs structures, les réactifs aminoxyTMT ont réagi avec le groupe acide carboxylique des AG, résultant en un groupe amine avec une affinité protonique élevée attaché de manière covalente aux analytes. Cela a permis l'analyse des AG sous le mode positif d'ionisation électrospray-spectrométrie de masse (ESI-MS), qui est normalement plus populaire et sensible par rapport au mode négatif. Plus important encore, les balises TMT multiplexées nous ont permis de quantifier les AG de plusieurs échantillons simultanément, ce qui a augmenté le débit expérimental et la précision de la quantification. Les AG extraits de trois types de cellules mammaires, à savoir les cellules MCF 10A (normales), MCF7 (peu invasives) et MDA-MB-231 (très invasives), ont été marqués avec les aminoxyTMT à six plexus et quantifiés par LC-MS/MS . Les résultats ont démontré que les abondances de certains AG, tels que C22:5 et C20:3, étaient nettement augmentées dans les cellules cancéreuses MCF7 et MDA-MB-231 par rapport aux cellules MCF 10A normales. Pour la première fois, les réactifs aminoxyTMT ont été exploités pour marquer les AG pour leur identification et leur quantification dans des échantillons biologiques complexes en mode MS positif. La méthode actuelle nous a permis d'identifier en toute confiance les AG et de les quantifier avec précision à partir de plusieurs échantillons simultanément. Parce que cette méthode n'a pas de restrictions d'échantillons, elle peut être largement appliquée pour la recherche biologique et biomédicale.

Structure d'ordre primaire et supérieur du centre de réaction de la bactérie phototrophe pourpre Blastochloris viridis: Un test pour la spectrométrie de masse native
  • Yue Lu,
  • Carrie Goodson,
  • Robert E. Blankenship* , et
  • Michael L. Gross*

Le centre de réaction (CR) de la bactérie phototrophe Blastochloris viridis a été le premier complexe protéique membranaire intégral dont la structure a été déterminée par cristallographie aux rayons X et a été largement étudié depuis lors. Il est composé de quatre sous-unités protéiques, H, M, L et C, ainsi que de cofacteurs, dont la bactériophéophytine (BPh), la bactériochlorophylle (BCh), la ménaquinone, l'ubiquinone, l'hème, le caroténoïde et le Fe. Dans cette étude, nous avons utilisé la protéomique basée sur la spectrométrie de masse pour étudier ce complexe protéique via un séquençage ascendant, une analyse de masse de protéine intacte et une analyse de liaison de ligand MS native. Sa structure primaire montre une série de mutations, y compris une altération et une extension inhabituelles sur l'extrémité C-terminale de la sous-unité M. En termes de structure quaternaire, des protéines telles que celle-ci contenant de nombreux cofacteurs servent à tester la capacité à introduire des assemblages de protéines à l'état natif dans la phase gazeuse car les cofacteurs ne seront pas retenus si la structure quaternaire est sérieusement perturbée. De plus, cette RC spécifique, sous MS native, présente une forte capacité non seulement à lier la paire spéciale mais aussi à préserver les deux BCh périphériques.

Une approche métabolomique par chromatographie liquide et spectrométrie de masse à temps de vol à très hautes performances pour étudier l'impact d'une consommation modérée de vin rouge sur le métabolome urinaire
  • Adelaida Esteban-Fernández ,
  • Clara Ibañez,
  • Caroline Simó ,
  • Begoña Bartolomé* , et
  • M. Victoria Moreno-Arribas*

Une consommation modérée de vin rouge a été largement décrite comme ayant plusieurs avantages pour la santé humaine. Cela est principalement dû à sa teneur unique en polyphénols bioactifs, qui subissent plusieurs modifications au cours de leur passage dans le système digestif, notamment une transformation microbienne dans le côlon et un métabolisme de phase II, jusqu'à ce qu'ils soient finalement excrétés dans l'urine et les fèces. Pour déterminer l'impact d'une consommation modérée de vin sur le métabolome urinaire global de volontaires sains (n ​​= 41), des échantillons d'une étude interventionnelle sur le vin rouge (250 ml/jour, 28 jours) ont été étudiés. L'urine (24 h) a été recueillie avant et après l'intervention et analysée par une approche métabolomique non ciblée de chromatographie liquide ultra-haute performance – spectrométrie de masse à temps de vol. 94 composés liés à la consommation de vin, dont des composants spécifiques du vin (acide tartrique), des métabolites phénoliques d'origine microbienne (5-(dihydroxyphényl)-γ-valérolactones et acides 4-hydroxyl-5-(phényl)-valérique) et des composés endogènes ont été identifié. En outre, certaines relations entre les métabolomes fécaux et urinaires parallèles sont discutées.

La métabolomique RMN révèle des effets protecteurs médiés par le métabolisme dans les cellules hépatiques (HepG2) exposées à des niveaux subtoxiques de nanoparticules d'argent
  • Joana Carrola,
  • Ricardo J. B. Pinto ,
  • Maryam Nasirpour,
  • Carmen S. R. Freire ,
  • Ana M. Gil ,
  • Conceição Santos ,
  • Hélène Oliveira et
  • Iola F. Duarte*

L'expansion des applications biomédicales et thérapeutiques des nanoparticules d'argent (AgNPs) soulève le besoin de mieux comprendre leurs effets biologiques sur les cellules humaines. Dans ce travail, la métabolomique RMN a été appliquée pour révéler les effets métaboliques des AgNPs sur les cellules d'hépatome humain (HepG2), qui sont pertinents en ce qui concerne l'accumulation et la détoxification des nanoparticules. Les réponses cellulaires aux AgNPs recouverts de citrate largement disséminés (Cit30) et aux AgNPs biogéniques émergents préparés en utilisant un extrait végétal aqueux comme agent réducteur et stabilisant (GS30) ont été comparées en vue d'évaluer l'influence du revêtement de nanoparticules sur les effets métaboliques produits. Les concentrations subtoxiques (IC5 et IC20) des deux types de nanoparticules ont provoqué de profonds changements dans le métabolome cellulaire, suggérant des adaptations des processus de production d'énergie (métabolisme du glucose et du système phosphocréatine), des défenses antioxydantes, de la dégradation des protéines et du métabolisme des lipides. Ces signatures ont été proposées pour refléter principalement les mécanismes de protection médiés par le métabolisme et se sont avérées largement communes aux AgNPs Cit30 et GS30, bien que des différences dans l'ampleur de la réponse, non capturées par l'évaluation conventionnelle de la cytotoxicité, aient été détectées. Dans l'ensemble, cette étude met en évidence l'intérêt de la métabolomique RMN pour révéler des effets biologiques subtoxiques et aider à comprendre les interactions cellules-nanomatériaux.

La protéomique du processus de la bière révèle un protéome dynamique avec des modifications étendues
  • Benjamin L. Schulz* ,
  • Toan K. Phung,
  • Michèle Bruschi,
  • Agnieszka Janusz ,
  • Jeff Stewart,
  • John Meehan,
  • Peter Healy,
  • Amanda S. Nouwens ,
  • Glen P. Fox* , et
  • Claudia E. Vickers*

La production de bière moderne est un processus industriel complexe. Cependant, certains de ses détails biochimiques restent flous. En utilisant la protéomique par spectrométrie de masse, nous avons effectué une analyse globale non ciblée des protéines présentes à travers le temps lors de la production de bière à l'échelle nanométrique. Les échantillons comprenaient du moût sucré produit par une purée d'infusion à haute température, du moût houblonné et de la bière brillante. Cette analyse a identifié plus de 200 protéines uniques d'orge et de levure, soulignant la complexité du processus et du produit. Nous avons ensuite utilisé SWATH-MS indépendant des données pour comparer quantitativement l'abondance relative de ces protéines tout au long du processus. Cela a permis d'identifier des changements importants et significatifs dans le protéome à chaque étape du processus. Ces changements décrivent l'enrichissement des protéines par leurs propriétés biophysiques et identifient l'apparition de protéines dominantes de levure au cours de la fermentation. Des niveaux altérés de modification du malt ont également modifié quantitativement les protéomes tout au long du processus. Une inspection détaillée des données protéomiques a révélé que de nombreuses protéines ont été modifiées par la digestion par la protéase, la glycation ou l'oxydation au cours des étapes de traitement. Ce travail démontre les opportunités offertes par la protéomique de spectrométrie de masse moderne pour comprendre l'ancien processus de production de la bière.

Détermination des rapports de phosphorylation spécifiques au site dans les protéines avec la spectrométrie de masse ciblée
  • Lennard J. M. Dekker ,
  • Lona Zeneyedpour,
  • Sandor Snoeijers,
  • Jos Joore,
  • Sieger Leenstra et
  • Théo M. Luider*

Nous montrons que la surveillance de la réaction parallèle (PRM) peut être utilisée pour la quantification exacte des rapports de phosphorylation des protéines à l'aide de peptides marqués par des isotopes stables. Nous avons comparé deux approches PRM différentes sur un digest d'une culture cellulaire U87, à savoir, direct-PRM (digeste tryptique mesuré par PRM sans autre préparation d'échantillon) et TiO2-PRM (digeste tryptique enrichi de cartouches TiO2, suivi d'une mesure PRM) ces approches sont comparées pour les sites de phosphorylation suivants : protéine associée à la différenciation des neuroblastes (AHNAK S5480-p), sous-unité delta de la protéine kinase de type II dépendante du calcium/calmoduline (CAMK2D T337-p) et récepteur du facteur de croissance épidermique (EGFR S1166-p ). Un pourcentage reproductible de phosphorylation a pu être déterminé (CV 6–13 %) en utilisant le PRM direct ou le TiO2-PRM. De plus, nous avons testé les approches dans une expérience de culture cellulaire dans laquelle les cellules U87 ont été privées de sérum. En tant que "gold standard", nous avons inclus la précipitation immunitaire d'EGFR suivie de PRM (IP-PRM). Pour EGFR (S1166) et AHNAK (S5480), un changement statistiquement significatif du pourcentage de phosphorylation a pu être observé en raison de la privation de sérum pour EGFR (S1166), ce changement a été observé à la fois pour TiO2-PRM et IP-PRM. L'approche présentée a le potentiel de multiplexer et de quantifier le rapport de phosphorylation en une seule analyse.

Changements dynamiques dans la localisation des protéines dans l'environnement nucléaire dans les cellules du pancréas après une brève stimulation du glucose
  • Taewook Kang,
  • Pia Jensen,
  • Vita Solovieva,
  • Jonathan R. Brewer , et
  • Martin R. Larsen*

La caractérisation des mécanismes moléculaires sous-jacents à la fonction des cellules β pancréatiques en relation avec la sécrétion d'insuline stimulée par le glucose est incomplète, en particulier en ce qui concerne la réponse globale dans l'environnement nucléaire. Nous nous concentrons sur la caractérisation des protéines dans l'environnement nucléaire des cellules β après une brève stimulation élevée du glucose. Nous avons comparé des noyaux purifiés dérivés de cellules stimulées avec 17 mM de glucose pendant 0, 2 et 5 min en utilisant la protéomique quantitative, une période qui n'entraîne probablement pas la traduction d'une nouvelle protéine dans la cellule. Parmi les protéines à régulation différentielle, nous avons identifié 20 composants des processus d'organisation nucléaire, y compris l'organisation des pores nucléaires, le complexe ribonucléoprotéique et la transcription pré-ARNm. Nous avons trouvé une altération du complexe des pores nucléaires, ainsi que des chaperons de liaison calcium/calmoduline qui facilitent l'importation ou l'exportation de protéines et d'ARN vers/depuis le noyau vers le cytoplasme. Des facteurs putatifs associés à la transcription de l'ARNm de l'insuline ont été identifiés parmi les protéines régulées, et ils ont été validés de manière croisée par Western blot et imagerie d'immunofluorescence confocale. Collectivement, nos données suggèrent que la translocation des protéines entre le noyau et le cytoplasme est un processus important, fortement impliqué dans le mécanisme moléculaire initial sous-jacent à la sécrétion d'insuline stimulée par le glucose dans les cellules β pancréatiques.

PPARα est nécessaire pour l'activation induite par les rayonnements de la signalisation non canonique du TGFβ dans le cœur
  • Vikram Subramanian,
  • Sabine Borchard,
  • Omid Azimzadeh,
  • Wolfgang Sievert,
  • Juliane Merl-Pham,
  • Mariateresa Mancuso,
  • Emmanuela Pasquali,
  • Gabriele Multhoff,
  • Bastian Popper,
  • Hans Zischka,
  • Michael J. Atkinson et
  • Tapio de terre*

Les rayonnements ionisants à forte dose sont connus pour induire des effets indésirables tels que l'inflammation et la fibrose dans le cœur. Les régulateurs transcriptionnels PPARα et TGFβ sont connus pour être impliqués dans cette réponse aux radiations. PPARα, un facteur de transcription anti-inflammatoire contrôlant le métabolisme énergétique cardiaque, est inactivé par irradiation. Le TGFβ pro-inflammatoire et pro-fibrotique est activé par irradiation via des voies SMAD-dépendantes et SMAD-indépendantes. Le but de cette étude était d'étudier comment la modification du niveau de PPARα influence la réponse aux radiations de ces voies de signalisation. Pour cela, nous avons utilisé des souris C57Bl/6 génétiquement modifiées de génotype PPARα de type sauvage (+/+), hétérozygote (+/-) ou homozygote (-/-). Les souris ont été irradiées localement au cœur en utilisant des doses de 8 ou 16 Gy, les témoins ont été irradiés de manière fictive. Le tissu cardiaque a été étudié à l'aide d'une protéomique sans marqueur 20 semaines après l'irradiation et les voies prédites ont été validées à l'aide d'immunotransfert, d'ELISA et d'immunohistochimie. Les souris PPARα hétérozygotes ont montré la plupart des changements radio-induits dans le protéome cardiaque, tandis que les souris PPARα homozygotes ont montré les changements les moins importants. L'irradiation a induit une signalisation TGFdependent dépendante de SMAD indépendamment du statut de PPARα, mais la présence de PPARα était nécessaire pour l'activation de la voie indépendante de SMAD. Ces données indiquent un rôle central de PPARα dans la réponse cardiaque aux rayonnements ionisants.

Les microvésicules circulantes du cancer du pancréas accélèrent la migration et la prolifération des cellules PANC-1
  • Mingrui An ,
  • Jianhui Zhu,
  • Jing Wu,
  • Kyle C. Cuneo* , et
  • David M. Lubman*

Les microvésicules circulantes sont capables d'assurer les communications intercellulaires à longue distance. Il est essentiel de comprendre comment les microvésicules du cancer du pancréas agissent sur d'autres cellules du corps. Dans ce travail, des microvésicules dérivées du sérum ont été isolées de 10 patients atteints d'un cancer du pancréas localement avancé et de témoins sains. En utilisant les réactifs Cell Transwell et WST-1, nous avons découvert que les microvésicules du cancer du pancréas accéléraient la migration et la prolifération des cellules PANC-1. Pendant ce temps, la prolifération de ces cellules traitées par microvésicules cancéreuses (CMTC) a été moins affectée par 10 M de gemcitabine par rapport aux cellules saines traitées par microvésicules (HMTC). Ensuite, nous avons optimisé la méthode de préparation des échantillons assistée par filtre pour augmenter la récupération des échantillons de protéines, puis l'avons appliquée à la quantification du protéome des CMTC et des HMTC. Les peptides ont été marqués et analysés par chromatographie liquide-spectrométrie de masse en tandem. Au total, 4102 protéines ont été identifiées, dont 35 protéines ont été régulées à la hausse avec 27 régulées à la baisse dans les CMTC. Nous avons vérifié les résultats quantitatifs de trois protéines clés CD44, PPP2R1A et TP53 par Western blot. L'analyse de la voie de l'ingéniosité a révélé des voies auxquelles les microvésicules cancéreuses pourraient participer pour favoriser la migration et la prolifération cellulaires. Ces résultats peuvent fournir de nouveaux indices de traitement pour la tumorigenèse et les métastases.

L'analyse d'Interactome révèle que le régulateur de la signalisation de la protéine G 14 (RGS14) est un nouveau partenaire de liaison calcium/calmoduline (Ca 2+ /CaM) et CaM Kinase II (CaMKII)
  • Paul R. Evans ,
  • Kyle J. Gerber,
  • Eric B. Dammer ,
  • Duc M. Duong,
  • Devrishi Goswami,
  • Daniel J. Lustberg ,
  • Juan Zou,
  • Jenny J. Yang,
  • Serena M. Dudek,
  • Patrick R. Griffin,
  • Nicholas T. Seyfried , et
  • John R. Hepler*

Le régulateur de la signalisation de la protéine G 14 (RGS14) est une protéine d'échafaudage complexe qui intègre les voies de signalisation de la protéine G et de la MAPK. Dans le cerveau de souris adulte, RGS14 est principalement exprimé dans les neurones CA2 de l'hippocampe où il inhibe naturellement la plasticité synaptique et l'apprentissage et la mémoire dépendant de l'hippocampe. Cependant, les protéines de signalisation que RGS14 engage nativement pour réguler la plasticité sont inconnues. Ici, nous montrons que RGS14 existe dans un complexe protéique de haut poids moléculaire dans le cerveau. Pour identifier les partenaires d'interaction neuronale RGS14, RGS14 endogène immunoprécipité à partir de cerveau de souris a été soumis à une spectrométrie de masse et à une analyse protéomique. Nous constatons que RGS14 interagit avec des protéines postsynaptiques clés qui régulent la plasticité. L'analyse de l'ontologie des gènes révèle que les interacteurs RGS14 les plus enrichis ont des rôles fonctionnels dans la liaison à l'actine, la liaison à la calmoduline (CaM) et l'activité de la protéine kinase dépendante de la CaM (CaMK). Nous validons ces résultats à l'aide de tests biochimiques qui identifient les interactions avec deux partenaires de liaison auparavant inconnus. Nous rapportons que RGS14 interagit directement avec Ca2+/CaM et est phosphorylé par CaMKII in vitro. Enfin, nous détectons que RGS14 s'associe à CaMKII et CaM dans les neurones CA2 de l'hippocampe. Pris ensemble, ces résultats démontrent que RGS14 est un nouvel effecteur CaM et un substrat de phosphorylation CaMKII fournissant ainsi un nouvel aperçu des mécanismes par lesquels RGS14 contrôle la plasticité dans les neurones CA2.

Interacteurs ARN et protéines avec TDP-43 dans les lysats de la moelle épinière humaine dans la sclérose latérale amyotrophique
  • Catherine Volkening,
  • Brian A. Keller ,
  • Cheryl Leystra-Lantz et
  • Michael J. Strong*

La protéine de liaison à l'ADN TAR de 43 kDa (TDP-43) est une protéine de liaison à l'ARN et à l'ADN à double fonction avec des fonctions cellulaires variées. Dans la dégénérescence des motoneurones dans la sclérose latérale amyotrophique (SLA), le TDP-43 se relocalise du noyau au cytosol, où il est séquestré dans des inclusions. Il est probable que le rôle pathogène du TDP-43 dans la SLA puisse impliquer soit un gain, soit une perte de fonction, selon la nature de son ARN ou interacteur protéique. Cependant, alors que des partenaires de liaison au TDP-43 ont été identifiés dans une gamme de systèmes modèles et à partir du cerveau humain, les interacteurs du tissu de la moelle épinière humaine ne l'ont pas été. Dans cette étude, nous avons caractérisé à la fois les interactions protéiques et ARN TDP-43 de la moelle épinière lombaire ventrale neuropathologiquement normale (témoin) et affectée par la SLA, y compris la SLA sporadique (SALS) et les cas familiaux hébergeant soit un mutant A4T SOD1 soit un 3′ UTR. *C.41G>A mutant FUS/TLS ou exprimant des répétitions expansées pathologiques c9orf72. Les interactions d'ARN avec TDP-43 étaient similaires entre les moelles épinières témoins et SLA examinées, quel que soit le génotype. En revanche, les intéracteurs protéiques avec TDP-43 ont démontré des différences, les cas hébergeant sALS et mtSOD1 examinés différant des intéracteurs protéiques identifiés dans la mutation FUS 3′ UTR et les cas de répétition positive de c9orf72.


Analyse métallurgique de l'amorçage de fissures d'actionneurs cannelés usinés par décharge électrique en acier inoxydable 17-4 PH

Les actionneurs cannelés en acier inoxydable 17-4 PH (durcissement par précipitation) coulé à l'emporte-pièce se sont avérés contenir des microfissures. Les actionneurs fissurés ont été soumis à une microscopie optique et électronique à balayage et à des tests de dureté, qui ont révélé que la défaillance s'est produite en raison de l'initiation et de la croissance des fissures de fatigue après usinage par décharge électrique (EDM). La couche re-durcie produite par l'EDM est restée après l'usinage, et les fissures et les irrégularités de surface associées à cette couche ont fourni des sites pour l'initiation et la croissance des fissures, qui ont finalement causé le rejet des pièces. Des tolérances dimensionnelles étroites sur les actionneurs nécessitent une électroérosion après traitement thermique. L'épaisseur de la couche refondue a été mesurée à environ 38-55 μm, et les précipitations à proximité de la surface usinée sont une source potentielle de corrosion. Un polissage post-usinage au moyen de granulés à lit fluidisé a été utilisé pour éliminer la couche refondue et les précipités associés. Les résultats des tests ont prouvé que l'élimination des couches de surface améliorait la microstructure et la résistance à la formation de fissures. Le polissage post-EDM et les inspections annuelles ultérieures ont prouvé que le problème était résolu.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Comportement mécanique en traction et réponse à l'éclatement d'un acier inoxydable 17-4 PH fondu sélectif au laser

Le comportement mécanique en traction et la réponse à l'éclatement d'un acier inoxydable 17-4 fondu au laser sélectif (SLM) 17-4 à durcissement par précipitation (PH) ont été étudiés de manière approfondie par le biais d'un essai de traction, d'une expérience d'impact de plaque et de la caractérisation de la microstructure dans la présente étude. Les résultats révèlent un acier avec une dépendance significative de la vitesse de déformation sur le comportement mécanique en traction et la réponse à l'éclatement. Au fur et à mesure que la vitesse de déformation augmente, la limite d'élasticité en traction augmente, mais il n'y a pas de tendance de variation monotone car la structure du grain de contrainte maximale reste inchangée d'abord puis devient fine. . Il existe une corrélation étroite entre la vitesse d'impact, la vitesse de déformation, la contrainte maximale, la limite élastique de Hugoniot (HEL) et la résistance à l'éclatement. Le taux de déformation, la contrainte maximale et l'HEL augmentent, tandis que la résistance à l'éclatement reste presque constante avec l'augmentation de la vitesse d'impact. Au fur et à mesure que la vitesse d'impact augmente, la structure des grains devient fine, les HAGB augmentent et la phase martensitique augmente. La transformation de phase significative est responsable du comportement mécanique en traction et de la réponse à l'éclatement, et l'élévation de température a été calculée pour analyser son effet sur la transformation de phase. Que les orientations préférées soient le long de la direction de construction ou de la direction de traction dépend de la vitesse de déformation. Les échantillons de traction et de spallation présentent le mode de rupture ductile et les dommages proviennent des vides. Il est intéressant de noter que les vides ont toujours tendance à nucléer aux limites du bain de fusion. Un modèle d'évolution des dommages par éclats est illustré pour décrire le processus de dommages.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Abstrait

La chirurgie mini-invasive (MIS) et antérieure (ALIF), transforaminale (TLIF) ou la fusion intersomatique lombaire latérale (LLIF) nécessitent souvent une fixation percutanée par vis pédiculaire (PSF) pour obtenir une fusion circonférentielle. La technologie de guidage robotique peut augmenter le flux de travail pour améliorer le placement des vis et réduire le temps opératoire.

Rapporter une expérience chirurgicale avec la mise en place de vis percutanée assistée par robot après LLIF.

Les données des fusions avec PSF assistée par robot en décubitus ventral ou latéral ont été examinées. Un bras de guidage robotisé guidé par CT a été utilisé pour la mise en place des vis (Excelsius GPS™, Globus Medical Inc, Audubon, Pennsylvanie). L'imagerie TDM postopératoire a facilité la localisation des vis. Les coordonnées tridimensionnelles et bidimensionnelles de la pointe et de la queue de la vis ont été calculées et comparées à une trajectoire cible pour calculer les erreurs de ciblage. La brèche était définie comme une violation de la paroi pédiculaire latérale ou médiale.

La mise en place de vis robotisée a été réussie chez 28/31 patients. Chez ces patients, 116/116 vis ont été implantées avec succès. Le taux de violation était de 3,4% (4/116).Sur 17 patients (70 vis), la précision 3D moyenne était de 5,0 ± 2,4 mm, la précision 2D moyenne était de 2,6 ± 1,1 mm et le décalage angulaire moyen était de 5,6 ± 4,3° avec des coefficients de corrélation intraclasse (ICC) correspondants de 0,775 et 0,693. Précision tridimensionnelle corrélée à l'âge (R = 0,306, P = 0,011) et IMC (R = 0,252, P = .038). La précision ne différait pas significativement entre les niveaux du corps vertébral (P > .22). Le temps opératoire moyen pour le MIS-TLIF et les vis percutanées était de 277 ± 52 et 183 ± 54 min, respectivement. Le temps opératoire n'a pas diminué de manière significative dans les deux groupes (P > .187).

Le système de guidage robotique Excelsius GPS™ permet une PSF précise dans la plupart des cas avec une précision 2-D de 2 mm. Des études futures sont nécessaires pour démontrer l'utilité de ce nouveau système de guidage et l'amélioration du flux de travail.


Abstrait

Les effets des caractéristiques de la poudre (forme, taille et type de poudre) et des conditions de traitement (puissance du laser et vitesse de balayage) sur les propriétés mécaniques et les microstructures de l'acier inoxydable 17-4 PH de fusion sur lit de poudre laser (L-PBF) ont été étudiés à l'aide de quatre types de poudres. Le % de densité théorique, la résistance à la traction ultime, la dureté des pièces L-PBF sont sensibles à la densité énergétique et à la forme, la taille et le type de poudre de départ. La densité et les propriétés mécaniques des poudres atomisées à l'eau et au gaz augmentaient avec l'augmentation de la densité énergétique. Le gaz atomisé (50 = 13 m) poudres de forme sphérique et atomisées à l'eau (50 = 17 m) des poudres de densité tassée élevée produites à faible porosité et à haute densité (

97% de densité) pièces L-PBF à de faibles densités d'énergie de 64 et 80 J/mm 3 . L'augmentation de la densité d'énergie à 104 J/mm3 a donné lieu à des pièces L-PBF de poudres atomisées à l'eau et au gaz à haute densité (97 ± 0,5%). Cependant, même à une densité théorique élevée en % (97 ± 1 %), les propriétés des pièces en L-PBF variaient sur une plage relativement large (UTS : 500–1100 MPa dureté : 25–39 HRC allongement : 10–25 %). Cette grande variation des propriétés mécaniques pourrait être attribuée à la phase martensite et austénite ainsi qu'à la taille des grains dans les pièces L-PBF. De plus, la teneur en phase martensite et austénite et des parties L-PBF étaient également sensibles à la densité énergétique et au type de poudre de départ.


Recherche scientifique et méthodologie

Étant donné que de nombreuses statistiques ont une distribution normale (dans certaines circonstances), la règle 68-95-99.7 peut être utilisée pour comprendre la distribution des statistiques d'échantillon.

Rappelons que la règle 68-95-99.7 stipule que, pour tout distribution normale (Fig. 13.10) :

  • 68 % des valeurs se situent à moins de 1 écart type de la moyenne
  • 95% des valeurs se situent dans les 2 écarts types de la moyenne et
  • 99,7 % des valeurs se situent à moins de 3 déviations standard de la moyenne.

Ces pourcentages ne dépendent que du nombre d'écarts types ( (sigma) ) qu'une valeur ( (x) ) se trouve par rapport à la moyenne ( (mu) ). Ces informations peuvent être utilisées pour en savoir plus sur la façon dont les valeurs sont distribuées.

Exemple 17.1 (La règle 68-95-99.7) Supposons que les tailles des mâles adultes australiens ont une moyenne de (mu=175) cm et un écart type de (sigma=7) cm, et suivent (approximativement) une distribution normale. En utilisant ce modèle, quelle proportion d'hommes adultes australiens sont plus grand que 182 cm ?

Dessiner la situation est utile (Fig. 17.2). Notez que (175 + 7 = 182) cm est un écart type au dessus la moyenne. Nous savons que 68 % des valeurs se situent à moins d'un écart type de la moyenne, de sorte que 32 % sont en dehors de cette plage (plus petite ou plus grande) (Fig. 17.2). Par conséquent, 16 % sont plus grands qu'un écart-type au-dessus de la moyenne, la réponse est donc d'environ 16 %. (Encore 16% sont inférieurs à un écart type au dessous de la moyenne, ou moins de (175 - 7 = 168) cm de hauteur.)

Encore une fois, les pourcentages ne dépendent que du nombre d'écarts types ( (sigma) ) la valeur ( (x) ) est par rapport à la moyenne ( (mu) ), et non les valeurs réelles de ( mu) et (sigma) .

FIGURE 17.2 : Quelle proportion d'adultes australiens de sexe masculin mesure plus de 182 cm ?

Exemple 17.2 (La règle 68-95-99.7) Supposons que les tailles des mâles adultes australiens ont une moyenne de (mu=175) cm et un écart type de (sigma=7) cm, et suivent (approximativement) une distribution normale. En utilisant ce modèle, quelle proportion sont plus court que 161 cm ? Encore une fois, il est utile de dessiner la situation (Fig. 17.3).

Puisque (175 - (2 imes 7) = 161) , alors 161cm est deux écarts types au dessous de la moyenne. Étant donné que 95 % des valeurs se situent à moins de deux écarts types de la moyenne, 5 % sont en dehors de cette plage (moitié plus petite, moitié plus grande voir Fig. 17.3), de sorte que 2,5% sont plus court que 161 cm. (Encore 2,5 % sont plus grand que (175 + 14 = 189) cm.)

FIGURE 17.3 : Quelle proportion d'adultes australiens mâles mesurent moins de 161 cm ?

Encore une fois, les pourcentages ne dépendent que du nombre d'écarts types ( (sigma) ) la valeur ( (x) ) est par rapport à la moyenne ( (mu) ). Le nombre d'écarts types qu'une observation est de la moyenne est appelé un (z) -score. Un (z) -score est calculé en utilisant

[ z = frac< x - mu>. ] La conversion des valeurs en (z) -scores est appelée standardisation.

Définition 17.1 ( (z) -score) UNE (z) -score mesure le nombre d'écarts types d'une valeur par rapport à la moyenne. En symboles :

[commencer z = frac, ag <17.1>end] où (x) est la valeur, (mu) est la moyenne de la distribution et (sigma) est l'écart type de la distribution.

Exemple 17.3 ( (z) -scores) Dans l'exemple 17.1, le (z) -score pour une hauteur de 182 cm est

[ z = frac = frac<182 - 175> <7>= 1, ] un écart type au dessus la moyenne.

Dans l'exemple 17.2, le (z) -score pour une hauteur de 161 cm est

[ z = frac = frac<161 - 175> <7>= -2, ] deux écarts types au dessous de la moyenne (un négatif (z) -score signifie que la valeur est au dessous de la moyenne).

Le (z) -score est le nombre d'écarts types l'observation est éloignée de la moyenne. Le (z) -score est aussi appelé le valeur normalisée ou alors note normalisée, et est calculé à l'aide de l'équation (17.1). Notez que:

  • (z) -les scores sont négatifs pour les observations au dessous de la moyenne, et positif pour les observations au dessus la moyenne.
  • (z) -scores sont des nombres sans unités (c'est-à-dire qu'ils ne sont pas en kg, ou en cm, etc.).

Exemple 17.4 (La règle 68-95-99.7) Considérons le modèle pour les tailles des mâles adultes australiens : une distribution normale, moyenne (mu=175) , écart type (sigma=7) (Fig. 17.1).


17.4 : Analyse quantitative

Pour une étude classique du sud américain (Sud profond, University of Chicago Press, 1941), Davis et ses collègues ont collecté des données sur lesquelles des 18 femmes étaient présentes à chacun des 14 événements de la « saison sociale » dans une communauté. En examinant les modèles selon lesquels les femmes sont présentes (ou absentes) à quels événements, il est possible de déduire un modèle sous-jacent de liens sociaux, de factions et de groupements parmi les femmes. En même temps, en examinant quelles femmes étaient présentes aux 14 événements, il est possible de déduire des modèles sous-jacents dans la similitude des événements.

L'étude de Davis est un exemple de ce que Ron Breiger (1974) a appelé « la dualité des personnes et des groupes ». Breiger attire l'attention sur le double objectif de l'analyse des réseaux sociaux sur la façon dont les individus, par leur action, créent des structures sociales tout en temps, les structures sociales développent une réalité institutionnalisée qui contraint et façonne le comportement des individus qui y sont intégrés.

Les données utilisées pour l'analyse des réseaux sociaux, le plus souvent, mesurent les relations au niveau micro et utilisent des techniques d'analyse pour déduire la présence d'une structure sociale au niveau macro. Par exemple, nous examinons les liens des individus (micro) pour des modèles qui nous permettent d'inférer une macro structure (c'est-à-dire des cliques).

Les données Davis sont un peu différentes. Il décrit les liens entre deux ensembles de nœuds à deux niveaux d'analyse différents. Les liens que Davis identifie sont entre les acteurs (les femmes) et les événements (les fêtes de la saison sociale). De telles données impliquent deux niveaux d'analyse (ou deux "modes"). Souvent, ces données sont appelées données d'«affiliation» car elles décrivent quels acteurs sont affiliés (présents ou membres de) quelles macrostructures.

Les données bimodes offrent des possibilités analytiques très intéressantes pour mieux comprendre les relations "macro-micro". Dans les données de Davis, par exemple, nous pouvons voir comment les choix des femmes individuelles « font » le sens des fêtes en choisissant d'y assister ou non. Nous pouvons également voir comment les parties, en tant que macro-structures, peuvent affecter les choix des femmes individuelles.

Avec un peu de créativité, vous pouvez commencer à voir partout des exemples de ce type de structures sociales à deux modes ou macro-micro. Le monde social est un monde de « nestification » dans lequel les individus (et les structures plus grandes) sont intégrés dans des structures plus larges (et des structures plus larges sont intégrées dans des structures encore plus grandes). En effet, l'analyse de la tension entre « structure et agence » ou « macro et micro » est l'un des thèmes centraux de la théorie et de l'analyse sociologiques.

Dans ce chapitre, nous examinerons certains des outils qui ont été appliqués (et, dans certains cas, développés) par les analystes des réseaux sociaux pour examiner les données bimodales. Nous commençons par une discussion sur les structures de données, procédons à la visualisation, puis tournons notre attention vers les techniques d'identification des modèles quantitatifs et qualitatifs dans les données bimodes.

Pour la plupart des exemples de ce chapitre, nous utiliserons un nouvel ensemble de données à 2 modes d'un problème sur lequel je travaille en parallèle avec ce chapitre. Les données décrivent les contributions d'un petit nombre de grands donateurs (ceux qui ont donné un total d'au moins 1 000 000 $) aux campagnes de soutien et d'opposition aux initiatives de vote en Californie au cours de la période 2000 à 2004. Nous avons inclus 44 des initiatives. L'ensemble de données a deux modes : les donateurs et les initiatives.

Nous utiliserons deux formes différentes des données - une valeur et une binaire. Les données valorisées décrivent les relations entre les donateurs et les initiatives à l'aide d'une échelle ordinale simple. Un acteur est codé -1 s'il a apporté une contribution en opposition à une initiative particulière, 0 s'il n'a pas contribué et +1 s'il a contribué à soutenir l'initiative. Les données binaires décrivent si un donateur a contribué (+1) ou non (0) à la campagne pour chaque initiative.

table des matières Structures de données bipartites

Le moyen le plus courant de stocker des données bimodes est une matrice de données rectangulaire d'acteurs (lignes) par événements (colonnes). La figure 17.1 montre une partie de l'ensemble de données valorisé que nous utiliserons ici ( Données>Affichage ).

Graphique 17.1. Tableau de données rectangulaire de données sur les dons politiques en Californie

La California Teachers Association, par exemple, a fait des dons en opposition à l'initiative des 7e, 9e et 10e scrutins, et un don pour le 8e.

Une approche très courante et très utile des données bimodes consiste à les convertir en deux ensembles de données monomodes et à examiner les relations au sein de chaque mode séparément. Par exemple, nous pourrions créer un ensemble de données de liens acteur par acteur, mesurant la force du lien entre chaque paire d'acteurs par le nombre de fois qu'ils ont contribué du même côté des initiatives, additionné à travers la quarantaine d'initiatives. . Nous pourrions également créer un ensemble de données à mode unique de liens initiative par initiative, en codant la force de la relation comme le nombre de donateurs que chaque paire d'initiatives avait en commun. Le Données>Affiliations peut être utilisé pour créer des ensembles de données à un mode à partir d'un tableau de données rectangulaire à deux modes. La figure 17.2 affiche une boîte de dialogue typique.

Graphique 17.2. Dialogue de Données>Affiliations créer des relations acteur par acteur des donateurs californiens

Il y a plusieurs choix ici.

Nous avons sélectionné le ligne mode (acteurs) pour cet exemple. Pour créer un ensemble de données à mode unique initiative par initiative, nous aurions sélectionné colonne.

Il existe deux méthodes alternatives :

Le méthode des produits croisés prend chaque entrée de la ligne pour l'acteur A et la multiplie par la même entrée pour l'acteur B, puis additionne le résultat. Habituellement, cette méthode est utilisée pour les données binaires car le résultat est un décompte de co-occurrence. Avec des données binaires, chaque produit est 1 uniquement si les deux acteurs étaient "présents" à l'événement, et la somme des événements donne le nombre d'événements en commun - une mesure de force appréciée.

Notre exemple est un peu plus compliqué car nous avons appliqué la méthode des produits croisés aux données valorisées. Ici, si aucun acteur n'a fait de don à une initiative (0 * 0 = 0), ou si l'un a fait un don et l'autre n'a pas fait (0 * -1 ou 0 * +1 = 0), il n'y a pas d'égalité. Si les deux ont fait un don dans le même sens (-1 * -1 = 1 ou +1 * +1 = 1), il y a égalité positive. Si les deux ont fait un don, mais dans des directions opposées (+1 * -1 = -1) il y a une égalité négative. La somme des produits croisés est un compte valorisé de la prépondérance des liens positifs ou négatifs.

Le méthode des minima examine les entrées des deux acteurs à chaque événement et sélectionne la valeur minimale. Pour les données binaires, le résultat est le même que la méthode du produit croisé (si les deux, ou l'un des acteurs est zéro, le minimum est zéro uniquement si les deux sont un est le minimum). Pour les données valorisées, la méthode des minimums dit essentiellement : le lien entre les deux acteurs est égal au plus faible des liens des deux acteurs à l'événement. Cette approche est couramment utilisée lorsque les données d'origine sont mesurées telles qu'elles sont valorisées.

La figure 17.3 montre le résultat de l'application de la méthode des produits croisés à nos données valorisées.

Graphique 17.3. Force des liens acteur par acteur (Figure 17.2)

L'association des enseignants a participé à 16 campagnes (le produit croisé de la ligne avec lui-même compte le nombre d'événements). L'association a pris la même position sur les questions que le Parti démocrate (acteur 7) dix fois plus que de prendre position opposée (ou pas). L'association des restaurateurs (nœud 10) a adopté une position opposée à celle de M. Bing (nœud 9) plus fréquemment qu'une position favorable (ou non). À l'aide de cet algorithme, nous avons capturé une grande partie, mais pas toutes les informations contenues dans les données d'origine. Un score de -1, par exemple, pourrait être le résultat de deux acteurs prenant des positions opposées sur une seule question ou, cela pourrait signifier que les deux acteurs ont tous deux pris position sur plusieurs questions - et, en somme, ils étaient en désaccord une fois de plus qu'ils n'étaient d'accord.

Les matrices monomodes résultantes d'acteurs par acteurs et d'événements par événements sont désormais des matrices valorisées indiquant la force du lien basé sur la cooccurrence. Toutes les méthodes d'analyse monomode peuvent désormais être appliquées à ces matrices pour étudier soit la microstructure, soit la macrostructure.

Les données bimodes sont parfois stockées d'une seconde manière, appelée matrice "bipartite". Une matrice bipartite est formée en ajoutant les lignes en tant que colonnes supplémentaires et les colonnes en tant que lignes supplémentaires. Par exemple, une matrice bipartite des données de nos donateurs aurait 68 lignes (les 23 acteurs suivis des 45 initiatives) par 68 colonnes (les 23 acteurs suivis des 45 initiatives). Les deux blocs acteur par événement de la matrice sont identiques à la matrice d'origine, les deux nouveaux blocs (acteurs par acteurs et événements par événements) sont généralement codés comme des zéros. Le Transformer>Bipartite L'outil convertit les matrices rectangulaires à deux modes en matrices biparties à deux modes. La figure 17.4 montre une boîte de dialogue typique.

Figure 17.4 Boîte de dialogue des données Transform>Bipartite pour les dons politiques en Californie

Le valeur pour remplir les liens intra-mode généralement zéro, de sorte que les acteurs ne sont connectés que par co-présence aux événements, et les événements ne sont connectés que par le fait d'avoir des acteurs en commun.

Une fois que les données ont été mises sous la forme d'une matrice carrée bipartite, de nombreux algorithmes discutés ailleurs dans ce texte pour les données monomodes peuvent être appliqués. Une grande prudence est nécessaire dans l'interprétation, car le réseau analysé est un réseau très inhabituel dans lequel les relations sont des liens entre des nœuds à différents niveaux d'analyse. Dans un sens, les acteurs et les événements sont traités comme des objets sociaux à un seul niveau d'analyse, et des propriétés telles que la centralité et la connexion peuvent être explorées. Ce type d'analyse est relativement rare, mais présente des possibilités créatives intéressantes.

Plus généralement, nous cherchons à garder les acteurs et les événements "séparés" mais "connectés" et à rechercher des modèles dans la façon dont les acteurs lient les événements ensemble, et comment les événements lient les acteurs ensemble. Nous examinerons ci-dessous quelques techniques pour cette tâche. Une bonne première étape de toute analyse de réseau consiste cependant à visualiser les données.

Il n'y a pas de nouveaux problèmes techniques dans l'utilisation de graphiques pour visualiser des données en 2 modes. Les acteurs et les événements sont traités comme des nœuds, et les lignes sont utilisées pour montrer les connexions des acteurs aux événements (il n'y aura pas de lignes d'acteurs à acteurs directement, ou d'événements à événements).

Dans UCINET, l'outil NetDraw>File>Open>Ensemble de données UCINET>2-Mode Network produit un graphique utile pour les petits réseaux. La figure 17.5 montre un rendu des données des donneurs californiens sous leur forme valorisée.

Graphique 17.5. Réseau valorisé à deux modes de donateurs et d'initiatives californiens

Étant donné que le graphique a 68 nœuds (acteurs plus initiatives), il est un peu encombré. Nous avons supprimé les isolats (initiatives qui n'ont pas de donateurs en commun et les donateurs qui n'ont pas d'initiatives en commun), localisé les points dans l'espace à l'aide de Gower MDS, redimensionné les nœuds et les étiquettes de nœuds et éliminé les pointes de flèche.

Nous pouvons obtenir des informations à partir de ce type de visualisation d'un réseau à deux modes (en particulier lorsqu'une sorte de méthode de mise à l'échelle est utilisée pour localiser les points dans l'espace). Les acteurs qui sont proches les uns des autres (par exemple les Indiens Cahualla et Morongo dans le coin inférieur gauche) sont connectés car ils ont des profils d'événements similaires. Dans ce cas particulier, les deux tribus ont été impliquées conjointement dans des initiatives sur le jeu (P70) et l'environnement (P40). De même, certaines des propositions de vote sont « similaires » en ce qu'elles ont des donateurs en commun. Et, certains donateurs sont situés dans les mêmes parties de l'espace que certaines initiatives - définissant quels problèmes (événements) ont tendance à aller de pair avec quels acteurs.

C'est précisément ce genre de « vivre ensemble » ou de « correspondance » des lieux d'acteurs et d'événements que les méthodes numériques discutées ci-dessous visent à indexer. C'est-à-dire que les méthodes numériques sont des efforts pour capturer le regroupement d'acteurs réunis par des événements événements réunis par la co-présence d'acteurs et les « groupes » d'acteurs/événements qui en résultent.

Lorsque nous travaillons avec un grand nombre de variables qui décrivent des aspects d'un phénomène (par exemple, des éléments d'un test en tant que mesures multiples du trait sous-jacent de "maîtrise du sujet"), nous concentrons souvent notre attention sur ce que ces mesures multiples ont "en commun". " En utilisant des informations sur la co-variation entre les multiples mesures, nous pouvons déduire une dimension ou un facteur sous-jacent une fois que nous avons fait cela, nous pouvons localiser nos observations le long de cette dimension.L'approche de localisation, ou de notation, des cas individuels en termes de leurs scores sur les facteurs de la variance commune entre plusieurs indicateurs est le but de l'analyse des facteurs et des composants (et d'autres techniques de mise à l'échelle moins courantes).

Si nous pensons à notre problème à deux modes, nous pourrions appliquer cette logique de "scaling" aux acteurs ou aux événements. C'est-à-dire que nous pourrions « échelonner » ou indexer la similarité des acteurs en termes de participation aux événements - mais pondérer les événements en fonction de la variance commune entre eux. De même, nous pourrions « échelonner » les événements en termes de modèles de co-participation des acteurs - mais pondérer les acteurs en fonction de leur fréquence de co-occurrence. Des techniques comme Outils>MDS et l'analyse des facteurs ou des composantes principales pourrait être utilisée pour "mettre à l'échelle" les acteurs ou les événements.

Il est également possible d'appliquer ce type de logique de mise à l'échelle aux données acteur par événement. UCINET comprend deux techniques d'analyse factorielle étroitement liées ( Outils>Mise à l'échelle en 2 modes>SVD et Outils> Analyse factorielle de mise à l'échelle en 2 modes ) qui examinent simultanément la variance en commun entre les acteurs et les événements. UCINET comprend également Outils>Mise à l'échelle en 2 modes>Correspondance qui applique la même logique aux données binaires. Une fois que les dimensions sous-jacentes de la variance conjointe ont été identifiées, nous pouvons alors « mapper » à la fois les acteurs et les événements dans le même « espace ». Cela nous permet de voir quels acteurs sont similaires en termes de participation aux événements (qui ont été pondérés pour refléter les modèles), quels événements sont similaires en termes de quels acteurs y participent (pondérés pour refléter des modèles communs), et quels acteurs et événements sont situés "à proximité" les uns des autres.

Il est parfois possible d'interpréter les facteurs ou les dimensions sous-jacents pour comprendre pourquoi les acteurs et les événements vont de pair comme ils le font. Plus généralement, des groupes d'acteurs et d'événements situés de manière similaire peuvent former des « types » ou des « domaines » significatifs d'action sociale.

Ci-dessous, nous appliquerons très brièvement ces outils aux données sur les grands donateurs aux initiatives californiennes sur la période 2000-2004. Notre objectif est d'illustrer la logique de la mise à l'échelle à 2 modes. La discussion ici est très courte sur les traitements techniques des différences (importantes) entre les techniques.

table des matières Analyse SVD à deux modes

La décomposition en valeur singulière (SVD) est une méthode d'identification des facteurs sous-jacents aux données bimodes (évaluées). La méthode d'extraction des facteurs (valeurs singulières) diffère quelque peu de l'analyse conventionnelle des facteurs et des composantes.

Pour illustrer SVD, nous avons saisi une matrice de 23 principaux donateurs (ceux qui ont donné un total combiné de plus de 1 000 000 $ à cinq campagnes ou plus) par 44 initiatives de vote en Californie. Chaque acteur est noté -1 s'il a contribué en opposition à l'initiative, +1 s'il a contribué en faveur de l'initiative, ou 0 s'il n'a pas contribué. La matrice résultante est constituée de données valorisées qui peuvent être examinées avec SVD et analyse factorielle. Cependant, le faible nombre de contributeurs à de nombreuses initiatives et la variance très restreinte de l'échelle ne sont pas idéales.

La figure 17.6 montre les « valeurs singulières » extraites de la matrice rectangulaire donateur par initiative en utilisant Outils>2-Mode Scaling>SVD.

Graphique 17.6. Mise à l'échelle bimodale des donateurs et des initiatives californiennes par décomposition en valeur unique : valeurs singulières

Les "valeurs singulières" sont analogues aux "valeurs propres" dans les techniques de mise à l'échelle des facteurs et des composants les plus courantes. Le résultat montre ici que l'« espace » conjoint de la variance entre les donateurs et les initiatives n'est pas bien saisi par une simple caractérisation. Si nous pouvions facilement donner un sens aux modèles avec des idées comme "gauche/droite" et "financière/morale" comme dimensions sous-jacentes, il n'y aurait que quelques valeurs singulières qui expliqueraient des parties substantielles de la variance articulaire. Ce résultat nous indique que la manière dont les acteurs et les événements « s’associent » n’est pas propre, simple et facile -- dans ce cas.

Avec cette mise en garde importante à l'esprit, nous pouvons examiner comment les événements et les donateurs sont « mis à l'échelle » ou situés sur les dimensions sous-jacentes. Premièrement, les initiatives de vote. La figure 17.7 montre l'emplacement ou les scores d'échelle de chacune des propositions de vote sur les six premières dimensions sous-jacentes de cet espace hautement multidimensionnel.

Graphique 17.7. Donateurs et initiatives SVD de Californie : mise à l'échelle des initiatives

Il s'avère que la première dimension tend à localiser les initiatives soutenant les dépenses publiques pour l'éducation et la protection sociale vers un pôle, et les initiatives soutenant la limitation du pouvoir législatif vers l'autre - bien que de telles interprétations soient entièrement subjectives. La deuxième dimension et les dimensions supérieures semblent suggérer que les initiatives peuvent également être considérées comme différentes les unes des autres par d'autres aspects.

Dans le même temps, les résultats nous permettent de localiser ou de redimensionner les donateurs selon les mêmes dimensions sous-jacentes. Ces chargements sont illustrés à la figure 17.8.

Graphique 17.8. Donateurs et initiatives SVD de Californie : mise à l'échelle des donateurs

Vers l'extrémité positive de la dimension un (que nous avons précédemment interprétée comme favorisant les dépenses publiques), nous trouvons le parti démocrate, les employés publics et les syndicats d'enseignants au pôle opposé, nous trouvons les républicains et certains groupes d'entreprises et professionnels.

Il est souvent utile de visualiser les emplacements des acteurs et des événements dans un nuage de points défini par des scores d'échelle sur les différentes dimensions. La carte de la figure 17.9 montre les résultats pour les deux premières dimensions de cet espace.

Graphique 17.9. Donateurs et initiatives SVD de Californie : carte en deux dimensions

On remarque que la première dimension (gauche-droite sur la figure) semble avoir ses pôles « ancrés » par les différences entre les initiatives la deuxième dimension (haut-bas) semble être davantage définie par les différences entre les groupes (à l'exception de la proposition 56) . Le résultat ne localise pas proprement et clairement des événements particuliers et des acteurs particuliers le long de fortes dimensions linéaires. Cependant, il produit des grappes intéressantes qui montrent des groupes d'acteurs ainsi que les problèmes qui sont au cœur de leurs modèles de participation. Les démocrates et les syndicats se regroupent (en haut à droite) avec un certain nombre de propositions particulières dans lesquelles ils ont été très actifs (par exemple 46, 63). Groupe d'entreprises, de construction et de capital-risque (plus vaguement) en bas à droite, ainsi que les questions fondamentales qui ont constitué leur programme principal dans le processus d'initiative (par exemple, prop. 62).

table des matières Analyse factorielle bimodale

L'analyse factorielle fournit une méthode alternative à la SVD pour les mêmes objectifs : identifier les dimensions sous-jacentes de l'espace conjoint de la variance acteur par événement, et localiser ou mettre à l'échelle les acteurs et les événements dans cet espace. La méthode utilisée par l'analyse factorielle pour identifier les dimensions diffère de la SVD. La figure 17.10 montre les valeurs propres (par composantes principales) calculées par Outils>2-Mode Scaling>Analyse des facteurs.

Figure 17.10 Valeurs propres de la factorisation bimodale des donateurs et initiatives californiens

Cette solution, bien que différente de la SVD, suggère également une complexité dimensionnelle considérable dans la variance conjointe des acteurs et des événements. C'est-à-dire que les caractérisations simples des dimensions sous-jacentes (par exemple, "gauche/droite") ne fournissent pas de prédictions très précises sur les emplacements des acteurs ou des événements individuels. La méthode d'analyse factorielle produit une complexité légèrement inférieure à celle de la SVD.

En gardant à l'esprit la mise en garde d'un ajustement assez médiocre d'une solution de faible dimension, examinons la mise à l'échelle des acteurs sur les trois premiers facteurs (figure 17.11).

17.11. Chargements des donateurs

Le premier facteur, par cette méthode, produit un modèle similaire à SVD. À un pôle se trouvent les démocrates et les syndicats, à l'autre se trouvent de nombreux groupes capitalistes. Il existe cependant quelques différences notables (par exemple AFSCME). La figure 17.12 montre les chargements des événements.

Graphique 17.12. Chargements d'événements

Les modèles ici ont également une certaine similitude avec les résultats SVD, mais diffèrent considérablement dans les détails. Pour visualiser les modèles, les chargements des acteurs et des événements sur les dimensions pourraient être extraits des fichiers de données de sortie et représentés graphiquement à l'aide d'un nuage de points.

table des matières Analyse des correspondances à deux modes

Pour les données binaires, l'utilisation de l'analyse factorielle et du SVD n'est pas recommandée. Les méthodes de factorisation opèrent sur les matrices de variance/covariance ou de corrélation entre acteurs et événements. Lorsque les connexions des acteurs aux événements sont mesurées au niveau binaire (ce qui est très souvent le cas dans l'analyse de réseau), les corrélations peuvent sérieusement sous-estimer la covariance et rendre les modèles difficiles à discerner.

Comme alternative à la mise à l'échelle binaire acteur par événement, la méthode d'analyse des correspondances ( Outils>Mise à l'échelle en mode 2>Correspondance) peut être utilisé. L'analyse des correspondances (plutôt que l'analyse des classes latentes) fonctionne sur des tableaux croisés binaires à plusieurs variables, et ses hypothèses de distribution sont mieux adaptées aux données binaires.

Pour illustrer l'application de l'analyse des correspondances, nous avons dichotomisé les données des donateurs politiques et des initiatives en attribuant une valeur de 1 si un acteur a fait un don en faveur ou contre une initiative, et en attribuant un zéro s'il n'a pas participé à la campagne. sur une initiative particulière. Si nous voulions que notre analyse prête attention à la partisanerie, plutôt qu'à la simple participation, nous aurions pu créer deux ensembles de données - un basé sur l'opposition ou non, un basé sur le soutien ou non - et faire deux analyses de correspondance distinctes.

La figure 17.13 montre la localisation des événements (initiatives) selon trois dimensions de l'espace conjoint acteur-événement identifié par la méthode d'analyse des correspondances.

Graphique 17.13. Coordonnées de l'événement pour la co-participation des donateurs aux campagnes de l'initiative californienne

Étant donné que ces données ne reflètent pas la partisanerie, mais uniquement la participation, nous ne nous attendons pas à ce que les résultats correspondent à ceux discutés dans les sections ci-dessus. Et, ils ne le font pas. Nous voyons cependant que cette méthode peut également être utilisée pour localiser les initiatives selon de multiples dimensions sous-jacentes qui capturent la variance à la fois des acteurs et des événements. La figure 17.14 montre la mise à l'échelle des acteurs.

Graphique 17.14. L'acteur coordonne la co-participation des donateurs aux campagnes de l'initiative californienne

La première dimension présente ici une certaine similitude avec les pôles démocrate/syndical versus capitaliste. Ici, cependant, cette différence signifie que les deux groupements ont tendance à participer à des groupes d'initiatives différents, plutôt que de s'affronter dans les mêmes campagnes.

La visualisation est souvent la meilleure approche pour trouver des modèles significatifs (en l'absence d'une théorie solide). La figure 17.15 montre le tracé des acteurs et des événements dans les deux premières dimensions de l'espace d'analyse conjointe des correspondances.

Graphique 17.15. Carte bidimensionnelle d'analyse des correspondances

Le quadrant inférieur droit contient ici un groupe significatif d'acteurs et d'événements, et illustre comment les résultats de l'analyse des correspondances peuvent être interprétés. En bas à droite, nous avons quelques propositions concernant les jeux de casino indiens (68 et 70) et deux propositions concernant les questions écologiques/de conservation (40 et 50). Deux des principales nations amérindiennes (la bande Cahualla et Morongo des Indiens de la mission) sont cartographiées ensemble. Le résultat montre qu'il existe un ensemble de problèmes qui « coexistent » avec un ensemble de donateurs - les acteurs définissant les événements et les événements définissant les acteurs.

Souvent, tout ce que nous savons des acteurs et des événements est une simple co-présence. C'est-à-dire qu'un acteur était ou n'était pas présent, et notre matrice d'incidence est binaire. Dans de tels cas, les méthodes de mise à l'échelle décrites ci-dessus peuvent être appliquées, mais il faut être très prudent quant aux résultats. En effet, les diverses méthodes dimensionnelles fonctionnent sur des matrices de similarité/distance, et des mesures telles que les corrélations (telles qu'utilisées dans l'analyse factorielle bimodale) peuvent être trompeuses avec des données binaires. Même l'analyse des correspondances, qui est plus conviviale pour les données binaires, peut être gênante lorsque les données sont rares.

Une approche alternative est la modélisation par blocs. La modélisation par blocs fonctionne directement sur la matrice d'incidence binaire en essayant de permuter les lignes et les colonnes pour s'adapter aussi étroitement que possible aux images idéalisées. Cette approche n'implique aucune des hypothèses de distribution qui sont faites dans l'analyse d'échelle.

En principe, on pourrait adapter n'importe quel type de modèle de bloc aux données d'incidence acteur par événement. Nous examinerons deux modèles qui posent des questions significatives (alternatives) sur les modèles de liaison entre les acteurs et les événements. Ces deux modèles peuvent être directement calculés dans UCINET. Des modèles de blocs alternatifs, bien sûr, pourraient être ajustés aux données d'incidence en utilisant des algorithmes de modélisation de blocs plus généraux.

table des matières Analyse cœur-périphérie à deux modes

La structure cœur-périphérie est un modèle typique idéal qui divise à la fois les lignes et les colonnes en deux classes. L'un des blocs de la diagonale principale (le noyau) est un bloc de haute densité, l'autre bloc de la diagonale principale (la périphérie) est un bloc de faible densité. Le modèle cœur-périphérie est indifférent à la densité des liens dans les blocs hors diagonale.

Lorsque nous appliquons le modèle cœur-périphérie aux données acteur par acteur (voir Réseau>Noyau/Périphérique ), le modèle cherche à identifier un ensemble d'acteurs qui ont une forte densité de liens entre eux (le noyau) en partageant de nombreux événements en commun, et un autre ensemble d'acteurs qui ont une très faible densité de liens entre eux (la périphérie) en ayant quelques événements en commun. Les acteurs du noyau sont capables de coordonner leurs actions, ceux de la périphérie ne le sont pas. En conséquence, les acteurs du centre ont un avantage structurel dans les relations d'échange avec les acteurs de la périphérie.

Lorsque nous appliquons le modèle cœur-périphérie aux données acteur par événement ( Réseau>2-Mode>Noyau/Périphérique catégoriel ) nous recherchons la même "image" idéalisée d'un bloc de haute et basse densité le long de la diagonale principale. Mais, maintenant, le sens est assez différent.

Le « noyau » se compose d'une partition d'acteurs étroitement liés à chacun des événements d'une partition d'événements et simultanément d'une partition d'événements étroitement liés aux acteurs de la partition de base. Ainsi, le "core" est un cluster d'acteurs fréquemment co-occurrents et événements. La "périphérie" consiste en une partition d'acteurs qui ne coïncident pas avec les mêmes événements et une partition d'événements qui sont disjoints parce qu'ils n'ont pas d'acteurs en commun.

Réseau>2-Mode>Noyau/périphérie catégoriel utilise des méthodes numériques pour rechercher la partition des acteurs et des événements qui se rapproche le plus possible de l'image idéalisée. La figure 17.16 montre une partie des résultats de l'application de cette méthode à la participation (et non à la partisanerie) dans les données des donateurs et des initiatives en Californie.

Figure 17.16 Modèle catégorique cœur-périphérie des donateurs et initiatives de vote de 1 million de dollars en Californie (tronqué)

La méthode de recherche numérique utilisée par Réseau>2-Mode>Noyau/Périphérique catégoriel est un algorithme génétique, et la mesure de la qualité de l'ajustement est exprimée en termes de score de "fitness" (0 signifie un mauvais ajustement, 1 signifie un excellent ajustement). Vous pouvez également juger de la qualité du résultat en examinant la matrice de densité à la fin de la sortie. Si le modèle de bloc a complètement réussi, le bloc 1,1, devrait avoir une densité de un et le bloc 2, 2 devrait avoir une densité de zéro. Bien que loin d'être parfait, le modèle ici est assez bon pour être pris au sérieux.

La matrice bloquée montre un "noyau" composé du Parti démocrate, d'un certain nombre de grands syndicats et de l'association de l'industrie du bâtiment qui sont tous très susceptibles de participer à un nombre considérable d'initiatives (proposition 23 à proposition 18). Les autres acteurs sont regroupés en périphérie car ils participent tous deux moins fréquemment et ont peu de problèmes en commun. Un nombre considérable d'enjeux sont également regroupés en « périphériques » dans le sens où ils attirent peu de donateurs, et ces donateurs ont peu de points communs. Nous voyons également (en haut à droite) que les acteurs principaux participent dans une certaine mesure (0,179) aux problèmes périphériques. En bas à gauche, nous voyons que les acteurs périphériques participent un peu plus fortement (.260) aux questions centrales.

table des matières Analyse des factions à deux modes

Un modèle de bloc alternatif est celui des « factions ». Les factions sont des groupements qui ont une densité élevée au sein du groupe et une faible densité de liens entre les groupes. Réseaux>Sous-groupes>Factions adapte ce modèle de bloc aux données monomodes (pour tout nombre de factions spécifié par l'utilisateur). Réseau>2-Mode>2-Mode Factions adapte le même type de modèle aux données bimodes (mais pour seulement deux factions).

Lorsque nous appliquons le modèle des factions aux données d'acteurs monomodes, nous essayons d'identifier deux groupes d'acteurs étroitement liés les uns aux autres en participant aux mêmes événements, mais très vaguement connectés aux membres d'autres factions et aux événements qui attachez-les ensemble. Si nous devions appliquer l'idée de factions aux événements dans une analyse monomode, nous chercherions à identifier des événements étroitement liés en ayant exactement les mêmes participants.

Réseau>2-Mode>2-Mode Factions applique la même approche à la matrice rectangulaire acteur par événement. Ce faisant, nous essayons de localiser des regroupements conjoints d'acteurs et d'événements qui s'excluent autant que possible. En principe, il pourrait y avoir plus de deux de ces factions. La figure 17.17 montre les résultats du modèle de blocage des factions à deux modes pour la participation des principaux donateurs aux initiatives politiques.

Graphique 17.17. Modèle de factions à deux modes des donateurs et initiatives de vote de 1 million de dollars californiens (tronqué)

Deux mesures de la qualité de l'ajustement sont disponibles. Nous avons d'abord notre score de "fitness", qui est la corrélation entre les scores observés (0 ou 1) et les scores qui "devraient" être présents dans chaque bloc. Les densités dans les blocs nous renseignent également sur la qualité de l'ajustement. Pour une analyse des factions, un modèle idéal serait des blocs 1 denses le long de la diagonale (nombreux liens au sein des groupes) et des blocs zéro en dehors de la diagonale (liens entre les groupes).

L'ajustement du modèle des deux factions n'est pas aussi impressionnant que l'ajustement du modèle cœur-périphérie. Cela suggère qu'une "image" de la politique californienne comme l'un des deux espaces d'acteurs-enjeux distincts et largement disjoints n'est pas aussi utile qu'une image d'un noyau d'acteurs et d'enjeux de haute intensité couplé à un ensemble d'enjeux et de participants par ailleurs disjoints.

Le blocage lui-même n'est pas non plus très attrayant, plaçant la plupart des acteurs dans une faction (avec une densité modeste de 0,401). La deuxième faction est petite et a une densité (.299) qui n'est pas très différente des blocs hors diagonale. Comme auparavant, le blocage des acteurs par les événements regroupe des ensembles d'acteurs et d'événements qui se définissent les uns les autres.

L'un des principaux thèmes permanents de l'analyse des réseaux sociaux est la manière dont les acteurs individuels "créent" des structures sociales plus larges par leurs modèles d'interaction tandis que, en même temps, les modèles institutionnels façonnent les choix faits par les individus qui sont intégrés dans les structures.

Les données bimodales (souvent appelées « quotactor par événement » ou « affiliation » dans l'analyse des réseaux sociaux) offrent des possibilités intéressantes pour mieux comprendre les relations macro-micro ou agent-structure. Avec des données bimodales, nous pouvons examiner comment les macro-structures (événements) modèlent (ou non) les interactions entre les agents, nous pouvons également examiner comment les acteurs définissent et créent des macro structures par leurs modèles d'affiliation avec eux. De plus, on peut tenter de décrire simultanément des schémas de relations entre acteurs et structures.

Dans ce chapitre, nous avons brièvement examiné certaines des manières typiques dont les données bimodales apparaissent dans l'analyse des réseaux sociaux, et les structures de données qui sont utilisées pour enregistrer et manipuler les données bimodales. Nous avons également brièvement examiné l'utilité des graphes à deux modes (graphes bi-parites) pour visualiser l'"espace social" défini à la fois par les acteurs et les événements.

Notre principale attention, cependant, était sur les méthodes pour essayer d'identifier des modèles dans les données à deux modes qui pourraient mieux nous aider à décrire et à comprendre pourquoi les acteurs et les événements "s'emboîtent" de la manière dont ils le font.

Une classe de méthodes découle de l'analyse factorielle et des approches connexes. Ces méthodes (mieux appliquées aux données valorisées) cherchent à identifier les "dimensions" sous-jacentes de l'espace acteur-événement, et elles cartographient à la fois les acteurs et les événements dans cet espace. Ces approches peuvent être particulièrement utiles pour rechercher la « logique cachée » ou la « structure latente » de dimensions plus abstraites qui peuvent sous-tendre les interactions de nombreux acteurs spécifiques à travers de nombreux événements spécifiques. Ils peuvent également être utiles pour identifier des groupes d'acteurs et les événements qui « coulent ensemble » lorsqu'ils sont considérés à travers le prisme des dimensions abstraites latentes.

Une autre classe de méthodes est basée sur la modélisation par blocs. Le but de ces méthodes est d'évaluer dans quelle mesure les modèles observés d'affiliations acteur-événement correspondent à certaines notions antérieures de la nature de l'"espace joint" (c'est-à-dire "noyau-périphérie" ou "quotfactions"). Dans la mesure où les affiliations acteur-événement peuvent être utilement pensées de cette manière, les modèles de blocs permettent aussi alors de classer des types ou des groupes d'acteurs avec les événements qui les caractérisent.

L'analyse bimodale des réseaux sociaux ne doit pas nécessairement se limiter aux individus et à leur participation à des activités bénévoles (comme dans le cas de nos exemples et de l'étude originale de Davis discutée au début de ce chapitre). Les outils d'analyse à deux modes pourraient être appliqués aux données CSS (structure sociale cognitive) pour voir si les percepteurs peuvent être classés en fonction de la similitude dans leurs perceptions des réseaux, simultanément à la classification des images de réseau en termes de similitude de ceux qui perçoivent. Les unités à n'importe quel niveau d'analyse (organisations et industries, états-nations et civilisations, etc.) pourraient être utilement considérées comme des problèmes à deux modes.


17.4 : Analyse quantitative

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux. Pour les articles publiés sous licence Creative Common CC BY en accès libre, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant leur publication.

L'article de fond peut être soit un article de recherche original, soit une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type de communication donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Voir la vidéo: Qualitative Data Analysis (Décembre 2021).