Information

Brauche Hilfe bei der Interpretation von Western-Blot-Daten

Brauche Hilfe bei der Interpretation von Western-Blot-Daten


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Das Papier, das ich lese (hier: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7094582/) verwendet densitometrische Einheiten, um die Western Blots zu quantifizieren.

Die Autoren erwähnten, dass die nicht phosphorylierten Proteine ​​als Beladungskontrollen verwendet wurden und ihre Mengen durch die densitometrischen Graphen für jede entsprechende Figur dargestellt werden, aber die Proteinaktivität wird durch ihre phosphorylierten Gegenstücke gemessen, die meiner Meinung nach durch die densitometrischen Graphen auf der rechten Seite dargestellt werden entsprechende Figur.

Fragen:

  1. Habe ich das richtig interpretiert?
  2. Was genau sind Ladekontrollen?
  3. Ich versuche, diese Daten für Parameterschätzungszwecke zu verwenden. Ist es möglich, die Grundmasse eines bestimmten Proteins zu bestimmen?

Antworten auf jede Frage:

  1. Ungefähr ja. In diesem Fall soll phosphoryliertes Akt (p-Akt) die aktive Form des Enzyms sein, das in der Zelle herumläuft und seine Aufgabe erfüllt, während nicht phosphoryliertes Akt keine Aktivität hat, an der sie interessiert sind. Die Autoren zeigen jedoch dass die Ziele von Akt Charakteristika der Akt-Aktivität zeigen, wenn Akt phosphoryliert ist ( 2B , 2C).

Beachten Sie, dass die Densitometrie nur eine Möglichkeit ist, die Intensität einiger Banden auf Immunoblots (Western) zu messen. In diesem Fall wird es durch die Ladekontrolle normalisiert (Nicht-Phospho-Akt). Sie könnten also die Densitometrie-Plots so interpretieren, dass sie die Anteil von Akt, das phosphoryliert ist. Es ist ein wenig verwirrend, weil sie sie anschließend auf einen bestimmten Zeitpunkt normalisieren. Von den Methoden:

Die Ergebnisse wurden durch densitometrische Analyse (ImageQuant, Molecular Dynamics und PDSI, GE Healthcare) quantifiziert. Das Verhältnis von Phosphoprotein zu seiner jeweiligen internen Kontrolle wurde nach 0,5 h auf das Kontrollniveau normalisiert, willkürlich auf 1 eingestellt.

  1. Ladekontrollen zeigen an, wie viel Protein von Interesse vorhanden ist. 1 % von 100 mg Protein entspricht beispielsweise 10 % von 10 mg Protein (jeweils 1 mg). Die Interpretation von 1 % gegenüber 10 % kann jedoch ziemlich groß sein. Wenn Sie also an einem Prozentsatz oder Anteil interessiert sind, benötigen Sie eine Ladekontrolle, um einen unverzerrten Vergleich oder eine Normalisierung zu ermöglichen.

  2. Ich weiß nicht wirklich, was "Basalmasse" bedeutet, aber Sie könnten sich das Molekulargewicht von Proteinen ansehen (normalerweise in Kilodalton gemessen). Zum Beispiel beträgt das Molekulargewicht von Akt ~55 kda. Sie können dies aus der Proteinsequenz berechnen, indem Sie die Gewichte aller Aminosäuren addieren.


JBC-Veröffentlichungsrichtlinien entschlüsseln

Damit Sie Ihre quantitativen Western-Blot-Daten erfolgreich veröffentlichen können, haben wir uns die Richtlinien des Journal of Biological Chemistry 2,3 (JBC) genauer angesehen und Ressourcen zusammengestellt, die Ihnen helfen, die Dokumentationsanforderungen zu erfüllen.

JBC hat spezifische Anforderungen an Autoren in Bezug auf die Analyse und Übermittlung von Daten aus Immunblotting-Experimenten formuliert. Viele andere Zeitschriften und Förderagenturen haben ebenfalls detaillierte Anforderungen, daher ist es immer am besten, die entsprechende Website zu überprüfen und die Anweisungen der jeweiligen Zeitschriften für Autoren zu lesen.

Lesen Sie den vorherigen Artikel

Qualitative oder quantitative Western?

Proteine ​​genau vergleichen


Notwendigkeit und Strategien zur Verbesserung des Vertrauens in die Genauigkeit von Western Blots

Western Blot ist eine der am häufigsten verwendeten Labortechniken zur Identifizierung von Proteinen und zur Semiquantifizierung von Proteinmengen. Mehrere neuere Erkenntnisse deuten jedoch darauf hin, dass Western Blots möglicherweise nicht so zuverlässig sind wie bisher angenommen. Dies ist nicht überraschend, da sich viele Labore der Grenzen des Western Blotting nicht bewusst sind. In diesem Manuskript besprechen wir wesentliche Strategien zur Verbesserung des Vertrauens in die Genauigkeit von Western Blots. Diese Strategien umfassen die Auswahl des besten Normalisierungsstandards, die richtige Probenvorbereitung, die Bestimmung des linearen Bereichs für Antikörper und Proteinfärbungen, die für die interessierende Probe relevant sind, die Bestätigung der Qualität des primären Antikörpers, die Verhinderung der Signalsättigung und die genaue Quantifizierung der Signalintensität des Zielproteins . Obwohl Western Blotting eine leistungsfähige und unverzichtbare wissenschaftliche Technik ist, die verwendet werden kann, um die relativen Proteingehalte genau zu quantifizieren, ist es notwendig, dass geeignete experimentelle Techniken und Strategien verwendet werden.

Offenlegung von finanziellen und konkurrierenden Interessen

Diese Arbeit wurde von den National Institutes of Health Grants HL096819 und HL080101 und den Forschungsgeldern der UC Davis unterstützt. AV Gomes hielt auf dem von Bio-Rad gesponserten Treffen Experimental Biology 2014 einen Vortrag zum Thema „Kann man Western Blots vertrauen?“. Die Autoren haben keine anderen relevanten Verbindungen oder finanzielle Beteiligungen mit einer Organisation oder Einrichtung mit einem finanziellen Interesse oder einem finanziellen Konflikt mit den im Manuskript besprochenen Themen oder Materialien, abgesehen von den offengelegten. Dazu gehören Anstellung, Beratungen, Honorare, Aktienbesitz oder Optionen, Sachverständigengutachten, erhaltene oder angemeldete Zuteilungen oder Patente oder Lizenzgebühren.

Bei der Erstellung dieses Manuskripts wurde keine Schreibhilfe verwendet.

Signalerkennung. Die Leichtigkeit, mit der ein Röntgenfilm mit Signalen gesättigt wird, gibt den Ermittlern den falschen Eindruck, dass Film empfindlicher ist als digitale Imager. Labore sollten ermutigt werden, von Röntgenfilmen auf digitale Bildgeber umzusteigen oder zu lernen, wie man validiert, dass die Signale auf Röntgenfilmen nicht gesättigt sind.

Das Missverständnis, dass Housekeeping-Proteine ​​die beste Normalisierungsmethode für Western-Blots sind, muss angegangen werden.

Die Notwendigkeit für Forscher, Probenmengen zu laden, bei denen das vom Antikörper nachgewiesene Ziel innerhalb des linearen Bereichs liegt.

Große Menge an Antikörpern minderer Qualität verfügbar.

Notwendigkeit von Positiv- und Negativkontrollen zur Validierung von Antikörpern.

Notwendigkeit zur Bestimmung und Angabe des Molekulargewichts des Zielproteins auf Blots.

Bedarf an einer unvoreingenommenen Datenbank, die es Forschern ermöglicht, Antikörper guter und schlechter Qualität zu dokumentieren.

Notwendigkeit von Veröffentlichungen, um die verwendete Western-Blotting-Technik detaillierter zu beschreiben. Es sollte ein Mindeststandard für die Berichterstattung über Western-Blotting-Daten festgelegt werden.


Interpretieren von Western Blot aus der Pull-Down-Analyse

Hallo zusammen, ich habe Probleme, einige Aspekte dieser Zahl zu verstehen und würde es sehr schätzen, wenn jemand einen Einblick geben könnte! Vielen Dank im Voraus.

Was sagen diese Zahlen im Wesentlichen aus? Was ist das allgemeine Wesentliche.

Was bedeutet "10 % gebunden" vs. "gebunden"?

Warum gibt es mehrere Banden für die mit Anti-GST-Antikörper sondierten Blots? und warum unterscheiden sich die Bänder in der Größe?

Im Wesentlichen wollen sie sehen, welche Teile der Proteine ​​für die Interaktion benötigt werden. Wenn sie beispielsweise deltaN1-127 schreiben, bedeutet dies, dass sie die Aminosäuren 1-127 vom N-Terminus von Cdt1 löschen. Wenn sie Delta C1381-557 schreiben, löschen sie Aminosäuren von 381-557 am C-Terminus. Deshalb sind sie unterschiedlich groß. Sie reinigten es und zogen Cdt1 herunter, um die Interaktion mit Geminin auf der linken Seite und MCM4/6/7 auf der Tight zu testen. Wo immer Sie Banden im gebundenen Segment sehen, bedeutet dies, dass diese Cdt1-Mutanten noch in der Lage waren, zu interagieren. Ich kann mir vorstellen, dass die ungebundenen 10% im Grunde bedeuten, dass sie den Überstand von den Perlen nehmen. Das wäre also ein Protein, das nicht mit Cdt1 interagiert. Könnte es sich bei den mehreren Banden um einen Proteinabbau handeln? Ich bin mir nicht ganz sicher.


Überlegungen zur Auswahl primärer Antikörper für die Western-Blot-Analyse

Polyklonale vs. monoklonale vs. rekombinante Antikörper

PolyklonalMonoklonalRekombinant
DefinitionSammlung von Antikörpern aus verschiedenen B-Zellen, die mehrere Epitope auf demselben Antigen erkanntenEinzelner Antikörper, produziert von identischen B-Zell-Klonen, die ein Epitop auf demselben Antigen erkennenEinzelner Antikörper, abgeleitet von rekombinanter DNA. Kann auf DNA-Ebene modifiziert oder zur Erzeugung eines definierten Antikörperpools verwendet werden.
VorteileHochsensibel. Viele Antikörper im polyklonalen Pool können Epitope auf dem Antikörper-Target bindenKonsistenz von Charge zu Charge. Oft gut charakterisiertes, historisches Wissen über spezifische Klone, Veröffentlichungen zur Leistung im Western Blotting.Stabile, langfristige Versorgung mit Los-zu-Los-Konsistenz. Nicht anfällig für Zellliniendrift.
NachteileDie Variabilität des Antikörperpools von Charge zu Charge kann zu einem inkonsistenten Nachweis führen. Target-ähnliche Epitope können zum Nachweis unspezifischer Banden beitragen.Die Nachweisempfindlichkeit hängt von der Häufigkeit und der Exposition eines einzelnen Epitops ab. Eine Zellliniendrift kann zu subtilen, langfristigen Veränderungen des Antikörpers führen.Sehr spezialisiert und epitopabhängig. Längere Entwicklungszeit. Möglicherweise ist eine weitere Optimierung im Voraus erforderlich. Meist höherer Preis.

Polyklonale, monoklonale und rekombinante Antikörper eignen sich alle gut für Western-Blotting. Polyklonale Antikörper sind ein Pool vieler monoklonaler Antikörper, die von Immunisierung zu Immunisierung und von Charge zu Charge variieren können. Polyklonale Antikörper erkennen mehrere Epitope eines Antigens und sind daher in der Regel empfindlicher als monoklonale Antikörper, die nur ein Epitop erkennen. Dies kann von Vorteil sein, wenn Epitophäufigkeit, Epitopmaskierung oder Epitopexposition ein Problem darstellen. Polyklonale Antikörper sind kostengünstiger und weniger zeitaufwendig in der Herstellung. Monoklonale Antikörper werden für ihre Konsistenz von Charge zu Charge und in vielen Fällen für ihre umfangreiche Charakterisierung und Veröffentlichungsgeschichte geschätzt. Monoklonale Antikörper werden normalerweise von Zelllinien produziert, die einen einzelnen Antikörperklon erzeugen. Diese Zelllinien (oder Hybridome) werden in Zellkultur gezüchtet, wenn der Antikörper für die Produktion benötigt wird. Genau wie jede häufig vermehrte Zelllinie könnten diese Zelllinien möglicherweise allmähliche Veränderungen erfahren, die die Antikörperproduktionsausbeuten oder sogar die Antikörpereigenschaften beeinflussen. Rekombinante Antikörper sind die beste Option für eine konsistente Antikörperproduktion ohne tierischen Ursprung und eine Chargenkonsistenz. Rekombinante Antikörper werden hergestellt, indem Produktionszelllinien mit rekombinanter DNA transfiziert werden, die die gewünschten Immunglobuline kodiert. Rekombinante Antikörper haben mehrere Vorteile: Sie können an spezifischen Stellen modifiziert werden, um IgGs die gewünschten Eigenschaften zu verleihen, und sie unterliegen keiner Zellliniendrift wie von Hybridom-abgeleiteten monoklonalen Antikörpern. Rekombinante Antikörper können gepoolt werden, um rekombinante Antikörperpools zu erzeugen, wie rekombinante polyklonale Primärantikörper oder superklonale rekombinante Sekundärantikörper.

Antikörper werden normalerweise in PBS oder ähnlichen Puffern gereinigt bereitgestellt, jedoch sind in einigen Fällen rohe Antikörperpräparate wie Serum oder Aszitesflüssigkeit erforderlich, um bestimmte Antikörpereigenschaften oder Antikörperausbeuten aufrechtzuerhalten. Es ist wichtig, Western-Blotting-Protokolle zu optimieren, um den Einfluss von Verunreinigungen, die in rohen Antikörperpräparationen vorhanden sind, auf den Hintergrund zu minimieren.

Direkte vs indirekte Erkennung

Beim Western Blotting können sowohl direkte als auch indirekte Nachweismethoden verwendet werden. Jede Methode bietet ihre eigenen Vor- und Nachteile. Beim direkten Nachweisverfahren wird ein Enzym- oder Fluorophor-konjugierter Primärantikörper verwendet, um das interessierende Antigen auf dem Blot nachzuweisen. Beim indirekten Nachweisverfahren wird zunächst ein unmarkierter Primärantikörper verwendet, um an das Antigen zu binden. Anschließend wird der Primärantikörper mit einem Enzym- oder Fluorophor-konjugierten Sekundärantikörper nachgewiesen. Die indirekte Methode bietet gegenüber der direkten Methode viele Vorteile, die im Folgenden beschrieben werden.

  • Benötigt nur einen Antikörper
  • Spart Zeit durch den Wegfall des Inkubationsschritts mit sekundären Antikörpern
  • Eliminiert möglichen Hintergrund durch sekundäre Antikörper-Kreuzreaktivität in bestimmten Proben.
  • Signalverstärkung, da mehrere markierte Sekundäre an jede Primäre binden
  • Viele Optionen mit HRP, Alexa Fluor oder Alexa Fluor Plus markierten Sekundärantikörpern
  • Sparen Sie Zeit mit Multiplex-Detektion mit fluoreszierenden Sekundärantikörpern
  • Weitere Signalverstärkung mit biotinylierten Sekundärteilen und fluoreszierendem oder enzymmarkiertem Streptavidin möglich.
  • Die Markierung kann die Zielbindung stören, was zu einer geringeren Empfindlichkeit und einem höheren Hintergrund führt.
  • Die Auswahl direkt konjugierter Primärantikörper ist begrenzt
  • Zusätzliche Schritte erforderlich
  • Potenzial für unspezifische Bindung, die den Hintergrund in bestimmten Proben erhöhen kann.

Überlegungen zu Wirtsarten

Mehrere Spezies werden verwendet, um Antikörper zu erzeugen, die in Western-Blot-Anwendungen verwendet werden können. Am häufigsten: Maus, Kaninchen, Ratte, Ziege, Esel und Huhn. Welcher primäre Antikörper der Wirtsart zu wählen ist, hängt davon ab, ob ein einzelnes Ziel oder mehrere Ziele in einem Multiplex-Western-Blot-Experiment sondiert werden. Wenn jeweils nur ein Antigen untersucht wird, kann theoretisch jede Wirtsspezies verwendet werden, jedoch werden die meisten primären Forschungsantikörper für Western Blotting von immunisierten Kaninchen (polyklonal, monoklonal, rekombinant) oder Mäusen (von Hybridom abgeleitete monoklonale Antikörper) hergestellt. Einige Wirtsarten bieten gegenüber anderen zusätzliche Vorteile, beispielsweise aufgrund ihrer Größe oder Immunbiologie. Vergleicht man beispielsweise Maus oder Kaninchen, vertragen Kaninchen Impfungen meist besser und haben eine deutlich längere Lebensdauer als Mäuse. Darüber hinaus weisen Kaninchen ein vielfältigeres natürliches Repertoire an Antikörpern auf als Mäuse, was Kaninchen zu einem beliebten Wirt für die Erzeugung polyklonaler, monoklonaler und rekombinanter Kaninchen-Antikörper macht. Bei dem Ziel, den am besten geeigneten monoklonalen oder rekombinanten Antikörper für Western-Blotting zu generieren, ermöglicht das größere Repertoire an von Kaninchen produzierten Antikörpern ein erfolgreicheres Screening, Isolierung und Klonierung von rekombinanten Antikörpern mit hoher Affinität. Dies ist besonders wichtig, wenn es darum geht, Western-Blot-Antikörper gegen anspruchsvollere Epitope herzustellen, die mit anderen Systemen möglicherweise nicht hergestellt werden können.

Verwenden Sie bei der Durchführung eines Multiplex-Western-Blots für jedes zu untersuchende Ziel primäre Antikörper von verschiedenen Wirtsspezies. Verwenden Sie idealerweise eine Kombination von Antikörpern von zwei entfernt verwandten Spezies wie Ratte und Kaninchen und vermeiden Sie Kombinationen wie Maus und Ratte oder Ziege und Schaf. Dies hilft bei der Auswahl geeigneter sekundärer Antikörper, um eine potenzielle Antikörper-Kreuzreaktivität zu minimieren, die zu verwirrenden Ergebnissen führen kann.

Überlegungen zum Multiplexing-Host

Erste Antikörper-WirtsspeziesSekundärantikörper-Wirtsspezies
RatteKaninchen
MausKaninchen
ZiegeKaninchen oder Maus
MausRattex
ZiegeSchafx

Western-Blot-validierte Antikörper

Obwohl Antikörper entwickelt wurden, um ein spezifisches Zielantigen zu erkennen, funktionieren sie möglicherweise nicht bei allen Anwendungen gleich. Wählen Sie Antikörper, die speziell für Western-Blotting bestimmt sind oder die Western-Blotting als Anwendung auflisten. Darüber hinaus ist es wichtig zu bestätigen, dass der Antikörper spezifisch für das native oder denaturierte Protein ist, um zu bestimmen, ob eine SDS-PAGE oder eine native PAGE durchgeführt werden sollte.

Bestätigen Sie bei der Auswahl eines Primärantikörpers:

  1. Antikörper ist für Western Blotting validiert
  2. Antikörperspezifität gegenüber dem nativen oder denaturierten Protein

Invitrogen-Antikörper werden einem strengen zweiteiligen Testansatz unterzogen. Teil 1: Überprüfung der Zielspezifität, Teil 2: Funktionsvalidierung der Anwendung. Die Überprüfung der Zielspezifität hilft sicherzustellen, dass der Antikörper an das richtige Ziel bindet. Die meisten Antikörper wurden mit Blick auf spezifische Anwendungen entwickelt. Das Testen, dass ein Antikörper in einer bestimmten Anwendung akzeptable Ergebnisse liefert, ist der zweite Teil der Bestätigung der Antikörperleistung. Erfahren Sie mehr über den Invitrogen-Antikörpervalidierungsprozess.


4. Wahrscheinlichkeiten und Proportionen

4.1. Einführung

Die Abschnitte 2 und 3 befassten sich ausschließlich mit Fragen der Mittel. Bei vielen Experimenten auf unserem Gebiet sind Mittelwerte jedoch nicht das Endziel. Zum Beispiel können wir versuchen, die Frequenz eines bestimmten Defekts in einem mutierten Hintergrund, den wir typischerweise entweder als a Anteil (z. B. 0.7) oder a Prozentsatz (z. B. 70%). Darüber hinaus möchten wir möglicherweise CIs für unsere Stichprobenprozentsätze berechnen oder einen formalen statistischen Test verwenden, um festzustellen, ob es wahrscheinlich einen echten Unterschied zwischen den beobachteten Häufigkeiten für zwei oder mehr Stichproben gibt. In anderen Fällen können unsere Analysen am besten durch die Bestimmung von Verhältnisse oder Faltenänderungen, für die möglicherweise spezielle statistische Instrumente erforderlich sind. Schließlich ist es gerade bei genetischen Experimenten oft sinnvoll, die Wahrscheinlichkeiten von verschiedenen Ergebnissen. In diesem Abschnitt werden wichtige Punkte behandelt, die für unser Fachgebiet relevant sind, wenn es um diese häufigen Situationen geht.

4.2. Berechnung einfacher Wahrscheinlichkeiten

Die meisten Leser sind wahrscheinlich geübt im Berechnen der Wahrscheinlichkeit von zwei unabhängig Ereignisse, die durch die Anwendung der Multiplikationsregel. Wenn nämlich Ereignis A 20 % der Zeit und Ereignis B 40 % der Zeit auftritt, dann beträgt die Wahrscheinlichkeit, dass Ereignis A und B beide auftreten, 0,2 × 0,4 = 0,08 oder 8 %. Praktischer möchten wir vielleicht die Häufigkeit von EcoRI-Restriktionsendonuklease-Stellen im Genom schätzen. Da das EcoRI-Bindungsmotiv GAATTC ist und jedes Nukleotid eine ungefähr eins zu vier Wahrscheinlichkeit hat, an jeder Position vorzukommen, dann beträgt die Wahrscheinlichkeit, dass jeder sechs Nukleotidabschnitt im Genom eine Stelle für EcoRI bildet, (0,25) 6 = 0,000244140625 oder 1 von 4.096. Wenn nicht alle Nukleotide gleich vertreten sind oder wenn bestimmte Sequenzen in bestimmten Genomen mehr oder weniger vorherrschen, ändert dies natürlich die wahre Häufigkeit der Stelle. Tatsächlich ist GAATTC in Phagengenomen überrepräsentiert, aber in humanen viralen Sequenzen unterrepräsentiert (Burge et al., 1992). Daher sollte man auch bei der Berechnung einfacher Wahrscheinlichkeiten darauf achten, keine falschen Annahmen über die Unabhängigkeit von Ereignissen zu treffen.

Bei der Durchführung genetischer Studien werden wir oft die Wahrscheinlichkeit bestimmen wollen, einen gewünschten Genotyp zu erhalten. Wenn wir beispielsweise eine unausgeglichene rezessive letale Mutation (Lassen) müssen wir in jeder Generation phänotypisch Wildtyp-Tiere auswählen und dann das Vorhandensein der tödlichen Mutation in den Nachkommen der ersten Generation untersuchen. Grundlegende Mendelsche Genetik (in Anwendung auf C. elegans Hermaphroditen) besagt, dass die Nachkommen von a lassen/+ Elternteil wird ein Viertel sein lassen/lassen, eine Hälfte lassen/+, und ein Viertel +/+. Unter den nicht-tödlichen Nachkommen von a lassen/+ Elternteil, zwei Drittel werden lassen/+ und ein Drittel wird +/+. Eine praktische Frage ist, wie viele Wildtyptiere wir in jeder Generation einzeln klonen sollten, um sicherzustellen, dass wir mindestens eines auswählen lassen/+ Tier? In diesem Fall verwenden Sie die ergänzen der Multiplikationsregel, auch als Wahrscheinlichkeit von “ . bezeichnetmindestens ein”, wird am wichtigsten sein. Wir beginnen mit der Frage, wie hoch die Wahrscheinlichkeit ist, dass ein Individuum nicht lassen/+, was in diesem Fall ein Drittel oder 0,333 ist? Daher die Wahrscheinlichkeit, fünf Tiere zu pflücken, von denen keines vom Genotyp ist lassen/+ ist (0,333) 5 oder 0,41%, und daher die Wahrscheinlichkeit, mindestens eine zu pflücken lassen/+ wäre 1 − 0,041 = 99,59%. Somit wird die Auswahl von fünf Wildtyp-Tieren nahezu garantieren, dass mindestens eine der F1-Nachkommen von unserem gewünschten Genotyp ist. Darüber hinaus besteht eine (0,667) 5 ≈ 13,20% Chance, dass alle fünf Tiere lassen/+.

4.3. Berechnung komplexerer Wahrscheinlichkeiten

Um Wahrscheinlichkeiten für komplexere Probleme zu berechnen, ist es oft notwendig, die Gesamtzahl der Kombinationen oder Permutationen die in einer bestimmten Situation möglich sind. In dieser Umgangssprache werden die drei verschiedenen Anordnungen der Buchstaben ABC, ACB, BAC als unterschiedliche Permutationen betrachtet, aber nur als eine Kombination. Bei Permutationen ist also die Reihenfolge wichtig, bei Kombinationen nicht. Je nach Situation können entweder Kombinationen oder Permutationen am relevantesten sein. Aufgrund der den DNA-Polymeren inhärenten Polarität sind GAT und TAG wirklich unterschiedliche Sequenzen und daher wären Permutationen von Bedeutung. Im Hinblick auf eine Standard-Massenspektroskopie sind jedoch die Peptide DAVDKEN und KENDAVD identisch, und daher könnten Kombinationen in diesem Fall relevanter sein.

Um den Prozess der Berechnung von Kombinationen und Permutationen zu veranschaulichen, verwenden wir zunächst ein Beispiel mit Peptiden. Wenn jede der zwanzig Standardaminosäuren (aa) nur einmal bei der Konstruktion eines 20-aa-Peptids verwendet wird, wie viele verschiedene Sequenzen können dann zusammengesetzt werden? Wir beginnen mit der Feststellung, dass die Reihenfolge der Aminosäuren von Bedeutung ist, und deshalb beschäftigen wir uns mit Permutationen. Darüber hinaus sind wir aufgrund der Konfiguration, bei der jede Aminosäure nur einmal verwendet werden kann, Probenahme ohne Ersatz. Die Lösung kann mit der folgenden generischen Formel berechnet werden: Anzahl der Permutationen = n!. Hier n ist die Gesamtzahl der Elemente und “!” ist die mathematische Fakultät Symbol, so dass n! = n × (n − 1) × (n − 2) … × 1. Beispiel: 5! = 5 × 4 × 3 × 2 × 1 = 120. Ebenfalls nach Konvention 1! und 0! sind beide gleich eins. Um dieses Problem zu lösen, multiplizieren wir daher 20 × 19 × 18 … 3 × 2 × 1 oder 20! ≈ 2.4e 18 , eine beeindruckend große Zahl. Beachten Sie, dass die inkrementelle Abnahme mit jedem Multiplikator notwendig war, da wir ersatzlos proben, um die reduzierte Auswahl an verfügbaren Aminosäuren bei jedem Schritt widerzuspiegeln. Hätten wir probiert mit Ersatz, wobei jede Aminosäure beliebig oft verwendet werden kann, wäre die Gleichung einfach 20 20 ≈ 1,1e 26 , eine noch beeindruckendere Zahl!

Wenn wir auf das vorherige genetische Beispiel zurückkommen, möchte man vielleicht die Wahrscheinlichkeit bestimmen, fünf Nachkommen von einem Elternteil zu pflücken, das lassen/+ wo drei vom Genotyp sind lassen/+ und zwei sind +/+. Ein Gedanke wäre, die Multiplikationsregel zu verwenden, bei der wir 0,667 × 0,667 × 0,667 × 0,333 × 0,333 oder kompakter (0,667) 3 (0,333) 2 = 0,0329 oder 3,29% multiplizieren. Wenn dies etwas niedriger erscheint, als Sie vielleicht erwarten, sind Ihre Instinkte richtig. Die obige Berechnung beschreibt nur die Wahrscheinlichkeit, eine bestimmte Sequenz zu erhalten, die drei lassen/+ (L) und zwei +/+ (W) Würmer. Aus diesem Grund wird die wahre Häufigkeit des Interesses unterschätzt, da es mehrere Möglichkeiten gibt, dieselbe Kombination zu erhalten. Eine mögliche Reihenfolge wäre beispielsweise WWLLL, aber ebenso wahrscheinlich sind WLWLL, WLLWL, WLLLW, LLLWW, LLWLW, LLWWL, LWLLW, LWWLL und LWLWL, was insgesamt zehn mögliche Permutationen ergibt. Natürlich sind im Gegensatz zu Peptiden oder DNA-Strängen alle möglichen Ordnungen in Bezug auf das relevante Ergebnis äquivalent, sodass drei lassen/+ und zwei +/+ Würmer. Daher müssen wir Permutationen berücksichtigen, um die Häufigkeit der generischen Kombination zu bestimmen. Da das Herleiten von Permutationen von Hand (wie oben) sehr schnell mühsam (wenn nicht unmöglich) wird, kann man die folgende Gleichung verwenden, wobei n ist die Gesamtzahl der Artikel mit n1 die sind gleich und n2 die gleich sind usw., bis durch nk.

Wenn wir also die Zahlen für unser Beispiel einsetzen, haben wir 5!/3! 2! = 120/(6 × 2) = 10. Wenn wir die Anzahl der möglichen Permutationen kennen, können wir diese dann mit der Wahrscheinlichkeit multiplizieren, eine einzelne Anordnung von drei zu erhalten lassen/+ und zwei +/+ Würmer, die oben berechnet wurden, so dass 0,0329 × 10 = 0,329 oder 32,9% ist, eine Zahl, die viel mehr Sinn macht. Dies veranschaulicht eine allgemeinere Regel bezüglich der Wahrscheinlichkeit (Pr) um bestimmte Kombinationen zu erhalten:

Pr Kombination = (Anzahl der Permutationen) × (Wahrscheinlichkeit, eine einzelne Permutation zu erhalten)

Beachten Sie jedoch, dass uns oft eine etwas andere Frage als die gerade gestellte interessiert. Wie groß ist zum Beispiel die Wahrscheinlichkeit, dass wir mindestens drei erhalten lassen/+ Tiere mit fünf Picks von a lassen/+ Elternteil? In diesem Fall müssten wir die Wahrscheinlichkeiten für drei von fünf [(5!/3! 2!) (0.0329) = .329], vier von fünf [(5!/4! 1!) (0.0329 .) ) = 0,165], fünf von fünf [(0,667) 5 = 0,132] lassen/+ Tiere, was uns 0,329 + 0,165 + 0,132 = 0,626 oder 62,6% ergibt.

Die Fähigkeit, Permutationen zu berechnen, kann auch verwendet werden, um die Anzahl verschiedener Nukleotidsequenzen in einem 20-mer zu bestimmen, wobei jedes der vier Nukleotide (G, A, T, C) fünfmal verwendet wird. Nämlich 20!/(5!) 4 ≈ 1.2e 10 . Schließlich können wir die Anzahl der verschiedenen Peptide mit fünf Aminosäuren berechnen, wobei jede der zwanzig Aminosäuren einmal ersatzlos ausgewählt wird. In diesem Fall können wir eine generische Formel verwenden, wobei n ist die Gesamtzahl der Artikel, aus denen wir auswählen R Artikel ohne Ersatz.

Dies würde uns 20!/(20 − 5) geben! = 20!/(15)! = 20 × 19 × 18 × 17 × 16 = 1.860.480. Das gleiche Szenario mit Ersatz wäre einfach (20) 5 = 3.200.000. Daher, Mit nur einer Handvoll Formeln sind wir in der Lage, eine breite Palette von Vorhersagen für die Wahrscheinlichkeiten zu treffen, denen wir begegnen könnten. Dies ist wichtig, da Wahrscheinlichkeiten nicht immer intuitiv sind, wie das klassische “Geburtstagsproblem” veranschaulicht, das zeigt, dass innerhalb einer Gruppe von nur 23 Personen eine 㹐%-Wahrscheinlichkeit besteht, dass mindestens zwei denselben Geburtstag haben 35 .

4.4. Die Poisson-Verteilung

Bestimmte Arten von probabilistischen Ereignissen können mit einer Verteilung modelliert werden, die vom französischen Mathematiker Siméon Denis Poisson entwickelt wurde. Insbesondere die Poisson-Verteilung kann verwendet werden, um die Wahrscheinlichkeit vorherzusagen, dass eine gegebene Anzahl von Veranstaltungen wird über eine festgelegte Intervall von Zeit, Entfernung, Raum oder einem anderen verwandten Maß, wenn die Ereignisse unabhängig voneinander auftreten. Wie groß ist zum Beispiel bei einer bekannten Vorwärtsmutationsrate, die durch ein chemisches Mutagen verursacht wird, die Chance, dass drei Individuen aus einer Sammlung von 1.000 F1s (abgeleitet von mutagenisierten P0-Eltern) eine Mutation im Gen X enthalten? Wie groß ist auch die Chance, dass ein F1-Wurm zwei oder mehr unabhängige Mutationen im Gen X enthält?

Die allgemeine Formel zur Berechnung solcher Wahrscheinlichkeiten ist unten dargestellt, wobei µ die mittlere Anzahl der erwarteten Ereignisse ist, x ist die Häufigkeit, mit der das Ereignis in einem bestimmten Intervall auftritt, und e ist das natürliche Protokoll.

Damit diese Formel Wahrscheinlichkeiten genau vorhersagen kann, ist es erforderlich, dass die Ereignisse unabhängig voneinander sind und mit einer konstanten Durchschnittsrate über das gegebene Intervall auftreten. Wenn diese Kriterien verletzt werden, liefert die Poisson-Verteilung kein gültiges Modell. Stellen Sie sich zum Beispiel vor, wir möchten die Wahrscheinlichkeit berechnen, dass ein mutierter Wurm, der anfällig für Anfälle ist, zwei Anfälle hat (d. h. Ereignisse oder x) im 5-Minuten-Intervall. Für diese Berechnung stützen wir uns auf frühere Daten, die zeigen, dass mutierte Würmer im Durchschnitt 6,2 Anfälle pro Stunde haben. Somit wäre der Durchschnitt (μ) für ein 5-Minuten-Intervall 6,2/12 = 0,517. Setzen wir diese Zahlen in die obige Formel ein, erhalten wir P(x) = 0,080 oder 8%. Beachten Sie, dass die Poisson-Verteilung kein gutes Modell für unser spezielles Ereignis ist, wenn wir 20 verschiedene Würmer 5 Minuten lang verfolgen und bei sechs von ihnen zwei Anfälle beobachten würden. Die Daten legen vielmehr nahe, dass mehrere aufeinanderfolgende Anfälle mit einer Häufigkeit auftreten, die höher ist als von der Poisson-Verteilung vorhergesagt, und daher sind die Anfallsereignisse nicht unabhängig. Hätten dagegen nur einer oder zwei der 20 Würmer innerhalb des Zeitintervalls zwei Anfälle gezeigt, wäre dies mit einem Poisson-Modell vereinbar.

4.5. Intuitive Methoden zur Berechnung von Wahrscheinlichkeiten

Eine weitere nützliche Strategie zum Berechnen von Wahrscheinlichkeiten sowie anderen interessierenden Parametern, die dem Zufall unterliegen, wird manchmal als bezeichnet intuitiver Ansatz. Dazu gehört die Praxis, hypothetische Zahlen in Szenarien einzufügen, um die Klarheit der Berechnungen und Schlussfolgerungen zu maximieren. Unser Beispiel hier umfasst Bemühungen, die Effizienz eines F2-klonalen genetischen Screens zu maximieren, um rezessive letale oder sterile Mutationen mit maternaler Wirkung zu identifizieren (Abbildung 11). Für dieses Experiment werden wir spezifizieren, dass 100 P0-Erwachsene nach Mutagenese einzeln auf Platten kloniert werden sollen. Dann werden zehn F1-Nachkommen von jedem P0 einzeln geklont, von denen ein kleiner Bruchteil heterozygot für eine gewünschte Mutationsklasse ist (m/+). Um Mutanten von Interesse zu identifizieren, müssen jedoch F2s des Genotyps m/m müssen einfach kloniert werden, und ihre F3-Nachkommen müssen auf das Vorhandensein des Phänotyps untersucht werden. Die Frage ist: Was ist die optimale Anzahl von F2s, um von jeder F1-Platte einzeln zu klonen?

Abbildung 11

Schematische Darstellung des F2-klonalen genetischen Screens für rezessive Mutationen in C. elegans.

Die Mendelsche Genetik besagt, dass die Chance, eine m/m F2 von an m/+ F1-Elternteil ist einer von vier oder 25 %, daher erhöht eine größere Auswahl natürlich die Wahrscheinlichkeit, den gewünschten Genotyp zu erhalten. Aber werden die Erträge abnehmen und wenn ja, was ist die effizienteste Vorgehensweise? Tabelle 4 Plugs in reellen Zahlen, um die Häufigkeit des Erhaltens zu bestimmen m/m Tiere basierend auf der Anzahl der geklonten F2s. Die erste Spalte zeigt die Anzahl der pro F1 gepflückten F2-Tiere, die von eins bis sechs reicht. In der zweiten Spalte ist die Wahrscheinlichkeit, mindestens einen auszuwählen m/m Tier wird unter Verwendung der inversen Multiplikationsregel bestimmt. Erwartungsgemäß steigt die Wahrscheinlichkeit mit einer größeren Anzahl von F2s, aber mit zunehmender Anzahl von F2s sind sinkende Erträge offensichtlich. In den Spalten 3𠄵 ist die Anzahl der erforderlichen Schneckenplatten aufgeführt, was bedeutet, dass mehr Platten sowohl mehr Arbeit als auch mehr Kosten bedeuten. Spalten sechs und acht berechnen die erwartete Anzahl von m/m F2s, die bei Frequenzen von (m/+) Heterozygoten von 0,01 (10 von 1.000 F1s) bzw. 0,001 (1 von 1.000 F1s). Hier würde eine höhere Häufigkeit darauf schließen lassen, dass die gewünschten Mutationen von Interesse häufiger sind. Schließlich zeigen die Spalten sieben und neun die vorhergesagten Effizienzen der Screening-Strategien durch Division der Anzahl der isolierten m/m F2s durch die Gesamtzahl der erforderlichen F1- und F2-Platten (z. B. 2,50/2.000 = 1,25e 𠄳 ).

Tisch

Tabelle 4. Intuitiver Ansatz zur Bestimmung der maximalen Effizienz eines F2-klonalen genetischen Screens.

Daraus können wir ersehen, dass entweder zwei oder drei F2 die effizienteste Verwendung von Platten und möglicherweise der Zeit sind, obwohl möglicherweise andere Faktoren bei der Entscheidung, wie viele F2 ausgewählt werden, eine Rolle spielen könnten. Wir können auch sehen, dass die relative Wirkungsgrade sind unabhängig von der Häufigkeit der interessierenden Mutation. Wichtig ist, dass diese potenziell nützliche Einsicht mit grundlegender Intuition und einem sehr rudimentären Wissen über Wahrscheinlichkeiten erreicht wurde. Natürlich hat der skizzierte intuitive Ansatz nicht berücksichtigt, ob die optimale Anzahl geklonter F2s 2,4 oder 2,5 beträgt 37 , aber da wir noch keine erfolgreichen Methoden entwickelt haben, um Bruchteile von . zu pflücken oder zu vermehren C. elegans, solche Angaben sind irrelevant!

Wir weisen darauf hin, dass von Shai Shaham (Shaham, 2007) ein Online-Tool entwickelt wurde, mit dem Benutzer die Effizienz genetischer Screens in C. elegans 38 . Um das Tool zu verwenden, geben Benutzer mehrere Parameter ein, die den spezifischen genetischen Ansatz beschreiben (z. B. F1 vs. F2 klonal). Der Algorithmus der Website liefert dann ein empfohlenes F2-zu-F1-Screening-Verhältnis. Bei der Eingabe von Parametern, die dem oben verwendeten Beispiel entsprechen, schlägt die Website vor, zwei F2 für jede F1 auszuwählen, was der Zahl entspricht, die wir mit unserem intuitiven Ansatz berechnet haben. Darüber hinaus bietet die Website ein nützliches Werkzeug zur Berechnung der Bildschirmgröße, die erforderlich ist, um ein gewünschtes Maß an genetischer Sättigung zu erreichen. Zum Beispiel kann man die Anzahl klonierter F1s bestimmen, die erforderlich ist, um sicherzustellen, dass alle möglichen genetischen Loci mindestens einmal im Verlauf des Screenings mit einem Vertrauensniveau von 95 % identifiziert werden.

4.6. Bedingte Wahrscheinlichkeit: Berechnung von Wahrscheinlichkeiten, wenn Ereignisse nicht unabhängig sind

In vielen Situationen ist die Wahrscheinlichkeit, dass zwei Ereignisse auftreten, nicht unabhängig. Dies bedeutet nicht, dass die beiden Ereignisse vollständig voneinander abhängig sein oder sich gegenseitig ausschließen müssen, nur dass das Eintreten eines Ereignisses die Wahrscheinlichkeit des anderen erhöhen oder verringern kann. Anders ausgedrückt kann die Vorkenntnis eines Ergebnisses die effektive Wahrscheinlichkeit eines zweiten Ergebnisses verändern. Zu wissen, dass jemand ein abgenutztes � . hat C. elegans International Meeting” t-shirt in his drawer does not guarantee that he is an aging nerd, but it certainly does increase the probability! The area of statistics that handles such situations is known as Bayesian analysis or inference, after an early pioneer in this area, Thomas Bayes. More generally, bedingt Wahrscheinlichkeit refers to the probability of an event occurring based on the condition that another event has occurred. Although conditional probabilities are extremely important in certain types of biomedical and epidemiological research, such as predicting disease states given a set of known factors 39 , this issue doesn't arise too often for most C. elegans researchers. Bayesian models and networks have, however, been used in the worm field for applications that include phylogenetic gene tree construction (Hoogewijs et al., 2008 Agarwal and States, 1996), modeling developmental processes (Sun and Hong, 2007), and predicting genetic interactions (Zhong and Sternberg, 2006). Bayesian statistics is also used quite extensively in behavioral neuroscience (Knill and Pouget, 2004 Vilares and Kording, 2011 ), which is growing area in the C. elegans Gebiet. We refer interested readers to textbooks or the web for additional information (see Appendix A).

4.7. Binomial proportions

It is common in our field to generate data that take the form of binomial proportions. Examples would include the percentage of mutant worms that arrest as embryos or that display ectopic expression of a GFP reporter. As the name implies, binomial proportions arise from data that fall into two categories such as heads or tails, on or off, and normal or abnormal. More generically, the two outcomes are often referred to as a success or failure. To properly qualify, data forming a binomial distribution must be acquired by random sampling, and each outcome must be independent of all other outcomes. Coin flips are a classic example where the result of any given flip has no influence on the outcome of any other flip. Also, when using a statistical method known as the normal approximation (discussed below), the binomial dataset should contain a minimum of ten outcomes in each category (although some texts may recommend a more relaxed minimum of five). This is generally an issue only when relatively rare events are being measured. For example, flipping a coin 50 times would certainly result in at least ten heads or ten tails, whereas a phenotype with very low penetrance might be detected only in three worms from a sample of 100. In this latter case, a larger sample size would be necessary for the approximation method to be valid. Lastly, sample sizes should not be 㸐% of the entire population. As we often deal with theoretical populations that are effectively infinite in size, however, this stipulation is generally irrelevant.

An aside on the role of normality in binomial proportions is also pertinent here. It might seem counterintuitive, but the distribution of sample proportions arising from data that are binary does have, with sufficient sample size, an approximately normal distribution. This concept is illustrated in Figure 12, which computationally simulates data drawn from a population with an underlying “success” rate of 0.25. As can be seen, the distribution becomes more normal with increasing sample size. How large a sample is required, you ask? The short answer is that the closer the underlying rate is to 50%, the smaller the required sample size is with a more extreme rate (i.e., closer to 0% or 100%), a larger size is required. The requirements are reasonably met by the aforementioned minimum of ten Regel.

4.8. Calculating confidence intervals for binomial proportions

To address the accuracy of proportions obtained through random sampling, we will typically want to provide an accompanying CI. For example, political polls will often report the percentage in favor of a candidate along with a 95% CI, which may encompass several percentage points to either side of the midpoint estimate 40 . As previously discussed in the context of means, determining CIs for sample proportions is important because in most cases we can never know the true proportion of the population under study. Although different confidence levels can be used, binomial data are often accompanied by 95% CIs. As for means, lower CIs (e.g., 90%) are associated with narrower intervals, whereas higher CIs (e.g., 99%) are associated with wider intervals. Once again, the meaning of a 95% CI is the same as that discussed earlier in the context of means. If one were to repeat the experiment 100 times and calculate 95% CIs for each repeat, on average 95 of the calculated CIs would contain the true population proportion. Thus, there is a 95% chance that the CI calculated for any given experiment contains the true population proportion.

Perhaps surprisingly, there is no perfect consensus among statisticians as to which of several methods is best for calculating CIs for binomial proportions 41 . Thus, different textbooks or websites may describe several different approaches. That said, for most purposes we can recommend a test that goes by several names including the adjusted Wald, the modified Wald, and the Agresti-Coull (A-C) method (Agresti and Coull, 1998 Agresti and Caffo, 2000). Reasons for recommending this test are: (1) it is widely accepted, (2) it is easy to implement (if the chosen confidence level is 95%), and (3) it gives more-accurate CIs than other straightforward methods commonly in use. Furthermore, even though this approach is based on the normal approximation method, the minimum of ten rule can be relaxed.

To implement the A-C method for a 95% CI (the most common choice), add two to both the number of successes and failures. Hence this is sometimes referred to as the plus-four oder “+4” method. It then uses the doctored numbers, together with the normal approximation method, to determine the CI for the population proportion. Admittedly this sounds weird, if not outright suspicious, but empirical studies have shown that this method gives consistently better 95% CIs than would be created using the simpler method. For example, if in real life you assayed 83 animals and observed larval arrest in 22, you would change the total number of trials to 87 and the number of arrested larvae to 24. In addition, depending on the software or websites used, you may need to choose the normal approximation method and not something called the exact method for this to work as intended.

Importantly, the proportion and sample size that you report should be the actual proportion and sample size from what you observed the doctored (i.e., plus-four) numbers are used exclusively to generate the 95% CI. Thus, in the case of the above example, you would report the proportion as 22/83 = 0.265 or 26.5%. The 95% CI would, however, be calculated using the numbers 24 and 87 to give a 95% CI of 18.2%�.0%. Note that the +4 version of the A-C method is specific for 95% CIs and not for other intervals 42 . Finally, it is worth noting that CIs for proportions that are close to either 0% or 100% will get a bit funky. This is because the CI cannot include numbers π% or 𾄀%. Thus, CIs for proportions close to 0% or 100% will often be quite lopsided around the midpoint and may not be particularly accurate. Nevertheless, unless the obtained percentage is 0 or 100, we do not recommend doing anything about this as measures used to compensate for this phenomenon have their own inherent set of issues. In other words, if the percentage ranges from 1% to 99%, use the A-C method for calculation of the CI. In cases where the percentage is 0% or 100%, instead use the exact method.

4.9. Tests for differences between two binomial proportions

Very often we will want to compare two proportions for differences. For example, we may observe 85% larval arrest in mutants grown on control RNAi plates and 67% arrest in mutants on RNAi-feeding plates targeting gene x. Is this difference significant from a statistical standpoint? To answer this, two distinct tests are commonly used. These are generically known as the normal approximation und exact Methoden. In fact, many website calculators or software programs will provide the P-value calculated by each method as a matter of course, although in some cases you may need to select one method. The approximation method (based on the so-called normal distribution) has been in general use much longer, and the theory behind this method is often outlined in some detail in statistical texts. The major reason for the historical popularity of the approximation method is that prior to the advent of powerful desktop computers, calculations using the exact method simply weren't feasible. Its continued use is partly due to convention, but also because the approximation and exact methods typically give very similar results. Unlike the normal approximation method, however, the exact method is valid in all situations, such as when the number of successes is less than five or ten, and can thus be recommended over the approximation method.

Regardless of the method used, the P-value derived from a test for differences between proportions will answer the following question: What is the probability that the two experimental samples were derived from the same population? Put another way, the null hypothesis would state that both samples are derived from a single population and that any differences between the sample proportions are due to chance sampling. Much like statistical tests for differences between means, proportions tests can be one- or two-tailed, depending on the nature of the question. For the purpose of most experiments in basic research, however, two-tailed tests are more conservative and tend to be the norm. In addition, analogous to tests with means, one can compare an experimentally derived proportion against a historically accepted standard, although this is rarely done in our field and comes with the possible caveats discussed in Section 2.3. Finally, some software programs will report a 95% CI for the difference between two proportions. In cases where no statistically significant difference is present, the 95% CI for the difference will always include zero.

4.10. Tests for differences between more than one binomial proportion

A question that may arise when comparing more than two binomial proportions is whether or not multiple comparisons should be factored into the statistical analysis. The issues here are very similar to those discussed in the context of comparing multiple means (Section 3). In the case of proportions, rather than carrying out an ANOVA, a Chi-square test (discussed below) could be used to determine if any of the proportions are significantly different from each other. Like an ANOVA, however, this may be a somewhat less-than-satisfying test in that a positive finding would not indicate which particular proportions are significantly different. In addition, FDR and Bonferroni-type corrections could also be applied at the level of P-value cutoffs, although these may prove to be too conservative and could reduce the ability to detect real differences (i.e., the Energie of the experiment).

In general, we can recommend that for findings confirmed by several independent repeats, corrections for multiple comparisons may not be necessary. We illustrate our rationale with the following example. Suppose you were to carry out a genome-wide RNAi screen to identify suppressors of larval arrest in the mutant Ja Hintergrund. A preliminary screen might identify 𢏁,000 such clones ranging from very strong to very marginal suppressors. With retesting of these 1,000 clones, most of the false positives from the first round will fail to suppress in the second round and will be thrown out. A third round of retesting will then likely eliminate all but a few false positives, leaving mostly valid ones on the list. This effect can be quantified by imagining that we carry out an exact binomial test on each of �,000 clones in the RNAi library, together with an appropriate negative control, and chose an α level (i.e., the statistical cutoff) of 0.05. By chance alone, 5% or 1,000 out of 20,000 would fall below the P-value threshold. In addition, let's imagine that 100 real positives would also be identified giving us 1,100 positives in total. Admittedly, at this point, the large majority of identified clones would be characterized as false positives. In the second round of tests, however, the large majority of true positives would again be expected to exhibit statistically significant suppression, whereas only 50 of the 1,000 false positives will do so. Following the third round of testing, all but two or three of the false positives will have been eliminated. These, together with the � true positives, most of which will have passed all three tests, will leave a list of genes that is strongly enriched for true positives. Thus, by carrying out several experimental repeats, additional correction methods are not needed.

4.11. Probability calculations for binomial proportions

At times one may be interested in calculating the probability of obtaining a particular proportion or one that is more extreme, given an expected frequency. For example, what are the chances of tossing a coin 100 times and getting heads 55 times? This can be calculated using a small variation on the formulae already presented above.

Hier n is the number of trials, Y is the number of positive outcomes or successes, and P is the probability of a success occurring in each trial. Thus we can determine that the chance of getting exactly 55 heads is quite small, only 4.85%. Nevertheless, given an expected proportion of 0.5, we intuitively understand that 55 out of 100 heads is not an unusual result. In fact, we are probably most interested in knowing the probability of getting a result at least as or more extreme than 55 (whether that be 55 heads or 55 tails). Thus our probability calculations must also include the results where we get 56, 57, 58� heads as well as 45, 44, 43 𠉠 heads. Adding up these probabilities then tells us that we have a 36.8% chance of obtaining at least 55 heads or tails in 100 tosses, which is certainly not unusual. Rather than having to calculate each probability and adding them up, however, a number of websites will do this for you. Nevertheless, be alert and understand the principles behind what you are doing, as some websites may only give you the probability of �%, whereas what you really may need is the summed probability of both �% and �%.

4.12. Probability calculations when sample sizes are large relative to the population size

One of the assumptions for using the binomial distribution is that our population size must be very large relative to our sample size 43 . Thus, the act of sampling itself should not appreciably alter the course of future outcomes (i.e., the probability is fixed and does not change each trial). For example, if we had a (very large) jar with a million marbles, half of them black and half of them white, removing one black marble would not grossly alter the probability of the next marble being black or white. We can therefore treat these types of situations as though the populations were infinite or as though we were sampling with replacement. In contrast, with only ten marbles (five white and five black), picking a black marble first would reduce the probability of the next marble being black from 50% (5/10) to 44.4% (4/9), while increasing the probability of the next marble being white to 55.6% (5/9) 44 . For situations like this, in which the act of sampling noticeably affects the remaining population, the binomial is shelved in favor of something called the hyper-geometric distribution. For example, in the case of the ten marbles, the probability of picking out five marbles, all of which are black, is 0.0040 using the hypergeometric distribution. In contrast, the binomial applied to this situation gives an erroneously high value of 0.031.

For our field, we often see hyper-geometric calculations applied to computational or genomics types of analyses. For example, imagine that we have carried out an RNA-seq experiment and have identified 1,000 genes that are mis-expressed in a particular mutant background. A gene ontology (GO) search reveals that 13 of these genes encode proteins with a RING domain. Given that there are 152 annotated RING domain𠄼ontaining proteins in C. elegans, what is the probability that at least 13 would arise by chance in a dataset of this size? The rationale for applying a hyper-geometric distribution to this problem would be as follows. If one were to randomly pick one of �,000 worm proteins out of a hat, the probability of it containing a RING domain would be 152/20,000 (0.00760). This leaves 151 remaining RING proteins that could be picked in future turns. The chance that the next protein would contain a RING domain is then 151/19,999 (0.00755). By the time we have come to the thirteenth RING protein in our sample of 1,000 differentially expressed genes, our chances might be something like 140/19,001 (0.00737). Plugging the required numbers into both binomial and hyper-geometric calculators 45 (available on the web), we get probabilities of 0.0458 and 0.0415, respectively. Admittedly, in this case the hyper-geometric method gives us only a slightly smaller probability than the binomial. Here the difference isn't dramatic because the population size (20,000) is not particularly small.

We would also underscore the importance of being conservative in our interpretations of GO enrichment studies. In the above example with RING finger proteins, had the representation in our dataset of 1,000 genes been 12 instead of 13, the probability would have been greater than 0.05 (0.0791 and 0.0844 by hyper-geometric and binomial methods, respectively). Furthermore, we need to consider that there are currently several thousand distinct GO terms that are currently used to classify C. elegans genes. Thus, the random chance of observing over-representation within any one particular GO class will be much less than observing over-representation within some𠅋ut no particular—GO class. Going back to marbles, if we had an urn with 100 marbles of ten different colors (10 marbles each), the chance that a random handful of 5 marbles would contain at least 3 of one particular color is only 0.00664. However, the chance of getting at least three out of five the same color is 0.0664. Thus, for GO over-representation to be meaningful, we should look for very low P-values (e.g., � 𠄵 ).

4.13. Tests for differences between multinomial proportions

Multinomial proportions or distributions refer to data sets where outcomes are divided into three or more discrete categories. A common textbook example involves the analysis of genetic crosses where either genotypic or phenotypic results are compared to what would be expected based on Mendel's laws. The standard prescribed statistical procedure in these situations is the Chi-square goodness-of-fit test, an approximation method that is analogous to the normal approximation test for binomials. The basic requirements for multinomial tests are similar to those described for binomial tests. Namely, the data must be acquired through random sampling and the outcome of any given trial must be independent of the outcome of other trials. In addition, a minimum of five outcomes is required for each category for the Chi-square goodness-of-fit test to be valid. To run the Chi-square goodness-of-fit test, one can use standard software programs or websites. These will require that you enter the number of expected or control outcomes for each category along with the number of experimental outcomes in each category. This procedure tests the null hypothesis that the experimental data were derived from the same population as the control or theoretical population and that any differences in the proportion of data within individual categories are due to chance sampling.

As is the case with binomials, exact tests can also be carried out for multinomial proportions. Such tests tend to be more accurate than approximation methods, particularly if the requirement of at least five outcomes in each category cannot be met. Because of the more-complicated calculations involved, however, exact multinomial tests are less commonly used than the exact binomial test, and web versions are currently difficult to come by. The good news is that, like the binomial tests, the approximate and exact methods for multinomials will largely yield identical results. Also make sure that you don't confuse the Chi-square goodness-of-fit test with the Chi-square test of independence, which also has an exact version termed the Fisher's exact Prüfung.

Although many of us will probably not require the Chi-square goodness-of-fit test to sort out if our proportion of yellow wrinkled peas is what we might have expected, understand that this test can be used for any kind of sample data where more than two categories are represented. Imagine that we are studying a gene in which mutations lead to pleiotropy, meaning that a spectrum of distinct phenotypes is observed. Here, the proportion of animals displaying each phenotype could be compared across different alleles of the same gene to determine if specific mutations affect certain developmental processes more than others. In other instances, numerical data, such as the number of mRNA molecules in an embryo, may also benefit from imposing some broader categorization. For example, embryos might be divided into those containing 0�, 11�, 51�, and 𾈀 transcripts. These outcomes could then be compared across different mutant backgrounds or at different developmental time points to identify broad categorical differences in expression. In all of the above cases, a Chi-square goodness-of-fit test would be appropriate to determine if any differences in the observed proportions are statistically significant.


More Western Blotting

Western Blotting University

Courses designed to make you a western blotting expert.

Monday &ndash Friday, April 19 &mdash April 23, 2021 at 9:00AM PDT (5:00PM BST)

Join us for an in-depth experience learning about western blotting principles and techniques. This five-part webinar series is for anyone who has ever asked how to perform a western blot and would like to have a detailed understanding of western blotting principles at each step of the workflow.

Sign Up to Be the First to Know


Вебинары

При работе с нашим интерактивным средством для поиска сертификатов анализа придерживайтесь следующих рекомендаций:

  • Убедитесь, что Вы ввели правильный номер по каталогу и номер партии (или контрольный номер) в полях для поиска.
  • Если Вы используете набор, попробуйте поискать сертификат анализа по данным набора, а также по данным индивидуальных компонентов.
  • Необходимый сертификат анализа может быть недоступен на веб-сайте. В этом случае можно обратиться к представителю Bio-Rad или воспользоваться формой запроса.

Если не удается найти требуемый сертификат анализа, воспользуйтесь формой запроса по приведенной ссылке.

Где можно найти номер по каталогу, номер артикула или продукта?

Номер по каталогу, номер артикула или продукта напечатаны на этикетке продукта. Местоположение этой информации показано на приведенном ниже образце.

Где можно найти номер партии или контрольный номер?

Номер партии или контрольный номер (только один из двух) напечатан на этикетке продукта. Местоположение этой информации показано на приведенном ниже образце.

Почему сертификаты анализа находятся не на вкладке документов?

Сертификаты анализа связаны не только с продуктом, но и с конкретными партиями этого продукта. Для каждого продукта может быть доступно несколько сертификатов анализа, особенно если данная линия продуктов выпускается давно и за годы производства было выпущено несколько партий. С помощью средства поиска сертификатов анализа можно ввести номер по каталогу и номер партии (или контрольный номер) для конкретного продукта, находящегося у Вас на руках, и загрузить необходимый сертификат анализа.

У меня есть номер серии, а не номер партии или контрольный номер. Как мне найти сертификат анализа для моего продукта?

Номер серии можно использовать вместо номера партии или контрольного номера. Используйте средство поиска сертификатов анализа: введите номер по каталогу, как обычно, а вместо номера партии или контрольного номера укажите номер серии.

Могу ли я получить сертификат анализа, если срок действия моего продукта истек?

Да. Несмотря на то, что мы периодически удаляем сертификаты анализа в ходе процедур обслуживания сайта, мы стараемся оставлять их в доступе в течение продолжительного времени после истечения срока действия продукта.

Почему для сертификата анализа, приведенного в результатах поиска, имеется пометка «Название продукта не найдено»?

Существуют сертификаты анализа для продуктов, выпуск которых прекращен, или продуктов, которые недоступны на веб-сайте. В таких ситуациях сертификат анализа доступен для загрузки, однако другие сведения о продукте, такие как его название, недоступны.

Почему для сертификата анализа, приведенного в результатах поиска, имеется пометка «Недоступно»?

Это означает, что Вы ввели правильный номер по каталогу и номер партии (или контрольный номер), и мы нашли сертификат анализа. Однако по какой-то причине сам файл недоступен.

Воспользуйтесь формой запроса или обратитесь к представителю Bio-Rad, чтобы мы выслали Вам сертификат анализа.


Enzymes of Epigenetics, Part A

M.Y. Liu , . R. M. Kohli , in Methods in Enzymology , 2016

2.2 Qualitative Analysis by Dot Blotting

Dot blots are commonly used to probe for modified bases in gDNA. DNA is denatured to expose the bases, spotted onto an absorbent membrane, and probed with antibodies against each of the four cytosine modifications. Dot blots offer a clear visual result and can be performed using either serial dilutions or single concentrations of DNA. We consider the former to be semiquantitative, while the latter is only qualitative but still particularly useful for screening a large number of samples. Dot blotting also works for plasmids but is generally not well suited for short oligonucleotides, likely because these do not adhere consistently to membranes.

The first step is to determine the appropriate amount of DNA for blotting, considering the amount of expected modifications. For gDNA from HEK293T cells overexpressing TET, load 400 ng of gDNA into each well of a Bio-Dot microfiltration apparatus (Bio-Rad). Calculate the total amount of DNA needed (based on number of blots and number of serial dilutions) and dilute to 10 ng/μL in TE buffer (10 mm Tris–Cl, pH 8.0, 1 mm EDTA). Add 1/4 volume of 2 m NaOH/50 mm EDTA. Denature the DNA at 95°C for 10 min, transfer quickly to ice, and add 1 volume of ice-cold 2 m ammonium acetate to stabilize single strands. Serial dilutions may be performed at this point into TE buffer. Meanwhile, prepare membranes for blotting we have found that Sequi-Blot PVDF membranes (Bio-Rad) give cleaner results than nitrocellulose. Wet membranes in methanol and equilibrate in TE buffer then, assemble the dot blotting apparatus, taping off any unused wells. Wash each well with 400 μL TE and draw through with gentle vacuum. Purge any air bubbles in the wells, as these can interfere with washing and spotting DNA, and release the vacuum gently to avoid regurgitation that can cross-contaminate wells. Apply 100 μL of DNA samples at the desired dilutions and wash with another 400 μL of TE. Carefully place the membranes into 50 mL conical tubes for blotting. Note that replicate membranes are needed for each separate mC, hmC, fC, and caC blot.

The blotting procedure begins with blocking for 2 h in TBST buffer (50 mm Tris–Cl, pH 7.6, 150 mm NaCl, 0.5% Tween 20) with 5% (w/v) milk at room temperature. Then, wash three times with TBST and incubate at 4°C overnight with primary antibodies against each modified cytosine (Active Motif offers mouse monoclonal mC and rabbit polyclonal hmC, fC, and caC antibodies). We use the following antibody dilutions in 5% milk/TBST: 1:5000 mC 1:10,000 hmC 1:5000 fC and 1:10,000 caC. Volumes should be enough to cover the membrane evenly, and solutions should be poured off cleanly between steps. Wash the blots three times with TBST for 5 min each and incubate with secondary 1:2000 goat anti-mouse IgG-HRP or 1:5000 goat anti-rabbit IgG-HRP (Santa Cruz Biotechnology) at room temperature for 2 h. Wash three times again and, just before imaging, apply Immobilon Western Chemiluminescent HRP Substrate (Millipore) evenly over the entire blot. Expose on an imager with chemiluminescent detection capabilities (we use a Fujifilm LAS-1000), taking care to smooth the blot over the imaging surface and remove air bubbles and excess HRP substrate. As positive and negative controls for this optimized protocol, we typically use gDNA from cells transfected with WT hTET2-CD or empty vector, respectively. Fig. 2 shows an example of dot blotting results for select TET constructs.

Abb. 2 . Representative dot blots from analysis of gDNA from transfected HEK293T cells. Shown are (A) serial dilutions of gDNA from cells transfected with either empty expression vectors or hTET2-CD and (B) dot blots on 400 ng of gDNA from HEK293T cells transfected with empty expression vector, hTET1-CD, hTET2-CD, or mTet2-CD.


Need help interpreting Western blot data - Biology

Writing the Results Section
(printable version here)

This is the section in which you will want to present your findings to the reader in the most clear, consistent, orderly, and succinct fashion. As previously mentioned, we suggest that you write this section either first or second to the Materials and Methods section. Another possibility is that you could write them simultaneously, describing each experiment and the corresponding data. Whatever you find easiest is fine.

The results you collect will most likely contain a story that you want to tell to the reader in an interesting manner. Presenting these data in a clear and thorough fashion, however, is quite a responsibility, because you have many decisions to make as to how you want to tackle the ominous task. It must be done well, because without the results being understood, the credibility of the entire paper disintegrates before the reader's eyes. The task is a manageable one, provided that you sit down and think logically about what needs to be made unequivocally clear. By this we mean that common sense goes a long way. Include only what is necessary, and don't include extraneous information. If there is a datum that is important to the ultimate conclusion but is difficult to present, you must find a way to do it. Do not think that you can sweep some pertinent data under the rug and expect to get away with it. If something important is missing, the omission will stare the reader viciously in the face and he or she will be lost. Be sensible, include what you feel needs to be included, and do it in a clear and understandable way, for the results are the primary ingredients upon which your entire paper is based.

Methods for Presenting Data

The ways of presenting data vary depending upon what you want to present to the reader. The Results section should include all of the experimental data collected throughout the experiment that was necessary in reaching the ultimate conclusions drawn. This includes tables, graphs, Western blots, SDS-PAGE results, etc. Each set of data requires a logically selected label (e.g. Figure 1 or Table 1) and a descriptive title referring to the nature of the experiment. Zu jeder Tabelle oder Abbildung sollte auch ein kurzer Erläuterungsabschnitt eingefügt werden, damit der Leser genau weiß, was er oder sie betrachtet. Grafiken und Tabellen erfordern eine gewisse Diskretion hinsichtlich dessen, was aufgenommen werden muss und was nicht.

Sie müssen selbst entscheiden, welche Informationen für das Verständnis des Lesers wichtig sind, aber tun Sie es sorgfältig. Zu wenige Informationen können den Leser verwirren und verlieren, aber zu viele Informationen können für den Leser eintönig werden. Als allgemeine Regel gilt, dass Rohdaten nicht eingeschlossen werden müssen, sie sollten in eine Art Diagramm umgewandelt werden, sei es ein Liniendiagramm, ein Balkendiagramm, ein Tortendiagramm oder was auch immer Sie für notwendig halten, um auf die wichtigen Trends hinzuweisen, die helfen, Ihre Geschichte zu erzählen Sie entscheiden, was die Daten erfordern. Anschließend müssen jeder Achse die richtigen Beschriftungen zugewiesen werden, wenn Sie ein Balken- oder Liniendiagramm verwenden. Auch bei Grafiken wird die Standardabweichung für jedes Datum manchmal von Ihrem Professor benötigt. Ohne die angegebene Fehlerquote hat der Leser keine Ahnung, wie konsistent Ihre Ergebnisse sind. In einem Laborunterricht erhalten Sie jedoch oft nicht die Daten, um die Standardabweichung zu berechnen. Es hängt von Ihrem Professor und dem durchgeführten Experiment ab. Außerdem muss (wie bei jeder anderen Tabelle, jedem Bild oder jeder anderen Grafik) ein erklärender Absatz eingefügt werden, um den Leser weiterzuleiten.

Allgemeine Richtlinien zum Verfassen des Ergebnisabschnitts

1. Seien Sie nicht zweideutig. Lassen Sie den Leser nicht erraten, welche Informationen Sie präsentieren möchten.

2. Organisieren Sie die Daten logisch. Der Leser muss dem Datenfluss folgen können, sonst sagt das Papier nichts aus und frustriert den Leser höchstwahrscheinlich.

3A. Beschreiben Sie keine Methoden, die verwendet wurden, um die Daten zu erhalten. Dies gehört in den Abschnitt Materialien und Methoden.

3B. Versuchen Sie nicht, die Daten zu interpretieren. Das gehört in den Diskussionsbereich

4. Weisen Sie auf bestimmte Trends oder Muster hin, denen die Daten folgen. Die Daten sind so organisiert, dass sie Trends aufzeigen, die Sie dem Leser deutlich machen möchten, um Ihre Geschichte zu erzählen. Sie müssen den Leser auf diese Trends aufmerksam machen, sonst werden sie möglicherweise übersehen.

Die folgenden Daten enthalten zwei Tabellen und zwei Abbildungen, um die oben erläuterten Punkte zu veranschaulichen. Jede Tabelle oder Abbildung enthält eine Beschreibung dessen, was angemessen ist oder verbessert werden muss.

Proteinwerte

Experiment Absorption Protein
Medien 0.57 2.04
Medien/LPS 0.60 2.16
Fahrzeug 0.61 2.20
Fahrzeug/LPS 0.66 2.36
Arzneimittel 0.69 2.50
Medikament/LPS 0.61 2.22

Überprüfung von Beispiel 1: Es gibt viele Probleme bei der Darstellung dieser Tabelle, die den Leser zwingen, einige der Daten zu erraten. Erstens ist es weder als Tabelle noch als Abbildung gekennzeichnet. Es wird einfach ein Titel (Proteinwerte) gegeben, der nicht einmal etwas beschreibt. Proteinwerte wovon und unter welchen Umständen? Der Leser hat keine Ahnung, was er sieht. Außerdem enthalten die Spaltenbeschriftungen keine Maßeinheiten. Die Extinktionswerte bedeuten nichts, wenn der Leser nicht weiß, in welcher Höhe sie aufgenommen wurden, und was bedeutet Protein in der dritten Spalte? Ist das Konzentration, und wenn ja, in welchen Einheiten? All diese Dinge müssen enthalten sein, um dem Leser klar zu machen, was die Daten sind.

Tabelle 1. Absorptionswerte und entsprechende Proteinkonzentrationswerte

Versuchsgruppe Absorption (595 nm) Proteinkonzentration (micg/micl)
Medien 0.57 2.04
Medien/LPS 0.60 2.16
Fahrzeug 0.61 2.20
Fahrzeug/LPS 0.66 2.36
Arzneimittel 0.69 2.50
Medikament/LPS 0.61 2.22

Diese Tabelle zeigt die Proteinkonzentration jeder Probe. Die in jeder Probe gefundene Proteinkonzentration ist ähnlich.

Überprüfung von Beispiel 2: Diese Tabelle wird korrekt als Tabelle 1 bezeichnet, da sie die erste Tabelle ist, die in der Arbeit erscheint, und sie hat auch einen beschreibenden Titel. Alle Spalten sind eindeutig mit der Maßeinheit für jede Spalte beschriftet. Beachten Sie auch, dass es einen kurzen Satz gibt, der beschreibt, was die Zahlen sind und woher sie kommen.

Abbildung 1 zeigt die Absorptionswerte im Vergleich zu den Zeiten jedes Röhrchens im Experiment.

Überprüfung von Beispiel 3: Bei der Grafik selbst gibt es zwei Probleme: Keine der Achsen enthält die richtige Maßeinheit, und keine der Linien ist markiert, was das jeweilige Reagenzglas darstellt. Wie bei der Tabelle im vorherigen Beispiel muss der Leser wissen, bei welchem ​​Absorptionsgrad die Ergebnisse aufgenommen wurden. Außerdem hat der Leser keine Ahnung, was die Zeilen bedeuten, weil er oder sie nicht weiß, was zu jeder Tube gehört. Ein weiteres Problem bei dieser Figur ist, dass der erklärende Satz recht spärlich ist. Der Autor führt den Leser nicht dahin, welche Ergebnisse präsentiert werden. Auf Trends sollte hingewiesen werden.

Abbildung 1 zeigt die Extinktionswerte (abgelesen bei 540 nm) jedes der drei Versuchsröhrchen im Vergleich zur Zeit in Sekunden. Dies ist ein Hinweis auf die Geschwindigkeit, mit der Catechol in jedem Röhrchen in Benzochinon umgewandelt wird. In der Gruppe, in der der Säuregehalt erhöht wurde (Röhrchen 2), sehen wir einen stetigen Anstieg der Absorption, dann einen leichten Abfall und dann wieder seine anfängliche Anstiegsrate. In der Kontrollgruppe (Röhrchen 3) sehen wir einen allmählichen Anstieg der Extinktionswerte im Laufe der Zeit, und dann scheint er sich abzuflachen. In der Gruppe, in der die Enzymmenge erhöht wurde (Röhrchen 4), sehen wir in den ersten drei Sekunden einen sehr geringen, aber merklichen Anstieg der Extinktionswerte.

Überprüfung von Beispiel 4: In dieser Version von Abbildung 1 befinden sich die richtigen Beschriftungen sowohl auf den Achsen als auch auf den drei Kurven. Außerdem ist der erklärende Absatz viel anschaulicher und informativer – er sagt dem Leser, was in jeder der drei Röhren passiert, und weist auf spezifische Trends in jeder der drei Kurven hin.

Alle Zitate von Pechenik, Jan A. Eine kurze Anleitung zum Schreiben über Biologie. S. 54-102, Tufts University: Harper Collins College Publishers. 1993.


Schau das Video: Western Blotting. Beginner Data Interpretation Tutorial u0026 Step-by-Step Protocol Explained (Kann 2022).