Information

Bayes-Theorem für Mutationen

Bayes-Theorem für Mutationen


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

MEN 2A ist eine dominante Erbkrankheit, die durch eine Mutation im RET-Proto-Onkogen verursacht wird. Die Wahrscheinlichkeit, krank zu werden, wenn Sie die Mutation des RET-Proto-Onkogens haben, variiert mit dem Alter und wird auf 40 % im Alter von 40 Jahren geschätzt.

Bei autosomal-dominant vererbten Erkrankungen kann diese Formel verwendet werden, wobei p die Penetration anzeigt und D das kranke Allel ist:

P(II erbt D, vorausgesetzt, II ist gesund) = $frac{1-p}{2-p}$

Der Onkel des Sohnes III1 im Baum hat die Krankheit, also nimmt er an, dass sie von I1 oder I2 kommt. Der Vater des Sohnes II2 ist 40 Jahre alt und hat keine Symptome.

Wie hoch ist die Wahrscheinlichkeit, dass der Vater die Mutation hat?

Wie groß ist die Wahrscheinlichkeit, dass der Sohn die Mutation hat und den Prozentsatz in der ersten Frage kennt?

Ich habe die obige Formel einfach so für die erste Frage verwendet: $$frac{1-0.4}{2-0.4} = 37.5\%$$

Ich habe jedoch Probleme mit der zweiten und gehe davon aus, dass ich die Bayes-Formel verwende.

Ich habe es so versucht:

$$P( ext{Sohn mut gegebener Papa mut}) = frac{P( ext{Papa mut gegebener Sohn mut}) cdot P( ext{Sohn mut)}}{P( ext{Papa mut })}$$

Ich weiß, dass die Wahrscheinlichkeit, dass der Vater die Mutation hat, 37,5% beträgt und die Wahrscheinlichkeit, dass der Vater die Mutation hat, da sein Sohn die Mutation hat, ist 100%. Ich kann jedoch nicht wissen, was ich der Wahrscheinlichkeit zuschreiben soll, dass der Sohn die Mutation hat? Jede Hilfe geschätzt, danke! Entschuldigung für eine lange Frage.


Ich verstehe Ihre Berechnungen nicht und ich verstehe nicht, warum Sie versuchen, die Bayes-Formel zu verwenden. Ich kenne die $frac{1-p}{2-p}$-Formel nicht und verstehe nicht, was sie berechnen soll. Mir scheint, Sie überdenken ein einfaches Problem.

Wir haben nicht alle Informationen und müssen eine Reihe von Annahmen treffen, aber wenn ich die Frage richtig verstehe, dann…

Wahrscheinlichkeit, dass der Vater das mutierte Allel trägt

Ich vernachlässige die Wahrscheinlichkeit, dass eine neue Mutation aufgetreten ist und der Sohn der erste Träger der Mutante in der Linie ist. Ich gehe davon aus, dass wir eine Wahrscheinlichkeit von 0 haben, krank zu sein, wenn wir die Krankheit nicht tragen. Da MEN eine ziemlich schlimme Krankheit ist, wird das autosomal dominante Allel, das die Krankheit verursacht, wahrscheinlich in einer ziemlich geringen Häufigkeit gehalten. Aus Wiki habe ich gelesen, dass MEN 2A eine Frequenz von 1/40000 hat. Dies bedeutet, dass die Wahrscheinlichkeit, eine homozygote Mutante zu sein, $left(frac{1}{40000} ight)^2 ≈ 10^{-9}$ beträgt. Ich denke, wir können mit Sicherheit davon ausgehen, dass das kranke Kind heterozygot ist. Da das Kind heterozygot ist, stammt das mutierte Allel mit gleicher Wahrscheinlichkeit entweder von der Mutter oder vom Vater. Die Wahrscheinlichkeit, dass es vom Vater kommt, ist also $0.5$ und die Wahrscheinlichkeit ist $frac{p}{1-p}=frac{0.5}{1-0.5}=frac{0.5}{0.5}=1$

Wie groß ist die Wahrscheinlichkeit, dass ein bestimmtes Kind diese Mutante erhält, wenn man weiß, dass der Vater heterozygot ist?

Nach dem Segregationsgesetz beträgt die Wahrscheinlichkeit 0,5 und die Wahrscheinlichkeit 1.


Netzwerke

Brust- und Eierstockkrebs sind schreckliche Krankheiten, die sporadisch auftreten können, aber auch beobachtet werden, dass sie sich über Generationen hinweg wiederholen. Eine gut untersuchte genetische Prädisposition für Brust- und Eierstockkrebs hat ihren Ursprung in Mutationen des BRCA1-Gens. Die Forscher verwendeten die Daten zu BRCA1, um die Wahrscheinlichkeit zu bestimmen, dass eine Person eine BRCA1-Mutation hat, wenn eine Familienanamnese von Brust- oder Eierstockkrebs vorliegt.

Bayes Theorem erfordert mehrere bekannte Wahrscheinlichkeiten, um die gewünschte Wahrscheinlichkeit zu bestimmen. Beispielsweise muss die Penetranz der Mutation bekannt sein. Penetranz kann vereinfacht werden als die Möglichkeit, Krebs zu bekommen, wenn Sie eine Mutation haben. Die anderen Wahrscheinlichkeiten wurden ebenfalls berechnet, wie die Häufigkeit der Mutation in der Bevölkerung und die Wahrscheinlichkeit, Brust- oder Eierstockkrebs zu bekommen, der nicht auf die BRCA1-Mutation zurückzuführen ist. Mithilfe dieser Daten konnten die Forscher ein Modell mit dem Bayes-Theorem erstellen, das die Wahrscheinlichkeit einer BRCA1-Mutation aus der Familiengeschichte einer Person vorhersagen kann. Die Mutationswahrscheinlichkeit kann zwischen 100 und 5 Prozent liegen, je nachdem, wie stark das Muster der Familienanamnese ist. Diese Daten können nun auf vielfältige Weise proaktiv und effizienzsteigernd verwendet werden.

Die wichtigste Anwendung dieser Daten ist ein effizienteres genetisches Screening. Wenn eine Mutation selten ist (0,2-0,04%), ist es nicht praktikabel, die gesamte Population zu screenen, aber wenn eine Untergruppe der Population mit einer viel höheren Wahrscheinlichkeit (5-100%) identifiziert werden kann, kann das Testen effizienter durchgeführt werden. Die Testfähigkeit bedeutet, dass Patienten ihren Status kennen und weitere präventive und diagnostische Tests geplant werden können, um sie vor der Krankheit zu schützen. Ein großer Teil dieser Methode besteht, wie in der Arbeit angedeutet, darin, dass sie auf jede Mutation angewendet werden kann, sobald die richtigen Variablen identifiziert wurden. Zum Beispiel wurde festgestellt, dass BCRA2-Mutationen auch Brust- und Eierstockkrebs verursachen, und sobald die Penetranz und die Gesamthäufigkeit der Mutation festgestellt sind, kann das Screening mit dem Bayes-Theorem praktisch werden.


Netzwerke

Das Hauptkonzept, das dem Bayesschen Theorem zugrunde liegt, ist, dass man die vorhandene Wahrscheinlichkeit eines Ereignisses basierend auf Beobachtungen modifizieren kann. Mit anderen Worten, wenn Ihnen eine Wahrscheinlichkeit gegeben wird, dass ein Ereignis eintritt und sich nach einiger Zeit einige Parameter ändern. Sie können dann die neue Wahrscheinlichkeit vorhersagen, mit der dieses Ereignis bei den neuen Parametern eintritt. John M. McNamara, Richard F. Green und Ola Olsson verwendeten in ihrem Artikel Bayes’ Theorem and Its Applications in Animal Behavior die grundlegenden Ideen aus Bayes' Theorem, um das Verhalten von Tieren zu analysieren, um zu sehen, ob Tiere Vorwissen nutzen und es in ihren Alltag. Ein wichtiger Begriff, der in diesem Artikel erwähnt wurde, ist Statistische Inferenz, die die vorherige Wahrscheinlichkeit (die ursprüngliche Wahrscheinlichkeit des Eintretens eines Ereignisses) nimmt, Beobachtungen macht und die vorherige Wahrscheinlichkeit mit Hilfe des Bayes-Gesetzes modifiziert und dann Schlussfolgerungen auf der Grundlage des Ereignisses zieht von den neuen Wahrscheinlichkeiten.
Es gibt zwei Möglichkeiten, wie Tiere Vorwissen in ihrem täglichen Leben nutzen. Die erste dieser beiden ist die Anpassung. Die Anpassung an Situationen und Umgebungen ist in der Evolution verwurzelt. Wenn eine Art die Fähigkeit besitzt, sich an Veränderungen in ihrer Umwelt anzupassen, ist es wahrscheinlicher, dass sie durch natürliche Selektion überlebt und diese Eigenschaft an die nächste Generation weitergibt. Im Gegensatz zu einer erlernten Fähigkeit ist diese Eigenschaft angeboren und lässt normalerweise keinen Raum für kreative Selbstverbesserung. Der Artikel weist darauf hin, dass Tiere, die dieses Verhalten anwenden, diese Aktion möglicherweise weiterhin ausführen, selbst wenn sich ihre Vorhersage als falsch herausstellt. Anpassungen schränken in vielerlei Hinsicht die Lernfähigkeit des Tieres ein. Erfahrung steht auf der anderen Seite des Spektrums und hängt von der Fähigkeit des Tieres ab, von seiner Umgebung zu lernen. Dies sind Entscheidungen, die das Tier aufgrund seiner vergangenen Erfahrungen trifft. Aber auch die Umwelt kann eine Rolle bei den Entscheidungen des Tieres spielen.
Der Artikel gibt drei Beispiele, die zeigen, dass Tiere ihr Vorwissen nutzen, um zukünftige Ergebnisse auf eine Weise vorherzusagen, die einen theoretischen Ansatz der Bayes-Regel verwendet. Das erste Beispiel ist die Nahrungssuche. Während ein Tier in einem bestimmten Gebiet nach Futter sucht, merkt es, wie häufig es auf Futter stößt. Wenn Sie zu einem anderen Patch wechseln, sieht es ähnlich aus wie ein Patch, bei dem kein Futter gefunden wurde, und überspringt die Patches, die diesem ähnlich waren. In diesem Beispiel verwenden die Tiere ihre vorherige Erfahrung, um ihr Ergebnis vorherzusagen, wenn sie in einem ähnlichen Fleck suchen. Das zweite Beispiel ist die Partnerwahl während der jährlichen Brutzeit. In diesem Beispiel wählen die Weibchen den männlichen Partner durch Inspektion aus. Jedes Jahr steht eine neue Gruppe von Männchen zur Auswahl, sodass die Weibchen zu Beginn der Saison nicht wissen, wie groß die Auswahl sein würde. Sie wissen jedoch aus eigener Erfahrung, was sie erwartet. Das letzte Beispiel befasst sich mit dem Anbau in einer Umgebung mit bestimmten Raubtierrisiken. Die vorherige Wahrscheinlichkeit ist, wie die Vorfahren des Tieres überleben konnten. Berücksichtigt man nun, wie gut sich das aktuelle Tier an die Umgebung und die Fähigkeiten des aktuellen Tieres sowie die Häufigkeit von Räubern anpasst, kann die vorherige Wahrscheinlichkeit modifiziert werden, um die aktuelle Situation zu modellieren. Diese drei Beispiele zeigen, wie der Satz von Bayes verwendet werden kann, um das Verhalten von Tieren zu modellieren.

Artikeltitel: Bayes’-Theorem und seine Anwendungen im Tierverhalten


Bayes-Theorem und Inferenz

Angesichts der einfachen Beziehung zwischen prädiktiven Werten und Häufigkeiten, wenn Sie das oben Gesagte für Zeitverschwendung halten, versuchen wir zu erklären, warum dies möglicherweise nicht der Fall ist.

  • Wenn Sie davon ausgehen, dass dieser Test zu 100 % zuverlässig ist, werden Sie schließen das, was auch immer das Ergebnis ist, du wirst es tun kennt ob es dir gut geht oder nicht.
  • Natürlich, da absolut kein Test ist jemals 100% zuverlässig, was auch immer das Ergebnis dieses Tests ist, Ihre nächste Frage sollte sein Wie wahrscheinlich ist dieses Ergebnis?

Beachten Sie, dass Sie nur die Antwort auf benötigen einer dieser Fragen. Mit anderen Worten, die Fragen sind bedingt auf das Ergebnis Ihres Tests sowie deren Antworten - vorausgesetzt, Sie können nicht gleichzeitig infiziert und nicht infiziert sein und ein einzelner Test kann nicht feststellen, dass Sie sowohl positiv als auch negativ sind.

Diese Fragen sind wichtig, weil die Antworten auf diese beiden Fragen sehr unterschiedlich sein können. Zum Beispiel haben wir unten bemaßt, um die wahr Infektionsstatus und beobachtet Testergebnisse von n Ergebnissen wobei 28.42% waren infiziert, aber 28.42% der Infizierten wurden (fälschlicherweise) negativ befunden, und 24.69% von denen, die nicht infiziert waren, wurden (fälschlicherweise) positiv befunden.

  • Wenn du hast getestet positiv , die Wahrscheinlichkeit, dass Sie nicht infiziert sind, ist B /a+b
  • Wenn du hast getestet Negativ , die Wahrscheinlichkeit, dass Sie infiziert sind, ist C /c+d

Diese einfache Regelung funktioniert in der Praxis selten, denn während die Infektionsrate ( Klimaanlage /n) wird aus der Gesamtbevölkerung, der Sensitivität des Tests ( ein /a+c) und Spezifität ( D /b+d) werden anhand einer Teilmenge dieser Grundgesamtheit geschätzt.

Das Bayes-Theorem ermöglicht es Ihnen, diese Informationen als Proportionen oder Wahrscheinlichkeiten zu kombinieren, um die Wahrscheinlichkeit zu ermitteln, die eine bestimmte Ursache für ein bestimmtes Ergebnis verantwortlich war – unabhängig davon, ob n und N gleich sind oder nicht.

Bayes'sche Inferenz unterscheidet sich ziemlich von den meisten anderen Formen der Inferenz in diesem Kurs - wie "Standardfehler", "Konfidenzintervalle" oder "Hypothesentests" - tatsächlich wird dieser riesige Zweig der Statistik oft als völlig alternativer Ansatz angesehen Schlussfolgerung zu ziehen. Da sich dieser Kurs auf klassische frequentistische Statistiken konzentriert, können wir nicht hoffen, hier etwas anderes als den kürzesten Abriss zu geben.

Im Kern ist die Bayessche Inferenz effektiv eine Anwendung des Bayes-Theorems. In vielerlei Hinsicht geht es darum, was Sie mit einem Testergebnis machen, und nicht um etwas, das Sie anstelle eines Tests verwenden. Bayes'sche Inferenz ermöglicht es Ihnen, zwischen einer Reihe von sich gegenseitig ausschließenden Erklärungen zu wählen oder den Glauben zu quantifizieren. Angenommen, Sie sind nicht an einem algebraischen „Beweis“ dieses Theorems interessiert, lassen Sie uns versuchen, einige seiner Argumente zu erklären - und einige nützliche Begriffe einzuführen.

  • Bundle 1 enthält 199 Scheine, davon 76 100$ Scheine.
  • Bundle 2 enthält 469 Scheine, davon 4 100$ Scheine.
  • Bundle 3 enthält 396 Scheine, davon 44 100$ Scheine.
    Angenommen, Sie möchten sie nicht nacherzählen, in welchem ​​Bündel am wahrscheinlichsten ein solcher Hinweis fehlt, und können wir diese Einschätzung quantifizieren??
  1. Diese 3 Bündel sind die nur mögliche Quelle dieser 100$ Diese Annahme ist entscheidend und zentral für das Folgende – sie definiert den „Stichprobenraum“ aller möglichen Ergebnisse.
  2. Frühere zu diesem Ereignis hat jedes Bündel mit gleicher Wahrscheinlichkeit a verloren. Diese Annahme ermöglicht es uns, den Probenraum auf dieselbe Weise aufzuteilen wie der Gesamtanteil der infizierten in unserem obigen Beispiel.
  3. Jede Art von Banknoten kann gleichermaßen leicht aus einem herausrutschen. Diese Annahme ermöglicht es uns, die Wahrscheinlichkeit einer bestimmten gegeben jede mögliche Erklärung.
  • Wenn P(A|B) die Wahrscheinlichkeit ist, A . zu beobachten gegeben B, können wir leicht die Wahrscheinlichkeit abschätzen, eine 100$-Note von a . zu verlieren gegeben bündeln. Sagen wir, das ist die Wahrscheinlichkeit, eine 100-Dollar-Note zu verlieren, und ist die Wahrscheinlichkeit, jede andere Art von zu verlieren
    • Da 76/199 von Bundle 1 100$-Scheine waren, bedingt Wahrscheinlichkeit dieses Ereignisses, , war 0,38
    • 4/469 von Bundle 2 waren 100$-Scheine, also die Wahrscheinlichkeit, , war 0,01
    • 44/396 von Bündel 3 waren 100$-Scheine, also die Wahrscheinlichkeit, dass A=1 gegeben B=3 ist , oder 0,11
    • dann, vorausgesetzt, dass die Note nicht von woanders gekommen sein kann, muss 1 sein und für diese 3 Bündel ist die frühere Wahrscheinlichkeiten (gleich sein) sind daher = 1/3.

    Da die Wahrscheinlichkeit, mit der diese Note aus einem bestimmten Bündel entstanden ist, davon abhängt, und wir könnten vernünftigerweise annehmen, dass ihre kombinierte Wahrscheinlichkeit ist

    In diesem Fall ist die Gesamtwahrscheinlichkeit, dass ein 100-Dollar-Schein aus einem dieser Bündel entstanden ist, die Summe dieser kombinierten Wahrscheinlichkeiten:

    Daher beträgt der Anteil der Ereignisse, aus denen ein 100-Dollar-Schein entsteht:

    • P(B= 1 gegeben A=1) = 0,7615
    • P(B= 2 gegeben A=1) = 0,0170
    • P(B= 3 gegeben A=1) = 0,2215

    Da die verschiedenen Annahmen richtig sind, stammt unser 100$-Schein wahrscheinlich aus Bündel 1 - zumindest ist diese Erklärung (0,7615/0,2215=) 3,4 mal so wahrscheinlich wie aus Bündel 3 .

      Sie könnten beispielsweise entscheiden, dass die Wahrscheinlichkeit, dass eine Banknote aus einem Bündel herausrutscht, direkt mit der Anzahl der Banknoten in diesem Bündel zusammenhängt.

      In dem Erste Fall, wenn neinich ist die Anzahl der Noten im iNS Bündel, und &Sigman ist die Gesamtzahl der Noten, dann ist die frühere Wahrscheinlichkeit, dass die Note aus dem i . stammtNS Bündel, P(B=i) ist nich /&Sigman

    • P(B= 1 gegeben A=1) = 0,6129
    • P(B= 2 gegeben A=1) = 0,0323
    • P(B= 3 gegeben A=1) = 0,3549

    Auch hier, da die verschiedenen Annahmen richtig sind, stammt unser 100$-Schein wahrscheinlich aus Bündel 1 - aber diese Erklärung ist nur (0.6129/0.3548=) 1,7-mal wahrscheinlicher als sie aus Bündel 3 stammt.

    • P(B= 1 gegeben A=1) = 0,1153
    • P(B= 2 gegeben A=1) = 0,0631
    • P(B= 3 gegeben A=1) = 0,8217

    Beachten Sie, dass, obwohl wir diese Bündel von Noten 1 2 und 3 bezeichnet haben, ihre Identität tatsächlich eine nominale Variable ist - aber die gleiche Argumentation würde gelten, wenn unsere möglichen Ursachen eine diskrete Variable wären, wie z ), die die Wirkung der Chemotherapie auf das Pankreaskarzinom darstellt. In dieser Situation könnten wir verschiedene vorschlagen frühere Wahrscheinlichkeitsverteilungen, entweder willkürlich oder zusammenfassend frühere Studien oder eine Hypothese darstellend - ob pessimistisch oder optimistisch.

    Obwohl es sehr verführerisch ist, birgt die Verwendung von Bayes-Inferenz zur Kombination subjektiver und objektiver Wahrscheinlichkeiten klare Risiken und macht einige Statistiker verständlicherweise nervös. Wenn eine mögliche Ursache eine Null hat frühere, es ist hintere ist auch null - vorausgesetzt, offensichtlich unmögliche Ergebnisse sind


    Bayes-Theorem für Mutationen - Biologie

    Angenommen, ein Bluttest, der verwendet wird, um das Vorhandensein einer bestimmten verbotenen Droge nachzuweisen, ist 99% empfidlich und 99% Spezifisch. Das heißt, der Test wird 99% richtig positiv Ergebnisse für Drogenkonsumenten und 99% richtig negativ Ergebnisse für Nicht-Drogenkonsumenten. Nehme an, dass 0.5% der Menschen sind Drogenkonsumenten. Was ist der Wahrscheinlichkeit das eine zufällig ausgewählte Person, die positiv getestet ist ein Benutzer?

    Selbst wenn eine Person positiv testet, ist es wahrscheinlicher (1 - 33,2% = 66,8%), dass sie/er dies tut nicht das Medikament verwenden. Wieso den? Obwohl der Test sehr genau zu sein scheint, die Anzahl der Nicht-Nutzer beträgt sehr groß im Vergleich zur Anzahl der Nutzer. Dann die Zählung von Fehlalarm wird die Anzahl von überwiegen wahre positive.

    Um dies anhand von tatsächlichen Zahlen zu sehen, erwarten wir bei 1.000 getesteten Personen 995 Nichtbenutzer und 5 Benutzer. Unter den 995 Nichtnutzern, 0,01 × 995 ≃ 10 falsch positive Ergebnisse werden erwartet. Unter den 5 Benutzern 0,99 × 5 ≈ 5 echte positive Ergebnisse werden erwartet. Von 15 positiven Ergebnissen, nur 5,

    Die Wichtigkeit von Spezifität in diesem Beispiel kann man sehen, dass man berechnet, dass auch wenn Empfindlichkeit wird auf 100 % verbessert, aber Spezifität bleibt bei 99%, dann ist die Wahrscheinlichkeit, dass eine positiv getestete Person ein Drogenkonsument ist, steigt nur von 33,2% auf 33,4%. Alternativ, wenn Empfindlichkeit bleibt 99%, aber Spezifität auf 99,5 % verbessert, dann ist die Die Wahrscheinlichkeit, dass eine positiv getestete Person ein Drogenkonsument ist, steigt auf etwa 49,9 %.


    Gronewold, Andrew D. National Exposure Research Laboratory, Research Triangle Park der US-Umweltschutzbehörde, North Carolina.

    Vallero, Daniel A. National Exposure Research Laboratory, US-Umweltschutzbehörde, Research Triangle Park, North Carolina.

    Ökosysteme sind von Natur aus komplex, und trotz der Bemühungen, Kausalketten zu identifizieren und zu modellieren, die Ökosystemstörungen mit Ökosystemreaktionen verbinden, gibt es unvermeidliche Diskrepanzen zwischen beobachteten und vorhergesagten Bedingungen in der natürlichen Umwelt. Unsicherheit, Variabilität und Veränderungen tragen alle zu diesen Unterschieden bei, werden jedoch bei der Vorhersage von Umweltproblemen oft ignoriert. Statistische Modellierungstechniken stellen eine allgemeine Klassifizierung von Werkzeugen dar, die helfen können, Diskrepanzen zwischen Vorhersagen und Beobachtungen zu beheben, und insbesondere Bayes-Statistiken haben sich kürzlich aufgrund ihres einzigartigen Ansatzes zur Quantifizierung von Unsicherheit und Variabilität als neuartiges und effektives Werkzeug zur Vorhersage von Umweltschadstoffproblemen erwiesen .

    Bayessche Statistik

    1763 wurde ein Essay von Reverend Thomas Bayes mit dem Titel „Essay Towards Solving a Problem in the Doctrine of Chances“ veröffentlicht Philosophische Transaktionen der Royal Society of London. Mehr als 200 Jahre später bilden die grundlegenden Elemente dieses Aufsatzes, einschließlich der Einführung einer wahrscheinlichkeitstheoretischen Beziehung, die allgemein als Bayes-Theorem bezeichnet wird (weiter unten in diesem Artikel ausführlich beschrieben), die Grundlage der Bayesschen statistischen Analyse, einer Klasse robuster mathematischer Lösungsansätze für inverse Wahrscheinlichkeitsprobleme.

    Übliche Strategien zur statistischen Problemlösung lassen sich in drei Kategorien einteilen, die jeweils einen anderen Ansatz zur Quantifizierung der Wahrscheinlichkeit eines Ereignisses im Verhältnis zu einer Menge aller möglichen Ereignisse beinhalten. Der erste Ansatz kann man sich so vorstellen, dass er apriorische Überzeugungen verwendet, die im Fall eines einzelnen Wurfs mit einem sechsseitigen Würfel die Erwartung widerspiegeln könnten, dass der Würfel fair ist und daher die Wahrscheinlichkeit jeder der sechs möglichen Ergebnisse (also 1, 2, … , 6) ist genau 1/6. Ein zweiter Ansatz basiert auf empirischen Erkenntnissen, bei denen unser Verständnis der zugrunde liegenden Wahrscheinlichkeit von Ereignissen vollständig auf Daten basiert. Im Fall des sechsseitigen Würfels könnte dieser Ansatz das wiederholte Würfeln des Würfels und das Schätzen der Wahrscheinlichkeit jedes Ergebnisses als seine beobachtete relative Häufigkeit beinhalten. Bei der Lösung von Umweltproblemen wird dieser Ansatz natürlich oft durch begrenzte Daten und andere erschwerende Faktoren behindert. Bayessche Statistik, der dritte Ansatz, bietet einen Mechanismus zum Kombinieren von a-priori-Überzeugungen mit potenziell spärlichen empirischen Beweisen, um eine Posterior-Wahrscheinlichkeitsverteilung abzuleiten. Wir beschreiben diesen Ansatz im Kontext des Bayes-Theorems im folgenden Abschnitt.

    Satz von Bayes

    Der Satz von Bayes kann als Gl. (1),

    wo P(EIN) und P(B) stellen die Randwahrscheinlichkeiten von Ereignissen dar EIN und B, bzw. während P(EIN|B) und P(B|EIN) repräsentieren die bedingten Wahrscheinlichkeiten des Ereignisses EIN angesichts dieses Ereignisses B aufgetreten ist, und von Ereignis B angesichts dieses Ereignisses EIN aufgetreten ist bzw. Die Wahrscheinlichkeit P(EIN|B) wird in einem Bayes'schen Rahmen als die Posterior-Wahrscheinlichkeit des Ereignisses bezeichnet EIN, angesichts dieses Ereignisses B ist vorgefallen. In diesem Zusammenhang besagt der Satz von Bayes, dass die Posterior-Wahrscheinlichkeit des Ereignisses EIN (d. h. die Wahrscheinlichkeit des Ereignisses EIN angesichts dieses Ereignisses B aufgetreten ist) ist gleich der Wahrscheinlichkeit [geschrieben P(B|EIN)] mal die A-priori-Wahrscheinlichkeitsverteilung des Ereignisses EIN [das ist, P(EIN)], dividiert durch die Randverteilung des Ereignisses B. Auf diese Weise bilden die A-priori-Wahrscheinlichkeitsverteilung, die Likelihood- und die Posterior-Wahrscheinlichkeitsverteilung den Rahmen für ein Bayes-Statistikproblem und dienen als notwendige Elemente.

    Anwendungen des Satzes von Bayes

    Praktischer ausgedrückt ermöglicht das Bayes-Theorem es Wissenschaftlern, a priori Überzeugungen über die Wahrscheinlichkeit eines Ereignisses (oder einer Umweltbedingung oder einer anderen Metrik) mit empirischen (d. h. beobachtungsbasierten) Beweisen zu kombinieren, was zu einem neuen und robusteren Posterior-Wahrscheinlichkeitsverteilung.

    Verstehen der Leistung der Schadstoffentfernungsinfrastruktur

    Abbildung 1 präsentiert ein Beispiel dafür, wie der Satz von Bayes zur Lösung von Umweltproblemen angewendet werden kann. In diesem hypothetischen Beispiel versuchen wir, unser Verständnis dafür zu verbessern, wie effektiv Infrastruktursysteme für das Regenwassermanagement bei der Entfernung von Sedimenten aus dem Regenwasserabfluss sind. Während Sedimente oft Nährstoffe, Metalle und andere Schadstoffe enthalten, ist Sediment selbst in vielen Umweltsystemen auch ein Schadstoff. In diesem Problem stellen wir den Sedimentanteil, der von einem Regenwassermanagementsystem entfernt wurde, als θ dar. Abbildung 1 präsentiert die Entwicklung dieses Verständnisses in einem Bayesschen Rahmen, beginnend mit der Entwicklung einer A-priori-Wahrscheinlichkeitsverteilung. Die A-priori-Wahrscheinlichkeitsverteilung für θ basiert auf Werten der Schadstoffentfernungsrate in einer veröffentlichten Datenbank, die Hunderte von Studien dokumentiert, und wird in ausgedrückt Abb. 1 zunächst als Histogramm historischer Werte (Abb. 1ein), und dann als gestrichelte Linie, die die Schadstoffentfernungsrate a priori Wahrscheinlichkeitsverteilung (Abb. 1B). Hypothetische Sedimententfernungsraten von einem neuen Studienstandort werden dann über eine Likelihood-Funktion (durchgezogene Linie in Abb. 1 C), und schließlich wird die Posterior-Wahrscheinlichkeitsverteilung mit dem Satz von Bayes berechnet (und durch eine gestrichelte Linie in Abb. 1D).

    Mathematisch, Abb. 1 approximiert das zugrunde liegende Histogramm als Beta Be(θ|α, β) Wahrscheinlichkeitsverteilung mit Mittelwert α/(α + β) und Varianz αβ/(α + β) 2 (α + β + 1), mit Parametern α und β set bis 11 bzw. 4.6. Die Wahrscheinlichkeit wird durch Modellieren der hypothetischen Sedimententfernungsraten von einem neuen Untersuchungsgebiet unter Verwendung einer binomialen Wahrscheinlichkeitsverteilung Bi(x|n, θ) mit Mittelwert nθ und Varianz nθ(1 − θ), wobei x, im Allgemeinen die Anzahl der positiven Ergebnisse aus n Studien, und θ ist die Wahrscheinlichkeit eines positiven Ergebnisses in jeder Studie. In diesem Beispiel, x stellt die Gesamtmasse der Schadstoffe dar, die von der Regenwassermanagement-Infrastruktur an einem neuen Untersuchungsgebiet entfernt wurden, und n stellt die Gesamtmasse der Schadstoffe dar, die in den Standort gelangen. Als Funktion des unbekannten Parameters θ ausgedrückt, ist jedoch die Likelihood [Gl. (2)] ist ein Beta Be(θ|x + 1, nx + 1) Wahrscheinlichkeitsverteilung mit Parametern n und x auf 8 bzw. 4 einstellen. Unter Verwendung des Bayes-Theorems kombinieren wir die A-priori-Verteilung und die Wahrscheinlichkeit, um die Posterior-Verteilung für θ wie folgt in Gl. (2) und (3),

    wo Gl. (3) ist eine Beta Be(α′, β′) Wahrscheinlichkeitsverteilung mit α′ = α + x und β′ = β + (nx). Beachten Sie, dass die rechte Seite von Gl. (2) enthält keinen Nenner, was wir aufgrund des Satzes von Bayes [Gl. (1)], weil es einfach eine Proportionalitätskonstante ist und unsere Berechnung der Posterior-Verteilung nicht beeinflusst. Anders ausgedrückt, sobald wir erkennen, dass Gl. (3) eine Beta-Verteilung ist, sind die Werte von α′ und β′ die einzigen Informationen, die wir benötigen, um die Posterior-Verteilung für θ zu formulieren.

    Vorhersage der Wasserqualitätsbedingungen

    Die Wasserqualität wird häufig anhand der Konzentration eines oder mehrerer in-situ-Schadstoffe (wie Nährstoffe, Bakterien und organische Verbindungen) und der Eignung eines bestimmten Wasserkörpers für seine beabsichtigte Nutzung (wie Trinkwasser, Erholung oder landwirtschaftliche Nutzung) gemessen ) hängt davon ab, ob die gemessenen Schadstoffkonzentrationen die numerischen Grenzwerte der Wasserqualitätsnorm überschreiten. Da diese Schadstoffe oft nicht direkt gemessen werden können, messen Wissenschaftler in der Regel Indikatoren, die als potenzielle Ersatzstoffe für den betreffenden Schadstoff dienen. Die Stärke des Zusammenhangs zwischen einer Indikatorkonzentration und der Schadstoffkonzentration, die sie vermeintlich repräsentiert, ist je nach Schadstoffart sehr unterschiedlich. Zum Beispiel basiert die Wasserqualität in Erholungs- und Schalentier-Erntegewässern in den gesamten Vereinigten Staaten auf der Konzentration nicht-pathogener fäkaler Indikatorbakterien (FIB) wie fäkaler Coliforme und Escherichia coli. Diese Bakterien werden als konservativer Indikator für eine fäkale Kontamination und für das potenzielle Vorhandensein schädlicher Krankheitserreger im Wasser verwendet, die zwar direkter mit der Gesundheit von Mensch und Umwelt in Verbindung stehen, aber auch viel schwieriger und kostspieliger zu messen sind. Ungeachtet des spezifischen Schadstoffs und des zugehörigen Indikators ist klar, dass nicht nur die Schadstoff-Indikator-Beziehung, sondern auch die räumliche und zeitliche Häufigkeit der Probenahmen und andere Faktoren zusammen zur Unsicherheit und Variabilität der Umweltzustandsprognosen beitragen können. Hier präsentieren wir als Beispiel einen Bayes-Ansatz zur Bewertung der Wasserqualitätsbedingungen anhand von Konzentrationsmessungen von fäkalen Coliformen (angegeben in Organismen pro 100 ml) in einem Muschelfanggebiet.

    Wie bei vielen anderen Schadstoffen wird allgemein angenommen, dass FIB-Konzentrationen einer lognormalen LN (μ, σ)-Wahrscheinlichkeitsverteilung mit logarithmischem Konzentrationsmittelwert (μ) und die Standardabweichung der logarithmischen Konzentration (σ). Während dieses allgemeine Wahrscheinlichkeitsmodell die natürliche räumliche und zeitliche Variabilität in FIB-Ausbreitungsmustern anerkennt, berücksichtigt es (wie andere einfache Wahrscheinlichkeitsmodelle) oft nicht explizit andere, subtilere Variabilitätsquellen, einschließlich intrinsischer Quellen, die sich aus FIB-Konzentrationsmessungen ergeben und wie die FIB-Konzentrationen sind berechnet, die alle nicht nur zu Unsicherheiten bei den Vorhersagen der FIB-Konzentration führen können, sondern auch zu Unsicherheiten bei den Wahrscheinlichkeitsverteilungsparametern (d. h. μ und σ). In einem Bayesschen Rahmen können wir diese Unsicherheiten explizit anerkennen, indem wir zuerst eine A-priori-Wahrscheinlichkeitsverteilung auf die Populationsparameter μ und σ setzen (die a priori Annahmen über ihre potentiellen Werte erklären können) und dann eine Likelihood-Funktion für μ und σ basierend auf entwickeln empirische Evidenz (in diesem Fall anhand von Wasserqualitätsproben) und schließlich die Ableitung einer gemeinsamen Posterior-Wahrscheinlichkeitsverteilung für beide. Ergebnisse dieses Verfahrens sind in Abb. 2, das ein geglättetes Konturdiagramm der gemeinsamen posterioren Wahrscheinlichkeitsdichte für den log-Konzentrationsmittelwert (μ) und die Standardabweichung (σ) der fäkalen Coliformen für eine Probenstelle im Osten von North Carolina enthält.

    Leitende Umweltmanagemententscheidungen

    Vielleicht genauso wichtig wie die Widerspiegelung der Unsicherheit bei Vorhersagen der Wasserqualität ist zu verstehen, wie sich diese Unsicherheit auf wasserqualitätsbasierte Managemententscheidungen ausbreiten könnte. In einem Managementkontext sind die vorhergesagten Bedingungen in Abb. 2 könnte verwendet werden, um Annahmen über die Wahrscheinlichkeit zu lenken, dass zukünftige Proben sowohl auf eine Verletzung der entsprechenden Standards als auch auf eine potenzielle Bedrohung für die Gesundheit von Mensch und Umwelt hinweisen könnten. Wasserqualitätsnormen für Gewässer zur Schalentiergewinnung weisen beispielsweise darauf hin, dass es unsicher ist, Schalentiere zu ernten, wenn entweder der Median der fäkalen coliformen Konzentration, das geometrische Mittel oder das 90 Organismen pro 100 ml). Wenn die Probenkonzentrationen in der Wasserqualität diese numerischen Grenzwerte überschreiten, wird das entsprechende Schalentier-Erntegebiet geschlossen, und häufig werden Schilder aufgestellt, die die Öffentlichkeit vor möglichen Gesundheitsrisiken warnen (Abb. 3).

    Um die Unsicherheit bei der Vorhersage der Konzentration von fäkalen Coliformen besser zu verstehen, werden diese numerischen Grenzen in entsprechende maximal zulässige Kombinationen aus dem Mittelwert der log-Konzentration der fäkalen Coliformen (μ) und der Standardabweichung der logarithmischen Konzentration (σ) übersetzt. Diese maximal zulässigen μ, σ-Paare, wenn sie auf den dreidimensionalen Gelenk-(μ, σ)-posterioren Wahrscheinlichkeitsraum projiziert werden (gestrichelte Linie in Abb. 4). Anders ausgedrückt können wir uns die gestrichelte Linie vorstellen in Abb. 4 „Abschneiden“ eines Teils des dreidimensionalen gemeinsamen Wahrscheinlichkeitsraums unten links in der Abbildung, und das relative Volumen dieses Teils, manchmal auch als Vertrauen der Compliance bezeichnet, kann als der Grad an Vertrauen betrachtet werden, den man haben kann der Wasserkörper wird den Wasserqualitätsnormen entsprechen. In diesem Beispiel beträgt das Vertrauen der Compliance etwa 0,03 (oder 3 %).

    Um das Bayes-basierte Vertrauens-of-Compliance-Ergebnis mit häufigeren Nicht-Bayes-Strategien zu vergleichen, ist ein Punkt in eingezeichnet Abb. 4, die eine mögliche Punktschätzung der wahrscheinlichsten Kombination von μ und σ darstellt. Eine deterministische Vorhersage der Wasserqualitätsbedingungen würde wahrscheinlich ausschließlich auf diesen Punktschätzungen basieren, ein Ansatz, der einen Großteil der potenziellen Variabilität der zukünftigen Konzentrationen von Coliformen im Stuhl eindeutig ignoriert und zu einer zu stark vereinfachten Managementbewertung führen könnte, die nicht auf einem Vertrauen in die Einhaltung beruht. sondern auf einer einfachen Feststellung, ob der Wasserkörper gegen die Norm verstößt oder nicht. Bei den Bewertungsergebnissen in Abb. 4, würde der deterministische Ansatz uns vermuten lassen, dass zukünftige Bedingungen den gegebenen Standard verletzen werden. Eine Zusammenfassung der Ergebnisse der Monitoring-Bewertung für die Station in Feigen. 2 und 4, zusammen mit anderen benachbarten Messstationen für die Wasserqualität, wird in der Tisch. Diese Ergebnisse zeigen, wie ein Bayes-Ansatz zur Vorhersage von Umweltbedingungen und zur Lenkung von Managemententscheidungen einen relativ robusten Ansatz zur Quantifizierung von Risiken und zum Schutz der Gesundheit von Mensch und Umwelt bietet.


    Ein einfacher Weg

    Warum rechnen Sie, wenn Sie es nicht müssen? — Yi Shuen Lim

    Werfen wir einen Blick auf eine mögliche Alternative zur Lösung des Bayes-Theorems, einer Methode, mit der Sie, wenn Sie sie durchschauen, alle Seiten des Problems verstehen können. Wir werden eine Aufgabe verwenden, die mir in Flatiron gegeben wurde, weil ich kein Mathelehrer bin und mich niemand dafür bezahlt, Matheaufgaben zu machen.

    Thomas möchte sich einen neuen Welpen zulegen.

    Er kann wählen, ob er seinen neuen Welpen entweder in der Zoohandlung oder im Tierheim kaufen möchte. Die Wahrscheinlichkeit, dass er in die Zoohandlung geht, beträgt 0,2.

    Er kann wählen, ob er einen großen, mittleren oder kleinen Welpen bekommt.

    Wenn er in die Zoohandlung geht, beträgt die Wahrscheinlichkeit, dass er einen kleinen Welpen bekommt, 0,6. Die Wahrscheinlichkeit, dass er einen mittelgroßen Welpen bekommt, beträgt 0,3, und die Wahrscheinlichkeit, dass er einen großen Welpen bekommt, beträgt 0,1.

    Wenn er zum Pfund geht, beträgt die Wahrscheinlichkeit, dass er einen kleinen Welpen bekommt, 0,1. Die Wahrscheinlichkeit, dass er einen mittelgroßen Welpen bekommt, beträgt 0,35 und die Wahrscheinlichkeit, dass er einen großen Welpen bekommt, beträgt 0,55.

    1. Wie hoch ist die Wahrscheinlichkeit, dass Thomas einen kleinen Welpen bekommt?

    2. Wie hoch ist die Wahrscheinlichkeit, dass Thomas in die Zoohandlung gegangen ist, wenn er einen großen Welpen bekommen hat?

    3. Da Thomas einen kleinen Welpen bekommen hat, ist es wahrscheinlicher, dass er in die Zoohandlung oder ins Tierheim gegangen ist?

    Für dieses Problem werden wir also eine alternative Methode zum Ausprobieren von Formeln verwenden. Wir werden Bäume bauen. Bäume sind großartig, sie helfen uns, das Problem aufzuschlüsseln und es in ein klares und leicht verständliches Format zu bringen. Also fangen wir an zu zeichnen! Als erstes ziehen wir die grundlegenden Äste unseres Baumes heraus.

    Boom. Wir haben dieses Wortproblem wirkungsvoll in seine strukturellen Bestandteile zerlegt und in ein leicht verständliches Format gebracht. Wir beginnen mit Thomas und seiner Entscheidung, entweder in den Zooladen oder ins Tierheim zu gehen, dann teilen wir die weiteren Entscheidungen entweder im Tiergeschäft oder im Tierheim auf kleine, mittlere oder große Hunde auf. Im nächsten Schritt geben Sie unsere Wahrscheinlichkeiten ein.

    Sehen Sie, was ich getan habe? Nun haben wir die uns in diesem Problem gegebenen Wahrscheinlichkeiten genommen und sie unserem Baum gegenübergestellt. Wir wissen, dass Thomas mit einer Wahrscheinlichkeit von 20 % in die Zoohandlung geht, und wenn er dort ankommt, hat er eine Wahrscheinlichkeit von 60 %, einen kleinen Hund zu bekommen, eine Wahrscheinlichkeit von 30 %, einen mittleren Hund zu bekommen, und eine Wahrscheinlichkeit von 10 %, dass einen großen Hund bekommen. The same also applies for the 80% probability of him going to the Shelter and the associated probabilities for Small, Medium and Large Dogs. Note also that each of these probabilities at each junction totals up to 100%, because we can’t have more than a 100% probability, and having less than a total 100% probability implies there’s another choice. This is useful to know in the event you are given incomplete information on a word problem.

    Now, let’s look at the first question.

    What is the probability of Thomas getting a small puppy?

    Well to solve that, we need to determine all probabilities in which Thomas is going to get a small puppy, either at the Pet Store or at the Shelter. We simply need to multiply our probabilities together, then add them up, in the following fashion:

    By following the path of the red arrows, we traced the path of Thomas first going to the Pet Store or the Shelter, and then him getting a Small Dog at either. To find the probability of all possible Small Dog purchases we take the probability of Shelter or Pet Store, then multiplying it with the corresponding probability of buying a Small Dog. Then we add those together to find the answer to the probability of Thomas buying a Small Dog! By simply following the branches in the tree, we are able to track the necessary probabilities and combine them to find all cases of Small Dog.

    Let’s get ahead of ourselves now and finish calculating all the probabilities:

    Groß! Now we have a proper framework of ready answers prepared to answer any questions on Thomas’ choices. What if we wanted to know the probability that Thomas will get a Large Dog? Well, let’s refer back to our tree. Pet Store Large Dog has a probability of .02, Shelter Large Dog has a probability of .44. We add those together, and the probability of Large Dog is .46!

    Now let’s move on to the second question.

    Given that he got a large puppy, what is the probability that Thomas went to the pet store?

    Well, this is truly more of a Bayesian question. If we were to write this formula out, it would look like this:

    Thanks to our tree, we don’t have to break our heads trying to figure out what probabilities need to be constructed for P(Large). Let’s refer back to our tree to find the components needed.

    Thus, our formula looks like this:

    Which gives us .04347!

    Now, on to the last question!

    Given that Thomas got a small puppy, is it more likely that he went to the pet store or to the pound?

    This one is a little bit trickier. Given Small Dog, which is higher, P(Pet Store|Small Dog) or P(Shelter | Small Dog)? Well in this case, we’ll have to repeat the formula, but twice, and determine which one is higher.

    To simplify things, I’ll give you the variables you need:

    For the P(Pet Store | Small Dog):
    P(Small Dog| Pet Store) = .60
    P(Pet Store) = .20
    P(Small Dog) = .20

    For the P(Shelter | Small Dog):
    P(Small Dog| Shelter) = .10
    P(Shelter) = .80
    P(Small Dog) = .20

    Now plug those into Bayes’ Theorem and see what numbers we get?

    P(Pet Store | Small Dog) = .60
    P(Shelter | Small Dog) = .40

    Since P(Pet Store | Small Dog) is larger than P(Shelter | Small Dog), given that Thomas got himself a Small Dog, it is more likely that Thomas went to a Pet Store to get his dog!


    Bayes theorem for mutations - Biology

    Conventional statistics rely on a Wahrscheinlichkeitsrechnung Modell of events, such as the Wahrscheinlichkeit (p) that one will draw an Ace from a deck of cards (P = 4/52) or roll Boxcars with two dice (P = 1/36). Die joint probability of drawing an Ace AND rolling boxcars in then simply p' = (1/13)(1/36) = 0.00214. This can be extended to biological situations, for example that the next hospital patient you see will be male and (or) have hemophilia, based on data that about half the population is male, and that a certain fraction of the population has hemophilia. The probabilistic model is already complicated by the recognition that hemophilia is typically (but not always) a male trait, and further that in a hospital ward, there will be a higher proportion of hemophiliacs than in the outside population. Note that the probabilistic approach will be different when applied to patients who are male and (or) color-blind. A probabilistic approach may fail under these circumstances.

    Alternativ kann die Bayes Model is concerned with the likelihood of events, which explicitly considers the co-occurrence of events, especially where those events are nicht unabhängig. This is phrased as, What is the probability of event A, given that event B also occurs?

    Bayes’ Theorem is stated mathematically as

    where A & B are events, and p(B) ≠ 0. An event is something that can be true or false, for example, that a person is color blind, or male.

    p(EIN| B) and p( B| EIN) sind bedingt Wahrscheinlichkeiten, das likelihood of event EIN occurring, given that B is true, and v.v. Read p(EIN|B) as the probability of EIN given B. p(EIN) and p( B) are the marginal Wahrscheinlichkeiten of observing EIN und B, independently of each other: for example, the proportion of color blind people, or males.

    Among other uses, Bayes’ Theorem provides an improved method of assessing the likelihood von zwei non-independent events occurring simultaneously.

    Suppose a urine test used to detect the presence of a particular banned drug is 99.9% empfidlich und 99.0% Spezifisch. That is, the test will provide 99.9% true positive results for drug users, and 99% true negative results for non-users. Suppose further than 0.5% of the population tested are drug users (Vorfall). We ask: What is the probability that an individual who tests positive is a user? Bayes’ Theorem phrases this as, what is p( User| +) ? Let p( A) = p( User) and p( B) = p( +), dann

    Here, p(+| Benutzer) estimates sensitivity , that 0.999 of Users tested will be detected, and [1 - p(+|Nicht- User)] incorporates Spezifität , that only (1 – 0.99 ) = 0.01 of Non-Users will be reported (incorrectly) as Users.

    Then, p( +) estimates the total Anzahl von positiv tests, including wahr ebenso gut wie falsch positives. These two components are

    Keeping the same number formats as defined above

    That is, even if an individual tests positive, it is twice as likely as not (1 – 33.42% = 66.58%) that s/he is nicht a User. Wieso den? Even though the test appears to be highly “präzise” (99.9% sensitivity & 99% specificity), the number of non-Users is very large compared to the number of Users. Under such conditions, the count of falsch positives exceeds the count of true positives. For example, if 1,000 individuals are tested, we expect 995 non-Users and 5 Users. Among the 995 non-Users, we expect 0.01 x 995 ≈ 10 false positives. Among the 5 Users, we expect 0.99 x 5 = 5 true positives. So, out of 15 positive tests, only 5 (33%) are genuine. The test cannot be used to screen the general population for Users.

    What are the effects of improving “accuracy” of the test? Wenn Empfindlichkeit were increased to 100% , and Spezifität remained at 99% , p(Benutzer| +) = 33.44%, a minuscule improvement. Alternatively, if sensitivity remains at 99.9% and specificity is increased to 99.5% , then p(Benutzer| +) = 50.10%, and half the positive tests are reliable. The test remains unreliable.

    What if test circumstances change? If sensitivity and specificity remain unchanged at 0.999 and 0.99 respectively, but in the population of interest the incidence of users increases to 0.1, p(Benutzer|+) = 0.91736, and the test is reasonably reliable (but not at a 95% criterion).

    HOMEWORK : Write an Excel spreadsheet program to calculate p(Benutzer| +) for various values of Sensitivity, Specificity, and Incidence. Us the base values above as a starting point. Under what circumstances is the test most “useful”? Erklären.


    Count Bio

    The Bayes's theorem helps us to compute the conditional probability for events. It is much more than a mere problem solving technique. The theorem paved the way for Bayesian Statistics , which is philosophically different from the frequentist method on which this whole tutorial is based. More on this in the next section. Though it looks complicated when it is stated formally, Bayes theorem (also called Bayes rule) is very easy to use for problem solving.

    In this section, we will first derive and state the Baye's theorem. Next, an example problem will be solved, which will clearly demonstrate the theorem and lead to the formal definition.

    Recall the multiplication rule of the conditional probability we learnt in the previous section. For two dependent events A and B in the sample space S, the multiplication rule states that,

    Instead of a single event A, consider a set of n mutually exclusive events (small< A_1, A_2, A_3, . A_k >) in the sample space S. Let B be any event in the sample space S.

    We can write, for any event (small< A_k >) in the sample space, the conditional probability of event (small) given the event B as,

    Since the contribution to the event B can come from the mutually exclusice events (small) to (small), we can write,

    Also, we can write the numerator ( small < P(A_k cap B) >) as,

    With this, the conditional probability ( small < P(A_k|B) >) becomes,

    The above formula is the statement of Bayes theorem . We can write it in a summation notation as,

    In order to understand the above theorem, we will solve an example problem and revisit the theorem after that:

    $ Box1 has 3 tablets of M1 and 4 tablets of M2. $

    $ Box2 contains 5 tablets of M1 and 3 tablets of M2. $

    $ Box3 contains 6 tablets of M1 and 3 tablets of M2. During a clinical trial, the probabilities of selecting these boxes are not same, but kept as, ( small< P(Box1) = frac<1> <3>>), (small <6>>) and (small <2>>)

    The experiment consists of drawing a box at random with the above probabilities and from the selected box, pick out a tablet at random.

    What is the probability P(M1) of picking up tablet M1 in such a draw?.

    To select M1, we must pick a box at random and then from the box we must randomly pick a tablet. Thus the probability of selecting M1 is deciced by the union of three mutually exclusive events (small ). Deswegen,

    = P(M1|Box1) P(Box1) + P(M1|Box2) P(Box2) + P(M1|Box3) P(Box3)>) ( small<

    dfrac<6> <9> imes dfrac<1> <2>> ) (small<

    Suppose we know that the medicine M1 has been picked up, but we do not know from which box it came from. We wish to compute the conditional probability that the selected medicine M1 would have come from the box1 . We denote this probability by the symbol P(Box1|M1). We can use bayes theorem to get this probability.

    From the definition of conditional probability, we can write

    Since M1 could have come from any one of the three boxes, selection of M1 has three mutually exclusive possibilities, namely from Box1 or Box2 or box3. We then write

    With this, the expression for the conditional probability ( small) becomes,

    Subsituting the values, we get the probability that Medicine M1 would have come from box1 as,

    0.246 Similarly, we get the conditional probability that the medicine M1 would have come from Box2: (small< P(Box2|M1) = dfrac< P(M1|Box2) P(Box2)> >) (

    0.179 Next,we compute the conditional probability that the medicine M1 would have come from Box3: (small< P(Box3|M1) = dfrac< P(M1|Box3) P(Box3)> >) (

    The solutions to the set of problems shown above have to be carefully analysed.

    Note that the original probabilities of selecting the three boxes were given in the beginning as, (small <3>= 0.333>,

    small <2>= 0.5> ). However, once it was known that the medicine that was pulled out of the box was M1, these probabilities changed to (small<>

    This can be intuitively understood as follows: Before selecting a medicine, the three boxes had certain probability of being selected.The information that the medicine M1 has been chosen from the selected box has altered these probability of selection of Boxes, since different boxes have different fractions of M1. Once the medicine M1 has been selected, the probability that it would have come from Box3 is more than the probability that it would have come from Box1 or Box2, since the fraction of M1 in Box3 is more than that in Box1 or Box2.

    Thus, since (fraction of M 1 in Box1) < (f raction of M 1 in Box2) < (f raction of M 1 in Box3), we have, (small)

    The original probabilities (small), (small) and (small) are called the prior probabilities.

    The conditional probabilities (small), (small) and (small) are called das posterior probabilities.

    Thus by employing Baye's theorem,the prior probabilities have been modifed to posterior porbabilities using the available information (data) on the fractions (small), (small) and (small).


    Verweise

    Gelman, A., Carlin, J.B., Stern, H.S. & Rubin, D.B. Bayesian Data Analysis (Chapman & Hall/CRC, Boca Raton, Florida, USA, 1995).

    MacKay, D.J.C. Information Theory, Inference, and Learning Algorithms (Cambridge Univ. Press, Cambridge, UK, 2003).

    Jaynes, E.T. Probability Theory: The Logic of Science (Cambridge Univ. Press, Cambridge, UK, 2003).

    Hacking, I. The Emergence of Probability (Cambridge Univ. Press, Cambridge, UK, 1975).


    Schau das Video: Unikátní pohled muže na problematiku genetické mutace BRCA a preventivní operace jeho ženy. (Kann 2022).