Information

4.4: Rückkopplungsschleifen - Biologie

4.4: Rückkopplungsschleifen - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Denken Sie daran, dass die Homöostase die Aufrechterhaltung einer relativ stabilen inneren Umgebung ist. Wenn ein Stimulus oder eine Änderung in der Umgebung vorhanden ist, reagieren Rückkopplungsschleifen, um die Systeme in der Nähe eines Sollwerts oder idealen Niveaus funktionsfähig zu halten.

Rückmeldung

Feedback ist eine Situation, in der die Ausgabe oder Reaktion einer Schleife die Eingabe oder den Stimulus beeinflusst oder beeinflusst.

Normalerweise unterteilen wir Feedbackschleifen in zwei Haupttypen:

  1. positive Rückkopplungsschleifen, bei der eine Änderung in eine bestimmte Richtung eine zusätzliche Änderung in die gleiche Richtung verursacht. Zum Beispiel verursacht eine Erhöhung der Konzentration einer Substanz eine Rückkopplung, die zu einer fortgesetzten Konzentrationserhöhung führt.
  2. negative Rückkopplungsschleifen, bei dem eine Änderung in eine bestimmte Richtung eine Änderung in die entgegengesetzte Richtung bewirkt. Beispielsweise führt eine Erhöhung der Konzentration einer Substanz zu einer Rückkopplung, die letztendlich dazu führt, dass die Konzentration der Substanz abnimmt.

Positive Rückkopplungsschleifen sind von Natur aus instabile Systeme. Da eine Änderung einer Eingabe Reaktionen hervorruft, die fortlaufende Änderungen in die gleiche Richtung bewirken, können positive Rückkopplungsschleifen zu Ausreißerzuständen führen. Der Begriff positives Feedback wird typischerweise verwendet, solange eine Variable die Fähigkeit besitzt, sich selbst zu verstärken, auch wenn die Komponenten einer Schleife (Rezeptor, Kontrollzentrum und Effektor) nicht leicht zu identifizieren sind. In den meisten Fällen ist positives Feedback schädlich, aber es gibt einige Fälle, in denen positives Feedback, wenn es in begrenzter Weise verwendet wird, zur normalen Funktion beiträgt. Während der Blutgerinnung aktiviert sich beispielsweise eine Kaskade enzymatischer Proteine ​​gegenseitig, was zur Bildung eines Fibringerinnsels führt, das den Blutverlust verhindert. Eines der Enzyme im Stoffwechselweg, Thrombin genannt, wirkt nicht nur auf das nächste Protein im Stoffwechselweg, sondern hat auch die Fähigkeit, ein Protein zu aktivieren, das ihm in der Kaskade vorausgegangen ist. Dieser letztere Schritt führt zu einem positiven Feedback-Zyklus, in dem ein Anstieg des Thrombins zu einem weiteren Anstieg des Thrombins führt. Es sollte beachtet werden, dass es andere Aspekte der Blutgerinnung gibt, die den Gesamtprozess in Schach halten, so dass der Thrombinspiegel nicht unbegrenzt ansteigt. Aber wenn wir nur die Auswirkungen von Thrombin auf sich selbst betrachten, wird dies als positiver Rückkopplungszyklus betrachtet. Obwohl einige dies als positive Rückkopplungsschleife betrachten mögen, wird eine solche Terminologie nicht allgemein akzeptiert.

Negative Rückkopplungsschleifen sind inhärent stabile Systeme. Negative Rückkopplungsschleifen in Verbindung mit den verschiedenen Stimuli, die eine Variable beeinflussen können, erzeugen typischerweise einen Zustand, in dem die Variable um den Sollwert schwingt. Negative Rückkopplungsschleifen mit Insulin und Glucagon tragen beispielsweise dazu bei, den Blutzuckerspiegel in einem engen Konzentrationsbereich zu halten. Wenn der Glukosespiegel zu hoch wird, gibt der Körper Insulin in den Blutkreislauf ab. Insulin bewirkt, dass die Körperzellen Glukose aufnehmen und speichern, wodurch der Blutzuckerspiegel gesenkt wird. Wenn der Blutzucker zu niedrig wird, schüttet der Körper Glukagon aus, wodurch aus einigen Körperzellen Glukose freigesetzt wird.

Positives Feedback

Bei einem positiven Rückkopplungsmechanismus stimuliert die Leistung des Systems das System derart, dass die Leistung weiter erhöht wird. Gebräuchliche Begriffe, die positive Rückkopplungsschleifen oder -zyklen beschreiben könnten, sind „Schneeballen“ und „Kettenreaktion“. Ohne eine ausgleichende oder „abschaltende“ Reaktion oder einen Prozess hat ein positiver Rückkopplungsmechanismus das Potenzial, einen außer Kontrolle geratenen Prozess zu erzeugen. Wie bereits erwähnt, gibt es einige physiologische Prozesse, die allgemein als positive Rückkopplung angesehen werden, obwohl sie möglicherweise nicht alle identifizierbare Komponenten einer Rückkopplungsschleife aufweisen. In diesen Fällen endet die positive Rückkopplungsschleife immer mit einer Gegensignalisierung, die den ursprünglichen Reiz unterdrückt.

Ein gutes Beispiel für positives Feedback ist die Verstärkung der Wehentätigkeit. Die Kontraktionen werden eingeleitet, wenn sich das Baby in Position bewegt und den Gebärmutterhals über seine normale Position hinaus dehnt. Das Feedback erhöht die Stärke und Häufigkeit der Kontraktionen bis zur Geburt des Babys. Nach der Geburt stoppt die Dehnung und die Schlinge wird unterbrochen.

Ein weiteres Beispiel für positives Feedback tritt in der Stillzeit auf, in der eine Mutter Milch für ihr Kind produziert. Während der Schwangerschaft steigt der Spiegel des Hormons Prolaktin an. Prolaktin stimuliert normalerweise die Milchproduktion, aber während der Schwangerschaft hemmt Progesteron die Milchproduktion. Bei der Geburt, wenn die Plazenta aus der Gebärmutter freigesetzt wird, sinkt der Progesteronspiegel. Infolgedessen steigt die Milchproduktion. Während das Baby trinkt, stimuliert sein Saugen die Brust, was die weitere Freisetzung von Prolaktin fördert, was zu einer noch höheren Milchproduktion führt. Diese positive Rückmeldung stellt sicher, dass das Baby während des Fütterns ausreichend Milch hat. Wenn das Baby entwöhnt ist und nicht mehr von der Mutter gestillt wird, hört die Stimulation auf und das Prolaktin im Blut der Mutter kehrt auf das Niveau vor dem Stillen zurück.

Das Obige liefert Beispiele für vorteilhafte positive Rückkopplungsmechanismen. In vielen Fällen kann positives Feedback jedoch potenziell schädlich für Lebensprozesse sein. Beispielsweise kann der Blutdruck erheblich sinken, wenn eine Person aufgrund eines Traumas viel Blut verliert.

Der Blutdruck ist eine geregelte Größe, die dazu führt, dass das Herz seine Herzfrequenz erhöht (d. h. die Herzfrequenz erhöht) und sich stärker kontrahiert. Diese Veränderungen des Herzens führen dazu, dass es mehr Sauerstoff und Nährstoffe benötigt, aber wenn das Blutvolumen im Körper zu gering ist, wird das Herzgewebe selbst nicht ausreichend durchblutet, um diesen erhöhten Bedarf zu decken. Das Ungleichgewicht zwischen Sauerstoffbedarf des Herzens und Sauerstoffversorgung kann zu weiteren Herzschäden führen, die tatsächlich den Blutdruck senken und zu einer größeren Änderung der Variablen (Blutdruck) führen. Die Schleife reagiert, indem sie versucht, das Herz noch stärker zu stimulieren, was zu weiteren Herzschäden führt ... und die Schleife geht weiter, bis der Tod eintritt.

Negative Rückmeldung

Die meisten biologischen Rückkopplungssysteme sind negative Rückkopplungssysteme. Negative Rückkopplung tritt auf, wenn die Leistung eines Systems dazu dient, die Prozesse zu reduzieren oder zu dämpfen, die zu der Leistung dieses Systems führen, was zu einer geringeren Leistung führt. Im Allgemeinen ermöglichen negative Rückkopplungsschleifen den Systemen, sich selbst zu stabilisieren. Negatives Feedback ist ein wichtiger Kontrollmechanismus für die Homöostase des Körpers.

Sie haben ein Beispiel für eine auf die Temperatur angewendete Rückkopplungsschleife gesehen und die beteiligten Komponenten identifiziert. Dies ist ein wichtiges Beispiel dafür, wie eine negative Rückkopplungsschleife die Homöostase, den Thermoregulationsmechanismus des Körpers, aufrechterhält. Der Körper hält eine relativ konstante Innentemperatur, um chemische Prozesse zu optimieren. Neuronale Impulse von wärmeempfindlichen Thermorezeptoren im Körper signalisieren dem Hypothalamus. Der Hypothalamus, der sich im Gehirn befindet, vergleicht die Körpertemperatur mit einem Sollwert.

Wenn die Körpertemperatur sinkt, initiiert der Hypothalamus mehrere physiologische Reaktionen, um die Wärmeproduktion zu erhöhen und Wärme zu speichern:

  • Die Verengung der oberflächlichen Blutgefäße (Vasokonstriktion) verringert den Wärmefluss zur Haut.
  • Es beginnt ein Zittern, wodurch die Wärmeproduktion der Muskeln erhöht wird.
  • Die Nebennieren produzieren stimulierende Hormone wie Noradrenalin und Adrenalin, um die Stoffwechselrate und damit die Wärmeproduktion zu erhöhen.

Diese Effekte führen zu einer Erhöhung der Körpertemperatur. Wenn er sich normalisiert, wird der Hypothalamus nicht mehr stimuliert und diese Effekte hören auf.

Wenn die Körpertemperatur ansteigt, leitet der Hypothalamus mehrere physiologische Reaktionen ein, um die Wärmeproduktion zu verringern und Wärme zu verlieren:

  • Die Erweiterung der oberflächlichen Blutgefäße (Vasodilatation) erhöht den Wärmefluss zur Haut und wird gespült.
  • Schweißdrüsen geben Wasser (Schweiß) ab und Verdunstung kühlt die Haut.

Diese Effekte bewirken, dass die Körpertemperatur sinkt. Wenn er sich normalisiert, wird der Hypothalamus nicht mehr stimuliert und diese Effekte hören auf.

Viele homöostatische Mechanismen, wie die Temperatur, reagieren unterschiedlich, wenn die Variable über oder unter dem Sollwert liegt. Wenn die Temperatur steigt, schwitzen wir, wenn sie sinkt, zittern wir. Diese Antworten verwenden verschiedene Effektoren, um die Variable anzupassen. In anderen Fällen verwendet eine Rückkopplungsschleife denselben Effektor, um die Variable wieder in Richtung des Sollwerts anzupassen, unabhängig davon, ob die anfängliche Änderung der Variablen entweder über oder unter dem Sollwert lag. Beispielsweise wird der Pupillendurchmesser angepasst, um sicherzustellen, dass eine angemessene Lichtmenge in das Auge eintritt. Bei zu geringer Lichtmenge erweitert sich die Pupille, bei zu hoher Lichtmenge verengt sich die Pupille.

Dies kann mit Autofahren verglichen werden. Wenn Ihre Geschwindigkeit über dem Sollwert (dem gewünschten Wert) liegt, können Sie entweder nur das Gaspedal verringern (d. h. ausrollen), oder Sie können ein zweites System aktivieren – die Bremse. In beiden Fällen verlangsamen Sie, aber dies kann entweder durch "Zurücksetzen" auf einem System oder durch Hinzufügen eines zweiten Systems erfolgen.

Schauen wir uns an, wie diese beiden Beispiele in Bezug auf die normale Blutdruckhomöostase funktionieren.

Der Blutdruck wird gemessen, da das zirkulierende Blut Druck auf die Wände der Arterien des Körpers ausübt. Der Blutdruck entsteht zunächst durch die Kontraktion des Herzens. Veränderungen der Stärke und Kontraktionsrate stehen in direktem Zusammenhang mit Veränderungen des Blutdrucks. Veränderungen des Blutvolumens würden auch direkt mit Veränderungen des Blutdrucks zusammenhängen. Veränderungen des Durchmessers der Gefäße, durch die das Blut fließt, verändern den Widerstand und haben eine gegenteilige Veränderung des Blutdrucks. Die Blutdruckhomöostase beinhaltet, dass Rezeptoren den Blutdruck überwachen und Kontrollzentren Veränderungen in den Effektoren initiieren, um ihn in einem normalen Bereich zu halten.


Biofunktionalisierte Materialien mit Feedforward- und Feedback-Schaltungen am Beispiel des Nachweises von Botulinumtoxin A

Feedforward- und Feedback-Schleifen sind wichtige regulatorische Elemente bei der zellulären Signalübertragung und Informationsverarbeitung. Die synthetische Biologie nutzt diese Elemente für den Entwurf molekularer Schaltkreise, die die Umprogrammierung und Kontrolle spezifischer Zellfunktionen ermöglichen. Diese Schaltkreise dienen als Grundlage für das Engineering komplexer Mobilfunknetze und öffnen die Tür für zahlreiche medizinische und biotechnologische Anwendungen. Hier wird ein ähnliches Prinzip angewendet. Feedforward- und positive Feedback-Schaltungen werden in Biohybrid-Polymermaterialien eingebaut, um Signalerfassungs- und Signalverarbeitungsgeräte zu entwickeln. Beispielhaft für dieses Konzept ist der Nachweis der proteolytischen Aktivität des Botulinum-Neurotoxins A. Dazu werden ortsspezifische Proteasen in Empfänger-, Sender- und Ausgangsmaterialien eingebaut und deren Freisetzung, Diffusion und/oder Aktivierung entsprechend verdrahtet eine Vorwärtskopplungs- oder eine positive Rückkopplungsschaltung. Die Entwicklung eines quantitativen mathematischen Modells ermöglicht die Analyse und den Vergleich der Leistungsfähigkeit beider Systeme. Das flexible Design könnte leicht angepasst werden, um andere Toxine oder interessierende Moleküle nachzuweisen. Darüber hinaus könnten zelluläre Signalwege oder Genregulationswege zusätzliche Blaupausen für die Entwicklung neuer biohybrider Schaltkreise liefern. Solche informationsverarbeitenden, in Material eingebetteten biologischen Schaltkreise sind vielversprechend für eine Vielzahl von analytischen, medizinischen oder biotechnologischen Anwendungen.


Warum ist mein 4-jähriger trotzig? 7 praktische Lösungen

1. Setzen Sie ein positives Beispiel

Halten Sie Ihr Temperament im Zaum.

Das Schlimmste, was Sie tun können, ist, mit mehr Aggression auf das aggressive und störende Verhalten Ihres Kindes zu reagieren.

Dies wird Ihrem Kind nur bestätigen, dass dies das akzeptable Verhalten ist und der richtige Weg ist, seine Emotionen zu zeigen.

2. Handeln Sie schnell

Dies ist entscheidend und ein kluger Weg, um einen Wutanfall zu entschärfen, bevor er zu weit geht.

Sobald Sie das aufkommende störende Verhalten sehen, handeln Sie schnell und beseitigen Sie es schnell.

Zum Beispiel, „Wenn du das jetzt nicht aus der Hand legst, geht der Fernseher aus und bleibt den ganzen Tag aus“.

Unterstützen Sie, was Sie sagen, und bleiben Sie fest in Ihrem Ansatz. Ihr Kind ist alt genug, um zu verstehen, dass Ihre Drohungen nicht leer sind.

3. Wiederhole dich

Wenn Sie Ihr Kind einmal für eine geringfügige Straftat gerügt haben und dann nicht mehr genau dasselbe tun, wird es bald feststellen, dass dies eine leere Drohung ist und einfach so lange auf Ihre Knöpfe drücken, bis Sie nachgeben.

Irgendwann wird sich all diese Wiederholung auszahlen und Ihre Drohung wird gut genug sein, um trotziges Verhalten einzuschränken.

4. Rückkopplungsschleife

Eine Feedbackschleife ist der beste Weg, um Ihre Elternschaft ständig an das Verhalten Ihres Kindes anzupassen.

(Ich werde hier ein bisschen technisch, aber bleib bei mir)

E-Mail-Dienstanbieter (wie Gmail, Yahoo usw.) haben diesen ständigen Strom von Feedbackschleifen, die ihre Kunden ihnen bieten, wenn sie E-Mails erhalten.

Gute E-Mails landen im Posteingang, Spam im Spam-Ordner. Einfach genug, oder?

Nun, wenn es gut genug für Google ist, ist es gut genug für Sie!

Sprechen Sie nach jedem Ausbruch mit Ihrem Kind (nicht direkt, geben Sie ihm mindestens 20 Minuten und weniger als 1 Stunde)

Finden Sie heraus, was den Ausbruch ausgelöst hat, warum er sich entschieden hat, sich so zu verhalten und wenn Sie können, was ihn dazu veranlasst hat, aufzuhören (oder was dazu geführt hätte, dass er schneller aufgehört hat!)

Dies kann ein wenig unnötig erscheinen, aber basierend auf dem, was er Ihnen erzählt, können Sie besser verstehen, was und warum er in Wut geraten ist, und Ihre Erziehung noch besser auf den nächsten Ausbruch einstellen.

Probieren Sie es aus, Sie werden schockiert sein über einige der Antworten, die Sie erhalten.

5. Gutes Verhalten belohnen

Als Eltern neigen wir dazu, uns mehr auf schlechtes Verhalten und unsere Reaktion darauf als auf gutes Verhalten zu konzentrieren.

Wenn er nach einem fragt „Stück Obst“ und steckt seine Hand nicht in deinen Teller, fragt er höflich, ob er welche haben kann, belohne ihn mit Lob und würdige ihn.

Positive Verstärkung ist der beste Weg, um störendes Verhalten herauszufiltern, bevor es so weit ist.

Führen Sie eine Belohnungstabelle und fügen Sie Aufkleber für jedes gute Verhalten hinzu, ob klein oder groß.

6. Fernsehzeit überwachen

TV-Cartoons und Werbespots sind voll von störenden und negativen Einflussfaktoren.

Dies hilft nicht bei Wut und Aggression bei einem 4-jährigen Jungen.

Selbst kleine Dosen davon können langfristige Verhaltensprobleme verursachen, wenn Ihr Kind ihm oft genug ausgesetzt ist.

Digitale Spiele können genauso schlimm sein, daher müssen Sie die Spiele einschränken, die im Allgemeinen Schreien, Kämpfen und störendes Verhalten fördern.

Sie werden überrascht sein, was Kinder beim Fernsehen mitnehmen und es zeigt sich nicht immer sofort.

Sie können Wochen verbringen, ohne jemals zu wissen, dass sie beeinflusst wurden!

Versuchen Sie, eine Routine einzuhalten und die Fortschritte Ihres Kindes zu überwachen.

Die meisten Kinder „agieren“ in verschiedenen Entwicklungsstadien, also stellen Sie sicher, dass Sie verstehen, an welchem ​​Meilenstein sie sich befinden und ob das Verhalten ein normaler Teil davon ist.


Vorwort zur zweiten Auflage ix

Vorwort zur Erstausgabe xi

Liste häufig verwendeter Symbole xv

1 Einführung in lineare Feedback-Steuerungen 1

1.1 Was sind Feedback-Kontrollsysteme? 4

1.3 Design von Feedback-Regelsystemen 7

2.1 Beispielsystem erster Ordnung: der RC-Tiefpass 17

2.2 Beispielsystem 2. Ordnung: das Feder-Masse-Dämpfer-System 18

2.3 Erhalten der Systemantwort aus einem Schritteingang 19

2.4 Systeme und Signale in Scilab 21

3 Lösen von Differentialgleichungen im Laplace-Gebiet 25

3.1 Die Laplace-Transformation 25

3.2 Fourier-Reihe und die Fourier-Transformation 29

3.3 Darstellung RC-Tiefpass und Feder-Masse-Dämpfer

Systeme in der Laplace-Domäne 35

3.4 Transientes und stationäres Ansprechen 39

3.5 Teilbruchexpansion 42

4 Zeitdiskrete Systeme 51

4.1 Analog-Digital-Wandlung und das Halten nullter Ordnung 52

4.3 Die Beziehung zwischen Laplace- und z-Domänen 59

5 Erstes umfassendes Beispiel: das temperierte Wasserbad 65

5.1 Mathematisches Modell des Prozesses 65

5.2 Ermittlung der Systembeiwerte 67

5.3 Laplace-Domänenmodell 72

5.4 Einführung der Feedback-Steuerung 75

5.5 Vergleich des Open-Loop- und Closed-Loop-Systems 77

5.6 Verwendung eines PI-Reglers 79

5.7 Zeitdiskrete Steuerung 83

5.8 Zeitdiskrete Steuerung mit der bilinearen Transformation 85

6 Eine Geschichte von zwei Polen: das Beispiel Stellungsregler und die Bedeutung der

6.1 Ein Kopfpositionierungssystem 87

6.2 Einführung der Feedback-Steuerung 89

6.3 Dynamik des Regelkreises 90

6.4 Feedback-Regelung mit einem zeitdiskreten Regler 93

6.5 Leistungskennzahlen für dynamisches Ansprechen 97

6.6 Zeitintegrierte Leistungskennzahlen 102

6.7 Die Dynamik von Systemen höherer Ordnung 105

7.1 Allgemeine Gleichungen für Zustandsraummodelle 109

7.2 Rückkopplungsregelsysteme in Zustandsraumform 115

7.3 Erreichbarkeit und Beobachtbarkeit 118

7.4 Zustandsraum-Feedback-Steuerung mit Beobachtern 119

7.5 Zustandsraummodelle in Scilab 121

8 Blockschaltbilder: formale grafische Beschreibung linearer Systeme 123

8.1 Symbole von Blockschaltbildern und Signalflussdiagrammen 123

8.2 Blockschaltbild-Manipulation 124

8.3 Blockschaltbild-Vereinfachungsbeispiele 127

9 Linearisierung nichtlinearer Komponenten 133

9.1 Linearisierung von Komponenten mit analytischer Beschreibung 134

9.2 Linearisierung von Komponenten mit mehreren Eingangsgrößen 136

9.3 Linearisierung von Tabellendaten 139

9.4 Linearisierung von Bauteilen mit grafischen Daten 140

9.5 Sättigungseffekte 141

10 Stabilitätsanalyse für lineare Systeme 145

10.1 Das Routh-Hurwitz-Schema 148

10.2 Routh-Arrays für Systeme niedriger Ordnung 149

10.3 Stabilität zeitdiskreter Systeme mit der w -Transformation 151

10.5 Jury-Arrays für Systeme niedriger Ordnung 153

10.6 Anwendungsbeispiele 154

11 Die Root-Locus-Methode 157

11.1 Grafische Konstruktion von Root-Locus-Plots 158

11.2 Wurzel-Lokus-Diagramme in Scilab 164

11.3 Auslegungsbeispiel: Stellungsregler mit PI-Regelung 165

11.4 Konstruktionsbeispiel: Resonanzreduktion 170

11.5 Die Root-Locus-Methode für zeitdiskrete Systeme 173

12 Analyse- und Entwurfsmethoden im Frequenzbereich 177

12.1 Frequenzgang von LTI-Systemen 177

12.2 Frequenzgang und Stabilität 179

12.4 Definition von Phasen- und Verstärkungsreserve 182

12.5 Aufbau von Bode-Diagrammen 185

12.6 Frequenzgang eines Systems zweiter Ordnung 186

12.7 Frequenzgang digitaler Filter 190

12.8 Das Nyquist-Stabilitätskriterium 193

12.9 Das Nyquist-Stabilitätskriterium für zeitdiskrete Systeme 199

12.10 Nyquist-Stabilität in Scilab 201

13 Robustheit von Feedback-Regelsystemen 203

13.1 Systemempfindlichkeit 204

13.3 Die Rolle des Sensors 211

13.4 Robustheit digitaler Steuerungssysteme 216

14 Bausteine ​​linearer Systeme 219

14.1 Kurzeinführung Operationsverstärker 219

14.2 Bausteine ​​für zeitkontinuierliche Systeme 226

14.3 Ein Beispiel für ein digitales Steuerungssystem mit Mikrocontroller 239

14.4 Bausteine ​​für zeitdiskrete Systeme und digitale Regler 243


Inhaltsverzeichnis

Vorwort
Danksagung
Notation
Kapitel 1 Topologische Eigenschaften
1.1. Der Ansatz zu neuronalen Massen
1.1.1. Direkte und indirekte Beobachtungen
1.1.2. Die Verwendung von Modellen in einer Hierarchie
1.1.3. Makroskopische Formen kooperativer neuronaler Aktivität
1.2. Einzelne Neuronen
1.2.1. Die Strukturen von Neuronen
1.2.2. Die Operationen von Neuronen
1.2.3. Die Zustandsvariablen von Neuronen
1.2.4. Spezifikation der aktiven Zustände und Operationen
1.2.5. Input-Output-Beziehungen einzelner Neuronen
1.2.6. Mehrere stabile Zustände von Neuronen
1.2.7. Grundlegende Topologien von Netzwerken von Neuronen
1.3. Neuronale Massen
1.3.1. Eine topologische Hierarchie interaktiver Mengen
1.3.2. Die Zustandsvariablen von KO- und KI-Mengen
1.3.3. Die Operationen neuronaler Sets
1.3.4. Rückkopplungsverstärkung als Parameter für die Interaktion
1.3.5. Mehrere stabile Zustände und die Ebenen der Interaktion
1.3.6. Die Beziehung multipler Stabilitäten zu neuronalen Signalen
1.3.7. Die Bedingungen für die Realisierbarkeit
1.3.8. Die Verwendung von Differentialgleichungen
Kapitel 2 Zeitabhängige Eigenschaften
2.1. Messung neuronaler Ereignisse
2.1.1. Darstellung von Ereignissen nach Funktionen
2.1.2. Input-Output-Funktionen
2.1.3. Lineare Input-Output-Funktionen
2.1.4. Der Impuls und die Impulsantwort
2.2. Lineare Modelle für Neuralmembran
2.2.1. Die Topologie der Membran
2.2.2. Differentialgleichung
2.2.3. Die Laplace-Transformation
2.2.4. Anwendung der Laplace-Transformation auf die Membran
2.3. Lineare Modelle für Teile von Neuronen
2.3.1. Faltung
2.3.2. Das Faltungstheorem
2.3.3. Übertragungsfunktionen für die Impulsübertragung
2.3.4. Das Kernleitermodell
2.3.5. Synaptische Verzögerung
2.4. Lineare Modelle für Neuronen
2.4.1. Formulierung der Topologie
2.4.2. Eingangs-Ausgangs-Paare und die Differentialgleichung
2.4.3. Interpretation der Parameter
2.4.4. Lineare Funktion für die Umwandlung von Welle zu Impuls
2.5. Lineare Modelle für neuronale Massen
2.5.1. Verwendung der nichtlinearen Regression
2.5.2. Das KO Neuronale Set
2.5.3. Schwingungsantworten eines KII-Sets
Kapitel 3 Amplitudenabhängige Eigenschaften
3.1. Nichtlineare Modelle für neuronale Membranen
3.1.1. Die Ionenhypothese
3.1.2. Stoffwechselkräfte
3.1.3. Das Konzept des Gleichgewichtspotentials
3.1.4. Das Natriumpermeabilitätsmodell
3.2. Nichtlineare Modelle für Neuronen und Teile von Neuronen
3.2.1. Aktionspotentiale in Axonen
3.2.2. Schwellenwertunsicherheit in Axonen
3.2.3. Postsynaptische Potenziale in Dendriten
3.2.4. Amplitudenabhängige Input-Output-Beziehungen
3.3. Nichtlineare Modelle für neuronale Massen
3.3.1. Hintergrundaktivität im Wave-Modus
3.3.2. Hintergrundaktivität im Pulsmodus
3.3.3. Beziehungen von Wellen und Pulsen
3.3.4. Wave-to-Puls-Konvertierung im KI-Set
3.3.5. Puls-zu-Welle-Umwandlung im KI-Set
3.3.6. Der Vorwärtsgewinn des KI-Sets
Kapitel 4 Raumabhängige Eigenschaften
4.1. Potenzielle Felder einzelner Neuronen
4.1.1. Basisfunktionen zur Potentialmessung im Weltraum
4.1.2. Basisfunktionen für Potenziale in Stromfeldern
4.1.3. Potentielle Funktionen für den Kernleiter
4.1.4. Potentielle Felder von Axonen
4.1.5. Knoten und verzweigte Fasern
4.2. Potentielle Felder neuronaler Massen
4.2.1. Messung von beobachteten Feldern
4.2.2. Basisfunktionen für Potentialfelder neuronaler Massen
4.2.3. Zusammengesetzte Potenzialfelder: Modulare Analyse
4.3. Potentielle Felder im Riechkolben
4.3.1. Bulbar Geometrie und Topologie
4.3.2. Analyse der räumlichen Funktion des Potentials
4.3.3. Zeitabhängige Aktivität
4.4. Potentielle Felder im präpyriformen Kortex
4.4.1. Kortikale Geometrie und Topologie
4.4.2. Beobachtete Felder des kortikalen Potenzials
4.4.3. Beziehung von Potenzialfeldern zu aktiven Zuständen
4.5. Divergenz und Konvergenz in neuronalen Massen
4.5.1. Die Operation der Divergenz
4.5.2. Bewertung der räumlichen Verteilung aktiver Zustände
4.5.3. Bewertung der synaptischen Divergenz
4.5.4. Bewertung der traktilen Divergenz
Kapitel 5 Interaktion: Einzelne Rückkopplungsschleifen mit fester Verstärkung
5.1. Allgemeine Eigenschaften einzelner Rückkopplungsschleifen
5.1.1. Arten von neuronalem Feedback
5.1.2. Ableitung der stückweise linearen Näherung in Lumen
5.1.3. Root Locus als Funktion der Rückkopplungsverstärkung
5.1.4. Amplitudenabhängige Verstärkung und Stabilität
5.2. Ermäßigung vom KI-Level
5.2.1. Topologische Analyse der glomerulären Schicht
5.2.2. Differentialgleichungen für den KIe-Satz
5.2.3. Selbststabilisierung des KIe-Sets
5.3. Ermäßigung vom KII-Level
5.3.1. Topologische Analyse des Riechkolbens
5.3.2. Differentialgleichungen für die Fälle mit offenem Regelkreis
5.3.3. Differentialgleichungen für die Closed-Loop-Fälle
5.4. Reduzierung vom Kill-Level
5.4.1. Topologische Analyse des präpyriformen Kortex
5.4.2. Differentialgleichungen für den Cortex
5.4.3. Übertragungsfunktion des LOT-Eingangskanals
5.4.4. Puls-Wellen-Beziehungen in Cortex und Bulb
5.4.5. Kanäle für Zentrifugaleingang
Kapitel 6 Mehrere Rückkopplungsschleifen mit variabler Verstärkung
6.1. Gleichgewichtszustände: Charakteristische Frequenz
6.1.1. Definition der drei Arten der Rückkopplungsverstärkung
6.1.2. Lösung der Differentialgleichungen
6.1.3. Experimentelle und theoretische Wurzelpfade
6.1.4. Vorspannungssteuerung der charakteristischen Frequenz
6.1.5. Wurzelloci abhängig von EEG-Amplituden
6.2. Grenzzykluszustände: Mechanismen des EEG
6.2.1. Stabilitätseigenschaften von KII-Sets
6.2.2. Zykluszustände im ersten Modus begrenzen
6.2.3. Zykluszustände im zweiten Modus begrenzen
6.2.4. Fehlerquellen und Einschränkungen
6.2.5. Vergleiche mit verwandten mathematischen Modellen
Kapitel 7 Signalverarbeitung durch neuronale Massenaktionen
7.1. Verhaltenskorrelate der Wellenaktivität in KII-Sätzen
7.1.1. Die operative Basis für die Korrelation
7.1.2. Faktorenanalyse von AEPs
7.1.3 Änderungsmuster bei AEPS mit Aufmerksamkeit
7.1.4. Ein vorgeschlagener kortikaler Aufmerksamkeitsmechanismus
7.2. Transformationen neuronaler Signale durch KII-Sätze
7.2.1. Neuronale Kodierung im Riechkolben
7.2.2. Bulbar-Mechanismen für die Phasenmodulation
7.2.3. Aufmerksamkeit und die kortikale Erwartungsfunktion
7.2.4. Mögliche Mechanismen des kortikalen Outputs
7.3. Kommentare zu neokortikalen Massenaktionen
7.3.1. Rhythmische Potenziale und Rhythmische Stimulation
7.3.2. DC-Polarisation und stationäre Potentiale
7.3.3. Einheitenaktivität korreliert mit sensorischen und motorischen Ereignissen
Verweise
Autorenverzeichnis
Subject Index


3.1 Leichtgewicht und eine Sache

Stellen Sie sich vor, Sie bauen ein Buchungssystem auf, das dem von Expedia.com oder Cheapflights.com.au ähnelt, das Bestellungen von Kunden entgegennimmt, um Ihre Flüge, Hotels und Mietwagen zu buchen. Die Anwendung besteht aus mehreren Komponenten, darunter: Buchungswebsite-Schnittstelle, mobile Anwendung und mehrere Backend-Dienste zur Orchestrierung Ihres Buchungsauftrags, wie in (Abbildung 3) gezeigt.

Abbildung 3: Beispiel einer Microservice-Architektur (Online-Buchungssystem)

Das System wird hauptsächlich aus 4 verschiedenen Schichten bestehen:

UI ist eine Schnittstelle für das System mit Ausnahme jeglicher serverseitiger Geschäftslogik. Dabei kann es sich entweder um eine Website, eine mobile native Anwendung oder ein Reporting-Dashboard-System für den internen Betrieb handeln.

Die Kommunikationsschicht ermöglicht es der Benutzeroberfläche, mit verschiedenen Diensten über ein einziges Gateway zu kommunizieren, ohne direkt auf einen der Dienste zugreifen zu müssen.

Die Serviceschicht enthält alle Microservices, die von der Organisation genutzt werden können. In unserem Beispiel haben wir nur fünf Dienste, in der realen Welt können es jedoch Hunderte von Diensten sein, die jeden Aspekt des Systems abwickeln.

Alle Dienste sollten keine direkte Verbindung zu anderen Diensten haben oder Datenspeicher gemeinsam nutzen. Die gesamte Kommunikation zwischen Diensten sollte innerhalb der Integrationsschicht stattfinden, um die Dienstentkopplung sicherzustellen.

Daher macht jeder der Systemdienste eine Sache und übernimmt eine bestimmte Aufgabe.


4 FEEDBACK-MECHANISMEN IN FEUCHTLANDSYSTEMEN

4.1 Oberflächenalbedo-Feedbacks

Die Albedo ist definiert als das Verhältnis der Strahlung, die von einer Oberfläche auf einer Skala von 0 (schwarzer Körper) bis 1 (alle Strahlung wird reflektiert) reflektiert wird (Coakley, 2003). Klimabedingte Verschiebungen der Landbedeckung können zu Rückkopplungsmechanismen führen (Abbildung 2), wie z Skala. Veränderungen der Meereisausdehnung und Schneebedeckung in der Arktis führen bereits zu drastischen Veränderungen der Oberflächenalbedo, insbesondere im Sommer, der in den letzten Jahrzehnten eine starke Erwärmung erfahren hat, die zu einem Rückgang der Meereisausdehnung und einer Verzögerung des Meereisnachwachsens im Herbst geführt hat (Serreze , Holland & Stroeve, 2007). Dies führte zu einer Albedo-Änderung von 0,75 für mehrjähriges Meereis bis 0,06–0,10 für Wasserkörper, abhängig vom Winkel der einfallenden Strahlung (Serreze & Barry, 2014). Veränderungen der Eisdicke und Schneedecke auf dem Meereis verändern die Oberflächenalbedo weiter (Curry, Schramm & Ebert, 1995). Da ein höherer Anteil der Strahlung absorbiert statt reflektiert wird, entsteht eine positive Rückkopplungsschleife und verstärkt den Temperaturanstieg in der Arktis (Winton, 2008). Diese verstärkte Erwärmung aufgrund einer verringerten Oberflächenalbedo des Arktischen Ozeans kann die Temperaturen auf angrenzenden Landmassen bis zu 1.500 km landeinwärts beeinflussen, was ihre Auswirkungen auf arktische Feuchtgebietssysteme demonstriert (Lawrence, Slater, Tomas, Holland & Deser, 2008 Parmentier et al., 2015). Es wird auch angenommen, dass die Eis-Albedo-Rückkopplung des Arktischen Ozeans einen großen Einfluss auf das globale Klima hat (Budikova, 2009), mit einem jährlichen Strahlungsantrieb von durchschnittlich 0,1 W m −2 zwischen 1979 und 2007 (Hudson, 2011). Veränderungen der terrestrischen Schneedecke durch Erwärmung und verstärkte Niederschläge umfassen eine kürzere Dauer der Schneedecke und eine verringerte Schneedeckendicke (Bintanja & Andry, 2017), die die gesamte Oberflächenalbedo stark senken (Déry & Brown, 2007). Durch den verstärkenden Effekt dieser Rückkopplung verdreifachte sich der Strahlungsantrieb aufgrund von Veränderungen der arktischen Schneedecke zwischen 1910–1940 (0,3 W m −2 Dekade −1 ) und 1970–2000 (0,9 W m −2 Dekade −1 ) (Euskirchen, McGuire , & Chapin, 2007). Zusammen mit dem Meereis-Albedo-Feedback wird es für den arktischen Verstärkungseffekt verantwortlich gemacht (Serreze & Francis, 2006). Erwärmungsinduzierte Vegetationssukzession, insbesondere die Nordwanderung der Baumgrenze, verändert auch die Oberflächenalbedo (Frost & Epstein, 2014) und stellt eine weitere Rückkopplung dar, die die Erwärmung verstärkt. Eine Vegetationsverschiebung kann die Oberflächenalbedo während des Sommers verringern, die von 0,14 bis 0,18 für die Tundravegetation bis zu 0,09 für dunkle Nadelbäume reicht (Eugster et al., 2000). Darüber hinaus kann das Abfangen von Schnee durch immergrüne Nadelbäume die Albedo der Winteroberfläche senken (de Wit et al., 2014). Es wird jedoch geschätzt, dass diese Rückkopplung nur etwa 3 % der durch Landbedeckungsänderungen induzierten Erwärmung ausmacht, da die räumliche Ausdehnung der Vegetationsänderung bisher relativ gering war (Chapin et al., 2005 ). Betrachtet man eine weitere Erwärmung basierend auf zukünftigen Klimaszenarien und den Zeitverzögerungseffekt auf die Vegetationssukzession, könnte diese Rückkopplung in Zukunft relevanter werden, obwohl die nordwärts gerichtete Entwicklung von Laubbäumen die Oberflächenalbedo von borealen Wäldern wiederherstellen könnte, um dieser Rückkopplung entgegenzuwirken (Eugster et al ., 2000). Eine Zunahme der Biomasse und eine Abnahme der Meereisausdehnung können auch die Evapotranspirationsraten und die Wolkenbildung erhöhen, was die minimale Albedo in bewachsenen und unbewachsenen Landschaften um bis zu 0,02 senken kann, da Wolken das Eindringen von Strahlung behindern (Eugster et al., 2000).

Die Oberflächenalbedo wird auch durch terrestrische Wasseroberflächen gesteuert und wird daher durch Thermokarst- und Entwässerungsprozesse, die durch das Auftauen von Permafrostböden verursacht werden, verändert. Eine Zunahme der Oberflächenwasserfläche durch die Ausdehnung von Feuchtgebieten und die Bildung von Thermokarstseen könnte die Albedo an der Oberfläche senken (Kokelj & Jorgenson, 2013 Runyan & D'Odorico, 2012), was zu einer weiteren positiven Rückkopplung führt, die die Erwärmung verstärkt. Die Entwässerung von Feuchtgebieten würde die gesamte Oberflächenalbedo erhöhen und eine negative Rückkopplung liefern, die die Erwärmung ausgleicht (Göckede et al., 2019).

4.2 Rückkopplungen im Zusammenhang mit dem thermischen Bodenregime

Da Permafrost einen entscheidenden Einfluss auf arktische Feuchtgebietssysteme hat, werden Rückkopplungsmechanismen der Bodentemperaturen die zukünftigen Feuchtgebiete beeinflussen (Abbildung 3). Permafrost selbst interagiert direkt mit dem thermischen Regime, da das Einfrieren des Bodens die Wärmeleitfähigkeit erhöht, was das Eindringen niedriger Wintertemperaturen in den Boden erleichtert und eine positive Rückkopplungsschleife erzeugt (Osterkamp & Romanovsky, 1997). Die tatsächliche Wärmeleitfähigkeit hängt von der Bodenart und dem Eisgehalt ab (Arenson, Colgan & Marshall, 2015). Degradierter Permafrost benötigt weniger Energie zum Auftauen und verstärkt somit die Erwärmung der Bodentemperaturen (Eugster et al., 2000).

Permafrost fördert die Bildung von Feuchtgebieten, indem er die Wasserperkolation behindert, was zum Wachstum hydrophiler Vegetation führt und die Zersetzungsrate verringert, wodurch Torfakkumulation induziert wird (M. C. Jones, Grosse, Jones, & Anthony, 2012 van Huissteden, 2020). Dies isoliert den Boden vor warmen Sommertemperaturen und verstärkt dadurch das Einfrieren des Bodens, was zu einer positiven Rückkopplungsschleife führt und die Permafrostbildung in Feuchtgebieten verstärkt (Woo & Young, 2003). Die Auswirkungen von Torf auf die Wärmeleitfähigkeit des Bodens hängen jedoch stark von der Wassersättigung ab. Kujala, Seppälä und Holappa (2008) berichteten von Leitfähigkeitswerten von 0,23–0,28 W/mK für trockene Torfproben und 0,43–0,67 W/mK in gefrorenem Trockentorf, 0,41–0,50 W/mK für gesättigten Torf und 1,48–1,49 w /mK für gefrorenen gesättigten Torf. This highlights the dependency on both seasonal conditions and saturation level for this feedback.

Permafrost degradation also creates feedbacks through thermokarst and drainage processes. Inundation caused by thermokarst formation enhances the thermal conductivity of the ground and hence reinforces permafrost thaw (Brouchkov, Fukuda, Fedorov, Konstantinov, & Iwahana, 2004 Quinton et al., 2011 ). Waterlogged conditions in turn inhibit forest growth and tree survival, which increases the snowpack and its insulating effect on ground temperatures, but reduces the shielding effect of trees (Chasmer, Quinton, Hopkinson, Petrone, & Whittington, 2011 Runyan & D'Odorico, 2012 ). Therefore, wetland expansion enhances ground temperatures and reinforces permafrost thaw (J. Rowland, Travis, & Wilson, 2011 ). In contrast, wetland shrinkage through drainage lowers the thermal conductivity of the ground and balances permafrost thaw through negative feedbacks (Briggs et al., 2014 Göckede et al., 2019 Woo, 2012 ).

4.3 Spatial variability of environmental changes

The consequences of warming and hydrological changes on environmental systems are not uniform throughout the Arctic but exhibit spatial variation. Table 1 shows the geographic distribution of resulting environmental changes, which have been identified as the most direct and relevant. Certain change trajectories are more widespread, such as permafrost thaw and wildfires, whereas other occur more locally, for example insect outbreaks and lake or wetland drainage. More research is needed on both the spatial and the temporal variations of these change trajectories for different types of wetlands. This should also include determination of relative strengths of interactions, in order to understand dominant feedbacks and net effects resulting from warming and hydrological changes.

Consequences of warming Geografische Verteilung Verweise
Permafrost dynamics Permafrost degradation Pan-Arctic (1) Subarctic Sweden (2) N Europe (3) Alaska, USA (4) NW Canada (5) N Russia (6) (1) Biskaborn et al. ( 2019 ) (2) Åkerman and Johansson ( 2008 ) (3) Harris et al. ( 2009 ) (4) Jorgenson, Shur, and Pullman ( 2006 ) (5) Quinton et al. ( 2011 ) (6) Mazhitova, Malkova (Ananjeva, Chestnykh, and Zamolodchikov ( 2004 )
Thermokarst formation Canada (1), including Banks Island (2) Alaska, USA (2) Subarctic Sweden (3) (1) Farquharson et al. ( 2019 ) (2) Fraser et al. ( 2018 ) (3) Farquharson, Mann, Grosse, Jones, and Romanovsky ( 2016 ) (4) Sannel and Kuhry ( 2011 )
Lake/wetland drainage Alaska, USA (1) Old Crow Basin, Yukon, Canada (2) Scotty Creek, Canada (3) Siberia (4) (1) Yoshikawa and Hinzman ( 2003 ) (2) Labrecque, Lacelle, Duguay, Lauriol, and Hawkings ( 2009 ) (3) Haynes et al. ( 2018 ) (4) Smith et al. ( 2005 )
Snow and sea ice Reduction in sea ice extent Arctic Ocean (1) (1) Stroeve et al. ( 2012 )
Reduction in snow cover North America (1) W Russia (2) (1) Callaghan et al. ( 2011 ) (2) Bulygina, Razuvaev, and Korshunova ( 2009 )
Ecosystem dynamics Vegetation succession Canada (1) Siberia (2) (1) Jia, Epstein, and Walker ( 2009 ) (2) Frost and Epstein ( 2014 )
Wildfires Northern Eurasia (1) including Siberia (2), North Slope of Alaska, USA (3), Canada (4) (1) Evangeliou et al. ( 2016 ) (2) Kharuk et al. ( 2021 ) (3) Creamean et al. ( 2018 ) (4) Price et al. ( 2013 )
Insect outbreaks Subarctic Sweden (1) W North America (2) (1) Heliasz et al. ( 2011 ) (2) Kurz et al. ( 2008 )

Inhalt

Automobile race analogy Edit

As an analogy of a PLL, consider a race between two cars. One represents the input frequency, the other the PLL's output voltage-controlled oscillator (VCO) frequency. Each lap corresponds to a complete cycle. The number of laps per hour (a speed) corresponds to the frequency. The separation of the cars (a distance) corresponds to the phase difference between the two oscillating signals.

During most of the race, each car is on its own and free to pass the other and lap the other. This is analogous to the PLL in an unlocked state.

However, if there is an accident, a yellow caution flag is raised. This means neither of the race cars is permitted to overtake and pass the other car. The two race cars represent the input and output frequency of the PLL in a locked state. Each driver will measure the phase difference (a fraction of the distance around the lap) between themselves and the other race car. If the hind driver is too far away, they will increase their speed to close the gap. If they are too close to the other car, the driver will slow down. The result is that both race cars will circle the track in lockstep with a fixed phase difference (or constant distance) between them. Since neither car is allowed to lap the other, the cars make the same number of laps in a given time period. Therefore the frequency of the two signals is the same.

Clock analogy Edit

Phase can be proportional to time, [a] so a phase difference can be a time difference. Clocks are, with varying degrees of accuracy, phase-locked (time-locked) to a leader clock.

Left on its own, each clock will mark time at slightly different rates. A wall clock, for example, might be fast by a few seconds per hour compared to the reference clock at NIST. Over time, that time difference would become substantial.

To keep the wall clock in sync with the reference clock, each week the owner compares the time on their wall clock to a more accurate clock (a phase comparison), and resets their clock. Left alone, the wall clock will continue to diverge from the reference clock at the same few seconds per hour rate.

Some clocks have a timing adjustment (a fast-slow control). When the owner compared their wall clock's time to the reference time, they noticed that their clock was too fast. Consequently, the owner could turn the timing adjust a small amount to make the clock run a little slower (frequency). If things work out right, their clock will be more accurate than before. Over a series of weekly adjustments, the wall clock's notion of a second would agree with the reference time (locked both in frequency and phase within the wall clock's stability).

An early electromechanical version of a phase-locked loop was used in 1921 in the Shortt-Synchronome clock.

Spontaneous synchronization of weakly coupled pendulum clocks was noted by the Dutch physicist Christiaan Huygens as early as 1673. [1] Around the turn of the 19th century, Lord Rayleigh observed synchronization of weakly coupled organ pipes and tuning forks. [2] In 1919, W. H. Eccles and J. H. Vincent found that two electronic oscillators that had been tuned to oscillate at slightly different frequencies but that were coupled to a resonant circuit would soon oscillate at the same frequency. [3] Automatic synchronization of electronic oscillators was described in 1923 by Edward Victor Appleton. [4]

In 1925 Professor David Robertson, first professor of electrical engineering at the University of Bristol, introduced phase locking in his clock design to control the striking of the bell Great George in the new Wills Memorial Building. Robertson’s clock incorporated an electro-mechanical device that could vary the rate of oscillation of the pendulum, and derived correction signals from a circuit that compared the pendulum phase with that of an incoming telegraph pulse from Greenwich Observatory every morning at 10.00 GMT. Apart from including equivalents of every element of a modern electronic PLL, Robertson’s system was notable in that its phase detector was a relay logic implementation of the phase/frequency detector not seen in electronic circuits until the 1970s. Robertson’s work predated research towards what was later named the phase-lock loop in 1932, when British researchers developed an alternative to Edwin Armstrong's superheterodyne receiver, the Homodyne or direct-conversion receiver. In the homodyne or synchrodyne system, a local oscillator was tuned to the desired input frequency and multiplied with the input signal. The resulting output signal included the original modulation information. The intent was to develop an alternative receiver circuit that required fewer tuned circuits than the superheterodyne receiver. Since the local oscillator would rapidly drift in frequency, an automatic correction signal was applied to the oscillator, maintaining it in the same phase and frequency of the desired signal. The technique was described in 1932, in a paper by Henri de Bellescize, in the French journal L'Onde Électrique. [5] [6] [7]

In analog television receivers since at least the late 1930s, phase-locked-loop horizontal and vertical sweep circuits are locked to synchronization pulses in the broadcast signal. [8]

When Signetics introduced a line of monolithic integrated circuits like the NE565 that were complete phase-locked loop systems on a chip in 1969, [9] applications for the technique multiplied. A few years later RCA introduced the "CD4046" CMOS Micropower Phase-Locked Loop, which became a popular integrated circuit.

Phase-locked loop mechanisms may be implemented as either analog or digital circuits. Both implementations use the same basic structure. Analog PLL circuits include four basic elements:

Variations Edit

There are several variations of PLLs. Some terms that are used are analog phase-locked loop (APLL) also referred to as a linear phase-locked loop (LPLL), digital phase-locked loop (DPLL), all digital phase-locked loop (ADPLL), and software phase-locked loop (SPLL). [10]

Analog or linear PLL (APLL) Phase detector is an analog multiplier. Loop filter is active or passive. Uses a voltage-controlled oscillator (VCO). APLL is said to be a type II if its loop filter has transfer function with exactly one pole at the origin (see also Egan's conjecture on the pull-in range of type II APLL). Digital PLL (DPLL) An analog PLL with a digital phase detector (such as XOR, edge-trigger JK, phase frequency detector). May have digital divider in the loop. All digital PLL (ADPLL) Phase detector, filter and oscillator are digital. Uses a numerically controlled oscillator (NCO). Software PLL (SPLL) Functional blocks are implemented by software rather than specialized hardware. Charge-pump PLL (CP-PLL) CP-PLL is a modification of phase-locked loops with phase-frequency detector and square waveform signals. See also Gardner's conjecture on CP-PLL.

Performance parameters Edit

  • Type and order. : hold-in range (tracking range), pull-in range (capture range, acquisition range), lock-in range. [11] See also Gardner's problem on the lock-in range, Egan's conjecture on the pull-in range of type II APLL.
  • Loop bandwidth: Defining the speed of the control loop.
  • Transient response: Like overshoot and settling time to a certain accuracy (like 50 ppm).
  • Steady-state errors: Like remaining phase or timing error.
  • Output spectrum purity: Like sidebands generated from a certain VCO tuning voltage ripple.
  • Phase-noise: Defined by noise energy in a certain frequency band (like 10 kHz offset from carrier). Highly dependent on VCO phase-noise, PLL bandwidth, etc.
  • General parameters: Such as power consumption, supply voltage range, output amplitude, etc.

Phase-locked loops are widely used for synchronization purposes in space communications for coherent demodulation and threshold extension, bit synchronization, and symbol synchronization. Phase-locked loops can also be used to demodulate frequency-modulated signals. In radio transmitters, a PLL is used to synthesize new frequencies which are a multiple of a reference frequency, with the same stability as the reference frequency.

Other applications include

    of frequency modulation (FM): If PLL is locked to a FM signal, the VCO tracks the instantaneous frequency of the input signal. The filtered error voltage which controls the VCO and maintains lock with the input signal is demodulated FM output. The VCO transfer characteristics determine the linearity of the demodulated out. Since the VCO used in an integrated-circuit PLL is highly linear, it is possible to realize highly linear FM demodulators.
  • Demodulation of frequency-shift keying (FSK): In digital data communication and computer peripherals, binary data is transmitted by means of a carrier frequency which is shifted between two preset frequencies.
  • Recovery of small signals that otherwise would be lost in noise (lock-in amplifier to track the reference frequency)
  • Recovery of clock timing information from a data stream such as from a disk drive in microprocessors that allow internal processor elements to run faster than external connections, while maintaining precise timing relationships
  • Demodulation of modems and other tone signals for telecommunications and remote control. of video signals Phase-locked loops are also used to synchronize phase and frequency to the input analog video signal so it can be sampled and digitally processed in frequency modulation mode, to detect changes of the cantilever resonance frequency due to tip–surface interactions drive

Clock recovery Edit

Some data streams, especially high-speed serial data streams (such as the raw stream of data from the magnetic head of a disk drive), are sent without an accompanying clock. The receiver generates a clock from an approximate frequency reference, and then phase-aligns to the transitions in the data stream with a PLL. This process is referred to as clock recovery. For this scheme to work, the data stream must have a transition frequently enough to correct any drift in the PLL's oscillator. Typically, some sort of line code, such as 8b/10b encoding, is used to put a hard upper bound on the maximum time between transitions.

Deskewing Edit

If a clock is sent in parallel with data, that clock can be used to sample the data. Because the clock must be received and amplified before it can drive the flip-flops which sample the data, there will be a finite, and process-, temperature-, and voltage-dependent delay between the detected clock edge and the received data window. This delay limits the frequency at which data can be sent. One way of eliminating this delay is to include a deskew PLL on the receive side, so that the clock at each data flip-flop is phase-matched to the received clock. In that type of application, a special form of a PLL called a delay-locked loop (DLL) is frequently used. [12]

Clock generation Edit

Many electronic systems include processors of various sorts that operate at hundreds of megahertz. Typically, the clocks supplied to these processors come from clock generator PLLs, which multiply a lower-frequency reference clock (usually 50 or 100 MHz) up to the operating frequency of the processor. The multiplication factor can be quite large in cases where the operating frequency is multiple gigahertz and the reference crystal is just tens or hundreds of megahertz.

Spread spectrum Edit

All electronic systems emit some unwanted radio frequency energy. Various regulatory agencies (such as the FCC in the United States) put limits on the emitted energy and any interference caused by it. The emitted noise generally appears at sharp spectral peaks (usually at the operating frequency of the device, and a few harmonics). A system designer can use a spread-spectrum PLL to reduce interference with high-Q receivers by spreading the energy over a larger portion of the spectrum. For example, by changing the operating frequency up and down by a small amount (about 1%), a device running at hundreds of megahertz can spread its interference evenly over a few megahertz of spectrum, which drastically reduces the amount of noise seen on broadcast FM radio channels, which have a bandwidth of several tens of kilohertz.

Clock distribution Edit

Typically, the reference clock enters the chip and drives a phase locked loop (PLL), which then drives the system's clock distribution. The clock distribution is usually balanced so that the clock arrives at every endpoint simultaneously. One of those endpoints is the PLL's feedback input. The function of the PLL is to compare the distributed clock to the incoming reference clock, and vary the phase and frequency of its output until the reference and feedback clocks are phase and frequency matched.

PLLs are ubiquitous—they tune clocks in systems several feet across, as well as clocks in small portions of individual chips. Sometimes the reference clock may not actually be a pure clock at all, but rather a data stream with enough transitions that the PLL is able to recover a regular clock from that stream. Sometimes the reference clock is the same frequency as the clock driven through the clock distribution, other times the distributed clock may be some rational multiple of the reference.

AM detection Edit

A PLL may be used to synchronously demodulate amplitude modulated (AM) signals. The PLL recovers the phase and frequency of the incoming AM signal's carrier. The recovered phase at the VCO differs from the carrier's by 90°, so it is shifted in phase to match, and then fed to a multiplier. The output of the multiplier contains both the sum and the difference frequency signals, and the demodulated output is obtained by low pass filtering. Since the PLL responds only to the carrier frequencies which are very close to the VCO output, a PLL AM detector exhibits a high degree of selectivity and noise immunity which is not possible with conventional peak type AM demodulators. However, the loop may lose lock where AM signals have 100% modulation depth. [13]

Jitter and noise reduction Edit

One desirable property of all PLLs is that the reference and feedback clock edges be brought into very close alignment. The average difference in time between the phases of the two signals when the PLL has achieved lock is called the static phase offset (auch genannt die steady-state phase error). The variance between these phases is called tracking jitter. Ideally, the static phase offset should be zero, and the tracking jitter should be as low as possible. [ zweifelhaft – diskutieren ]

Phase noise is another type of jitter observed in PLLs, and is caused by the oscillator itself and by elements used in the oscillator's frequency control circuit. Some technologies are known to perform better than others in this regard. The best digital PLLs are constructed with emitter-coupled logic (ECL) elements, at the expense of high power consumption. To keep phase noise low in PLL circuits, it is best to avoid saturating logic families such as transistor-transistor logic (TTL) or CMOS. [14]


Another desirable property of all PLLs is that the phase and frequency of the generated clock be unaffected by rapid changes in the voltages of the power and ground supply lines, as well as the voltage of the substrate on which the PLL circuits are fabricated. This is called substrate and supply noise rejection. The higher the noise rejection, the better.

To further improve the phase noise of the output, an injection locked oscillator can be employed following the VCO in the PLL.

Frequency synthesis Edit

In digital wireless communication systems (GSM, CDMA etc.), PLLs are used to provide the local oscillator up-conversion during transmission and down-conversion during reception. In most cellular handsets this function has been largely integrated into a single integrated circuit to reduce the cost and size of the handset. However, due to the high performance required of base station terminals, the transmission and reception circuits are built with discrete components to achieve the levels of performance required. GSM local oscillator modules are typically built with a frequency synthesizer integrated circuit and discrete resonator VCOs. [ Zitat benötigt ]

A phase detector compares two input signals and produces an error signal which is proportional to their phase difference. The error signal is then low-pass filtered and used to drive a VCO which creates an output phase. The output is fed through an optional divider back to the input of the system, producing a negative feedback loop. If the output phase drifts, the error signal will increase, driving the VCO phase in the opposite direction so as to reduce the error. Thus the output phase is locked to the phase at the other input. This input is called the reference. [ Zitat benötigt ]

Analog phase locked loops are generally built with an analog phase detector, low pass filter and VCO placed in a negative feedback configuration. A digital phase locked loop uses a digital phase detector it may also have a divider in the feedback path or in the reference path, or both, in order to make the PLL's output signal frequency a rational multiple of the reference frequency. A non-integer multiple of the reference frequency can also be created by replacing the simple divide-by-n counter in the feedback path with a programmable pulse swallowing counter. This technique is usually referred to as a fractional-N synthesizer or fractional-N PLL. [ zweifelhaft – diskutieren ]

The oscillator generates a periodic output signal. Assume that initially the oscillator is at nearly the same frequency as the reference signal. If the phase from the oscillator falls behind that of the reference, the phase detector changes the control voltage of the oscillator so that it speeds up. Likewise, if the phase creeps ahead of the reference, the phase detector changes the control voltage to slow down the oscillator. Since initially the oscillator may be far from the reference frequency, practical phase detectors may also respond to frequency differences, so as to increase the lock-in range of allowable inputs. Depending on the application, either the output of the controlled oscillator, or the control signal to the oscillator, provides the useful output of the PLL system. [ Zitat benötigt ]

Phase detector Edit

A phase detector (PD) generates a voltage, which represents the phase difference between two signals. In a PLL, the two inputs of the phase detector are the reference input and the feedback from the VCO. The PD output voltage is used to control the VCO such that the phase difference between the two inputs is held constant, making it a negative feedback system. [fünfzehn]


Different types of phase detectors have different performance characteristics.

For instance, the frequency mixer produces harmonics that adds complexity in applications where spectral purity of the VCO signal is important. The resulting unwanted (spurious) sidebands, also called "reference spurs" can dominate the filter requirements and reduce the capture range well below or increase the lock time beyond the requirements. In these applications the more complex digital phase detectors are used which do not have as severe a reference spur component on their output. Also, when in lock, the steady-state phase difference at the inputs using this type of phase detector is near 90 degrees. [ Zitat benötigt ]

In PLL applications it is frequently required to know when the loop is out of lock. The more complex digital phase-frequency detectors usually have an output that allows a reliable indication of an out of lock condition.

An XOR gate is often used for digital PLLs as an effective yet simple phase detector. It can also be used in an analog sense with only slight modification to the circuitry.

Filter Edit

The block commonly called the PLL loop filter (usually a low pass filter) generally has two distinct functions.

The primary function is to determine loop dynamics, also called stability. This is how the loop responds to disturbances, such as changes in the reference frequency, changes of the feedback divider, or at startup. Common considerations are the range over which the loop can achieve lock (pull-in range, lock range or capture range), how fast the loop achieves lock (lock time, lock-up time or settling time) and damping behavior. Depending on the application, this may require one or more of the following: a simple proportion (gain or attenuation), an integral (low pass filter) and/or derivative (high pass filter). Loop parameters commonly examined for this are the loop's gain margin and phase margin. Common concepts in control theory including the PID controller are used to design this function.

The second common consideration is limiting the amount of reference frequency energy (ripple) appearing at the phase detector output that is then applied to the VCO control input. This frequency modulates the VCO and produces FM sidebands commonly called "reference spurs".

The design of this block can be dominated by either of these considerations, or can be a complex process juggling the interactions of the two. Typical trade-offs are increasing the bandwidth usually degrades the stability or too much damping for better stability will reduce the speed and increase settling time. Often also the phase-noise is affected.

Oscillator Edit

All phase-locked loops employ an oscillator element with variable frequency capability. This can be an analog VCO either driven by analog circuitry in the case of an APLL or driven digitally through the use of a digital-to-analog converter as is the case for some DPLL designs. Pure digital oscillators such as a numerically controlled oscillator are used in ADPLLs. [ Zitat benötigt ]

Feedback path and optional divider Edit

PLLs may include a divider between the oscillator and the feedback input to the phase detector to produce a frequency synthesizer. A programmable divider is particularly useful in radio transmitter applications, since a large number of transmit frequencies can be produced from a single stable, accurate, but expensive, quartz crystal–controlled reference oscillator.

Frequency multiplication can also be attained by locking the VCO output to the nth harmonic of the reference signal. Instead of a simple phase detector, the design uses a harmonic mixer (sampling mixer). The harmonic mixer turns the reference signal into an impulse train that is rich in harmonics. [b] The VCO output is coarse tuned to be close to one of those harmonics. Consequently, the desired harmonic mixer output (representing the difference between the n harmonic and the VCO output) falls within the loop filter passband.

It should also be noted that the feedback is not limited to a frequency divider. This element can be other elements such as a frequency multiplier, or a mixer. The multiplier will make the VCO output a sub-multiple (rather than a multiple) of the reference frequency. A mixer can translate the VCO frequency by a fixed offset. It may also be a combination of these. An example being a divider following a mixer this allows the divider to operate at a much lower frequency than the VCO without a loss in loop gain.

Time domain model of APLL Edit

The VCO frequency is usually taken as a function of the VCO input g ( t ) as

The loop filter can be described by a system of linear differential equations

Hence the following system describes PLL

Phase domain model of APLL Edit

Then the following dynamical system describes PLL behavior

Example Edit

Consider sinusoidal signals

and a simple one-pole RC circuit as a filter. The time-domain model takes the form

PD characteristics for this signals is equal [18] to

Hence the phase domain model takes the form

This system of equations is equivalent to the equation of mathematical pendulum

Linearized phase domain model Edit

Phase locked loops can also be analyzed as control systems by applying the Laplace transform. The loop response can be written as

  • θ o > is the output phase in radians
  • θ i > is the input phase in radians
  • K p > is the phase detector gain in volts per radian
  • K v > is the VCO gain in radians per volt-second
  • F ( s ) is the loop filter transfer function (dimensionless)

The loop characteristics can be controlled by inserting different types of loop filters. The simplest filter is a one-pole RC circuit. The loop transfer function in this case is

The loop response becomes:

This is the form of a classic harmonic oscillator. The denominator can be related to that of a second order system:

For the one-pole RC filter,

The loop natural frequency is a measure of the response time of the loop, and the damping factor is a measure of the overshoot and ringing. Ideally, the natural frequency should be high and the damping factor should be near 0.707 (critical damping). With a single pole filter, it is not possible to control the loop frequency and damping factor independently. For the case of critical damping,

A slightly more effective filter, the lag-lead filter includes one pole and one zero. This can be realized with two resistors and one capacitor. The transfer function for this filter is

This filter has two time constants

Substituting above yields the following natural frequency and damping factor

The loop filter components can be calculated independently for a given natural frequency and damping factor

Real world loop filter design can be much more complex e.g. using higher order filters to reduce various types or source of phase noise. (See the D Banerjee ref below)

Implementing a digital phase-locked loop in software Edit

Digital phase locked loops can be implemented in hardware, using integrated circuits such as a CMOS 4046. However, with microcontrollers becoming faster, it may make sense to implement a phase locked loop in software for applications that do not require locking onto signals in the MHz range or faster, such as precisely controlling motor speeds. Software implementation has several advantages including easy customization of the feedback loop including changing the multiplication or division ratio between the signal being tracked and the output oscillator. Furthermore, a software implementation is useful to understand and experiment with. As an example of a phase-locked loop implemented using a phase frequency detector is presented in MATLAB, as this type of phase detector is robust and easy to implement.

In this example, an array tracksig is assumed to contain a reference signal to be tracked. The oscillator is implemented by a counter, with the most significant bit of the counter indicating the on/off status of the oscillator. This code simulates the two D-type flip-flops that comprise a phase-frequency comparator. When either the reference or signal has a positive edge, the corresponding flip-flop switches high. Once both reference and signal is high, both flip-flops are reset. Which flip-flop is high determines at that instant whether the reference or signal leads the other. The error signal is the difference between these two flip-flop values. The pole-zero filter is implemented by adding the error signal and its derivative to the filtered error signal. This in turn is integrated to find the oscillator frequency.

In practice, one would likely insert other operations into the feedback of this phase-locked loop. For example, if the phase locked loop were to implement a frequency multiplier, the oscillator signal could be divided in frequency before it is compared to the reference signal.


3. Rules

3.1. Was?

3.1.1. Determine what happens

3.1.2. Create a nontechnical model of the microinteraction

3.1.3. They define what can and cannot be done, and in what order

3.1.4. 1. Determine the goal of the microinteraction

3.1.4.1. Understandable (I know why I'm doing this) and achievable (I know I can do this) Goal - end state ex: login - goal: to get the user logged in [not just to enter a user and pass]

3.1.5.1. how the microinteraction responds to the trigger being activated

3.1.5.2. what control the user has (if any) over a microinteraction in process

3.1.5.3. the sequence in which actions take place and the timing

3.1.5.4. what data is being used and from where

3.1.5.5. the configuration and parameters of any algorithms

3.1.5.6. what feedback is delivered and when

3.1.5.7. what mode the microinteraction is in if the microinteraction repeats and how often one time activity or does it loop? what happens when the microinteraction ends?

3.2. Beispiel

3.2.1. Initial: 1. On an item page, user clicks Add to Cart button. 2. The item is added to the Shopping Cart

3.2.2. Upgraded: 1. On an item page, check to see if the user has purchased this item before. If so, change the button label from Add to Cart to Add Again to Cart. 2. Does the user already have this item in the cart? If so, change Add to Cart to Add Another to Cart. 3. The user clicks button. 4. The item is added to the Shopping Cart

3.3. Grundsätze

3.3.1. Principle 1: Don't start from zero!

3.3.1.1. First question after trigger: what do I know about the user and the context?

3.3.1.2. (platform/device, time of day, battery life, location, user's past actions etc)

3.3.2. Principle 2: Absorb complexity

3.3.2.1. All activities have an inherent complexity there is a point beyond which you cannot simplify a process any further

3.3.2.2. What to do with that complexity: either the system handles it -> removes control from the user or the user -> more decisions, more control

3.3.2.3. Suggested: handle most of the decision making if possible.

3.3.2.4. Complexity? Which parts the user might like to have and when?

3.3.2.5. Limited options and smart defaults

3.3.2.5.1. The best way to keep rules to a minimum is to limit options

3.3.2.5.2. The most prominent default should be the action that most people do most of the time

3.3.3. Principle 3: Use rules to prevent errors

3.3.3.1. ex: Apple chargers vs. USB

3.3.3.2. ex: Gmail "I've attached" with no attachments

3.3.3.3. Make human errors impossible. Keep copy short. Never use instructional text where a label will suffice.


4.9 Summary

System Dynamics is a methodological approach that is used to implement a conceptual model of a system into a computer model. System Dynamics software takes diagrammatic notations (“Stock and Flow diagrams”) as input and calculates the flows between stocks by using partial differential equations. The result is the temporally continuous dynamic behaviour of the stocks in a system over time. The below table shall sum up, what we have discussed in this chapter:

  • One-stock systems can exhibit growth or decay (linear, exponential, logistic), stable equilibria and oscillations (caused by delay).
  • Two-stock systems additionally can result in oscillations (mutually connected stocks) and multiple equilibria.
  • Three-stock systems additionally can exhibit chaotic behaviour.

Verweise

Lorenz, Edward. 1972. Predictability: Does the Flap of a Butterfly’s Wing in Brazil Set Off a Tornado in Texas? na.