Elektrotechnik und Physik
Hier findest du folgende Inhalte
Formeln
Bildaufzeichnung
In dieser Mikro-Lerneinheit lernst du gestalterische Auswahlkriterien bezüglich der Wahl zwischen Foto und Videoaufzeichnung kennen. Danach verfolgen wir den Weg der Photonen, die der Träger von Lichtinformation sind, von deren Ursprung in einer Lichtquelle bis zu deren Auftreffen auf den Rezeptoren der Netzhaut, sodass in unserem Gehirn eine Bildwahrnehmung entsteht.
Wahl zwischen Fotografie bzw. Videografie
Moderne Kameras bieten heute die Möglichkeit, erst im Moment der Aufnahme zu entscheiden, ob man Fotos oder Videos vom Motiv erstellen möchte – ganz nach Bedarf für die spätere Betrachtung. Während es engagierten Amateuren schon seit Jahrzehnten leicht fiel, qualitativ hochwertige Fotos zu schießen, hat sich der Bereich der hochwertigen Low-Budget-Videos erst mit dem Übergang von analogen zu digitalen Videokameras revolutioniert. Besonders erwähnenswert ist, dass Smartphones die nahezu kostenfreie Aufnahme und Wiedergabe von Fotos und Videos für jedermann zugänglich gemacht haben. Gleichzeitig trugen soziale Medien wie Instagram und YouTube dazu bei, dass jeder Hobbyfotograf seine Aufnahmen einem weltweiten Publikum präsentieren kann.
Nachfolgend einige Aspekte, in denen sich Fotografie und Videografie unterscheiden:
Statische Fotos vs. bewegter Bilder
In der Fotografie wird ein einzelner Moment eingefroren, während in der Videografie Zeitintervalle aufgenommen werden.
Geschichten erzählen
Sowohl Fotos als auch Videos können Geschichten erzählen. Fotos konzentrieren sich jedoch auf einen einzigen Augenblick, während Videos zeitliche Veränderungen einfangen. Ein gutes Foto erfordert das Gespür des Fotografen, im perfekten Moment den Auslöser zu drücken. Bei Videos hingegen kann der relevante Ausschnitt durch nachträglichen Schnitt ausgewählt werden.
Aufmerksamkeitsspanne des Betrachters
Ein Foto kann auf einen Blick erfasst werden, während ein Video eine längere Aufmerksamkeitsspanne erfordert, da es über einen bestimmten Zeitraum betrachtet werden muss.
Bewegung und Ton
Diese Elemente sind exklusive Vorteile der Videographie, da sie Bewegung und Ton einbeziehen, während Fotos rein visuell wirken.
Ressourceneinsatz
Fotos entstehen oft spontan, während die Erstellung semi-professioneller Videos mehr Planung erfordert. Im professionellen Bereich benötigt man zudem ein Drehbuch mit klaren Anweisungen für alle Beteiligten. Die Beleuchtung und Tonaufnahme bei bewegten Bildern erfordern erheblich mehr Aufwand als bei einem einzelnen Foto oder einer Fotostrecke, wie etwa bei einer Hochzeit. Auch der Speicherbedarf und die Rechenleistung für die Nachbearbeitung sind bei Videos weitaus höher.
Aufnahmeparameter und Datenspeicherung
Fotos im JPEG-Format sind in der Regel sofort einsatzbereit, während im RAW-Format aufgenommene Fotos unbedingt nachbearbeitet werden müssen. Für die Bearbeitung eines RAW-Fotos sollte man etwa 5 Minuten einplanen. Bei Videoaufnahmen ist die Wahl der Aufnahmeparameter besonders wichtig, da das hohe Datenvolumen eine schnelle Speicherkarte erfordert. Gängige Videoformate sind heute Full-HD (1920 x 1080 Pixel, 16:9) und 4K UHD (3840 x 2160 Pixel).
Wahl des Kameragehäuses
Bei der Wahl eines Kameragehäuses sollte man zunächst überlegen, wie viel Zeit man in die Fotografie investieren möchte.
Smartphone-Fotografen
Smartphones sind stets griffbereit und ermöglichen spontane Aufnahmen. Die Bilder werden im JPEG- oder HEIF-Format erstellt und vom Prozessor automatisch so optimiert, dass sie ohne weitere Bearbeitung auf dem Handy-Display gut aussehen. Der Fokus dieser Fotografen liegt meist auf der Ästhetik und der Selbstvermarktung in sozialen Medien.
Amateurfotografen
Amateurfotografen fotografieren aus Leidenschaft und aus Freude zum Hobby, ohne kommerzielle Absichten. Sie experimentieren und verstehen die grundlegenden Zusammenhänge von Brennweite, Blende, Belichtungszeit, ISO-Wert und Schärfentiefe. Ihre Fotos werden meist im JPEG- oder HEIF-Format gespeichert, und Bildbearbeitung ist eher selten. Sie wählen Kameras, welche eine umfangreiche Auswahl an Belichtungsautomatiken und Objektive mit unterschiedlichen Brennweiten bieten.
Semiprofessionelle Fotografen
Semiprofessionelle Fotografen haben ein hohes technisches Verständnis für Bildkomposition, Kameratechnologie und Nachbearbeitung. Sie nutzen oft dieselbe Ausrüstung wie Profis, jedoch ohne kommerzielle Kosten-Nutzen-Rechnung im Hinterkopf. Sie fotografieren ausschließlich im RAW-Format, um maximale Kontrolle über die Bildbearbeitung zu haben. Nach der Aufnahme wählen sie sorgfältig die besten Bilder aus und bearbeiten diese oft erst Wochen später mit einem Zeitaufwand von ca. 5 Minuten pro Bild. Da sie nicht auf Einnahmen angewiesen sind, fotografieren sie, was ihnen Freude macht.
Professionelle Fotografen
Professionelle Fotografen leben von der Fotografie und arbeiten meist auf Basis kommerzieller Verträge mit festen Deadlines. Sie fotografieren entweder nach Kundenwünschen oder vertreiben ihre Werke über Bildagenturen und Bild-Datenbanken (Stock-Fotografie). Erfolgreiche Profis haben oft einen einzigartigen Stil entwickelt, der ihre Bilder unverwechselbar macht. Unter hohem Zeitdruck und im Wettbewerb mit anderen Fotografen bearbeiten sie ihre Aufnahmen häufig bereits in der Kamera und übermitteln sie direkt über das Internet an potenzielle Käufer. Die Fotodatei beinhaltet Hinweise auf den Fotografen und dessen Urheberrechte.
Weg der Photonen von einer Lichtquelle zu den Rezeptoren der Netzhaut
Bei der Bildaufzeichnung unterscheidet man zwischen "Standbild-Aufzeichnung" also dem Generieren eines Fotos und "Bewegtbild-Aufzeichnung", also dem Generieren eines Videos.
Photonen
Am Anfang jeder Bildaufnahme steht das Photon. Photonen sind masselose Austauschteilchen der elektromagnetischen Wechselwirkung. Licht besteht aus elektromagnetischen Wellen, die sich in Form von diskreten Energiepaketen, den Photonen, bewegen, denen eine spezifische Wellenlänge und somit eine korrespondierende Farbe des sichtbaren Lichts entspricht. D.h. die Bewegung von Photonen in einem bestimmten Wellenlängenintervall nimmt der Mensch oder der Kamerasensor als Licht einer konkreten Farbe wahr.
- 400 nm – 450 nm: Violett
- 450 nm – 495 nm: Blau
- 495 nm – 570 nm: Grün
- 570 nm – 590 nm: Gelb
- 590 nm – 620 nm: Orange
- 620 nm – 700 nm: Rot
Um den technischen Prozess der Bildaufnahme zu verstehen, kann der Weg des Lichts in mehrere Schritte unterteilt werden:
Lichtquelle
Jede Lichtquelle ist der Ursprung von Photonen. Einige Objekte, wie eine Kerze, erzeugen ihr eigenes Licht. In den meisten Fällen stammen die Photonen jedoch von externen Lichtquellen wie der Sonne (Tageslicht) oder einer Lampe (Kunstlicht), die das Motiv beleuchten und schließlich den Kamerasensor erreichen.
Motiv
Das Motiv ist das Hauptobjekt oder den zentralen Inhalt einer Aufnahme, auf den der Fokus des Bildes gerichtet ist. Die Oberfläche vom Motiv reflektiert, absorbiert oder lässt einen Teil des Lichts durch. Diese Prozesse transportieren Informationen wie Farbe, Form und Textur des Motivs in Richtung der Kamera.
Objektiv
Das Objektiv sammelt das Licht, das vom Motiv reflektiert oder durchgelassen wird, und fokussiert es auf den Bildsensor. Die Art des Objektivs (Weitwinkel, Normal, Tele) hängt von der Brennweite ab und beeinflusst den Bildausschnitt.
Blende
Die Blende im Objektiv regelt die Menge des Lichts, das auf den Sensor trifft.
Verschluss
Der Verschluss befindet sich im Inneren der Kamera und steuert, wie lange das Licht auf den Sensor fällt. Der Verschluss ist entweder mechanisch oder elektronisch ausgeführt und bestimmt die Belichtungszeit.
Belichtungszeit
Die Belichtungszeit ist jenes Zeitintervall, zwischen 30 Sek und 1/64.000 Sek, während dem die Photonen auf die Fotodiode im Sensor einwirken.
Lichtwert
Die korrekte Belichtung setzt sich aus einer Kombination von Blende und Belichtungszeit zusammen, wobei man von einem konstanten ISO = 100 ausgeht.
Bildsensor bzw. Kamerasensor
Der Bild- bzw. Kamerasensor besteht aus lichtempfindlichen Halbleitern. Die Fotodiode wandelt die eintreffenden Photonen je Pixel in einen elektrischen Gleichstrom um, welcher wiederum einen Kondensator auflädt. Die am Kondensator anliegende Gleichspannung wird von einem Analog-Digital-Wandler (AD-Wandler) in digitale Helligkeitswerte für jedes Pixel konvertiert.
Bilddatei: JPEG- oder RAW
Die Helligkeitswerte jedes Pixels werden, zusammen mit den Positionsdaten des jeweiligen Pixels unter dem Bayer-Filter, in eine Bilddatei gespeichert. Entweder erzeugt ein Rohdatenkonverter in der Kamera bereits ein JPEG-Format und / oder die Sensordaten werden direkt als Rohdaten (RAW) abgespeichert, damit diese später mit einem Bildbearbeitungsprogramm optimiert werden können.
Videodatei: H.264/H.265-Codec und MP4/RAW-Container
Bei Videoaufnahmen werden die Daten abhängig von der Leistung des Analog-Digital-Wandlers und der Schreibgeschwindigkeit des Speichermediums in ein passendes Format (z. B. H.264 oder H.265) und in Containerformate wie MP4 oder RAW gespeichert.
Bildverarbeitung
Während JPEG-Daten meist zur direkten Anzeige gedacht sind, erfordern Rohdaten zwingend eine Bildverarbeitung. Dabei kann der Bildbearbeiter umfangreich gestalterisch tätig werden. Der zusätzliche Zeitaufwand schlägt sich in einer wesentlich besseren Qualität des fertigen Bildes nieder.
Folgende Reihenfolge der Bearbeitunsschritte hat sich bewährt:
- 1. Schritt: Bildimport mit Hilfe von Profilen
- 2. Schritt: Objektivkorrekturen
- 3. Schritt: Horizont, Seitenverhältnis und Bildausschnitt festlegen
- 4. Schritt: Helligkeit (Luminanz) mit Histogramm oder Gradationskurve festlegen
- 5. Schritt: Farbton (Hue) festlegen oder Weißabgleich durchführen
- 6. Schritt: Kontrast anpassen
- 7. Schritt: Sättigung (Saturation) anpassen
- 8. Schritt: Selektive Farbkorrektur gemäß dem HSL Farbmodell
- 9. Schritt: Schärfen und Rauschunterdrückung
- 10. Schritt: Retusche
Bildanzeige
Das fertige Bild kann auf einem Display oder in gedruckter Form betrachtet werden. Bei der Anzeige auf einem Bildschirm strahlt das Display selbst Photonen ab, die in das Auge des Betrachters gelangen. Wird das Bild auf Papier betrachtet, so haben die Photonen, die auf die Rezeptoren im Auge fallen, ihren Ursprung in einer Lichtquelle, die das Foto beleuchtet.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.

Elektrische Energienetze
Wir sprechen von elektrischen Energienetzen, wenn wir uns gegen elektrische Netze aus der Niederspannung abgrenzen wollen.
Elektrische Energienetze übertragen Leistungen jenseits von 100 kVA, bei Spannungen über 1.000 V. Typischer Weise beginnt das elektrische Energienetz bei einem Synchrongenerator und endet beim Ortsnetztrafo, wo die Mittelspannung auf 0,4 kV heruntertransformiert wird. Vom Ortsnetztrafo aus erfolgt der Anschluss der Haushalte und der Gewerbebetriebe, bei denen vorwiegend 230 V Leiter-Sternspannung zur Versorgung der Elektrogeräte zum Einsatz kommen. Manche Haushaltsgeräte richten den Wechselstrom zu Gleichstrom um, etwa um LED-Leuchten anzuspeisen.
Das Stromnetz auch Elektrizitätsnetz genannt, ist ein System aus miteinander verbundenen elektrischen Leitungen (Freileitungen, Kabelleitungen) , Transformatoren und Schaltanlagen samt zugehörigen Zähl-, Mess- und Schutzeinrichtungen, welches elektrische Energie von den Erzeugern (Generatoren) zu Verbrauchern (Motoren) transportiert. Ziel ist die Sicherstellung der Versorgung mit elektrischer Energie auf Basis einer wirtschaftlichen, umweltschonenden und zuverlässigen Betriebsführung. Dies erfolgt mit Hilfe von hierarchisch aufgebauten Leittechniksystemen, die Fachleute im Lastverteiler bei deren Arbeit unterstützen.
Das Stromnetz wird als 3-phasen Drehstromsystem (Bahnsysteme mit Einphasenwechselstrom) betrieben, da Gleichstrom bei energietechnischen Anwendungen wesentliche Nachteile bietet, wie keine direkte Transformierbarkeit der Spannungen und keine Nulldurchgänge zum Schalten, so wie bei Wechselgrößen.
Als Frequenzen kommen in Europa generell 50 Hz in USA 60 Hz und für Bahnstromversorgungen zusätzlich auch 16,7 Hz (bei 15 kV) zum Einsatz (um in der Zeit vor der Erfindung der Leistungselektronik Funkenbildung am Stromwender der Motoren in den Lokomotiven zu reduzieren).
Elektrische Energienetze lassen sich in folgende Gruppen einteilen:
Elektrische Netze nach der Netzebene
- Netzebene 1: Höchstspannung: 220 / 380 kV; UCTE-Verbundnetz; Überregionales Übertragungsnetz
-
Vom kasachischen Energieversorger KEGOC wird eine Leitung betrieben, die für 1.150 kV und eine Leistung von 5.500 MVA bei einer Leitungslänge von 2.500 km ausgelegt ist. Der Autor dieser Zeilen hat an der Automatisierung dieser Leitung im Rahmen seine Tätigkeit für die Siemens AG Österreich mitgewirkt.
-
In China wird eine Hochspannungs-Gleichstromleitung (HGÜ) betrieben, die für +/- 1.100 kV und eine Leistung von 12.000 MVA bei einer Leitungslänge von 3.300 km ausgelegt ist.
-
- Netzebene 3: Hochspannung: 60 .. 110 kV; Regionales Übertragungsnetz
- Netzebene 5: Mittelspannung: 6 .. 30 kV; Regionales Verteilnetz und Industrieanlagen
- Netzebene 7: Niederspannung: 230 / 400 V; Netz für Gewerbe und Haushalte
Elektrische Netze nach dem Geschäftsauftrag des Netzbetreiber
- GenCo: befassen sich mit der Stromerzeugung aus unterschiedlichen Quellen in Großkraftwerken. Dazu zählen in
- Deutschland: E.ON, RWE, EnBW
- Österreich: Verbund, EVN, WIEN ENERGIE, TIWAG, KELAG,...
- Schweiz: Axpo, Alpiq
- TransCo bzw. TSO (Transmission System Operator): Übertragungsnetzbetreiber befassen sich mit dem überregionalen und der länderübergreifenden Energieverteilung, sowie mit der Übergabe-Leistungsfrequenzregelung.
- Deutschland: TenneT TSO, 50Herz Transmission, Amprion und die TransnetBW. Diese 4 Akteure betreiben die 4 deutschen Regelzonen
- Österreich: Austrian Power Grid (APG)
- Schweiz: Swissgrid
- DistCo bzw. DSO (Distribution System Operator): Verteilnetzbetreiber befassen sich mit der regionalen Energieverteilung indem sie das Verteilnetz betreiben
- Deutschland: Westnetz, Bayernwerkt, Netze BW, Avacon,..
- Österreich: Netz Niederösterreich, Wiener Netze, Netz Oberösterreich
- Schweiz: ewz, IWB, Romande Energie, StWZ, BKW Strom
- Ein großstädtisches Verteilnetz-EVU umfasst größenordnungsmäßig
- 50 Umspannwerke (Hoch- auf Mittelspannung)
- 10.000 Ortsnetzstationen (Mittelspannung auf Niederspannung)
- 250.000 Netzanschlüsse
- 1.500.000 Stromzähler
- 10.000 km Mittelspannungskabel
- 10.000 GWH/Jahr Energie
- 2.000 MW Netz-Höchstlast
Elektrische Netze nach ihrer physikalischen Aufgabe
Man unterscheidet bei elektrischen Energienetzen zwischen Erzeugung, Transport und Verteilung.
- Erzeugung
Da die Klemmenspannung von Generatoren im Bereich von 10 kV ... 20 kV liegt, wird im zum Kraftwerk gehörenden Umspannwerk die Spannung auf Hochspannung für das Transportnetz transformiert. Die Umwandlung von mechanischer in elektrische Energie kann zentral (Kraftwerk) oder dezentral (Windkraftanlagen, PV-Anlagen) erfolgen. - Verteilung
Am Ort der Verbraucher wird die Spannung hingegen im Zuge des Verteilnetzes in Umspannwerken (Hochspannung auf Mittelspannung) sowie in der Ortsnetzstation (Mittelspannung auf 0,4 kV) wieder heruntertransformiert. - Transport
Dazwischen erfolgt der verlustarme Transport über Freileitungen und Kabel mit hoher Spannung (und entsprechend niedrigem Strom). Man spricht von einem Netz, weil die Stellen, in denen elektrische Energie ins Netz eingespeist wird, mit den Entnahmestellen über verschiedene Netztopologien (Strahlen-, Ring-, und Maschennetz) verbunden sind und zwar über- Entfernungen von wenigen Metern, mittels Stromschienen,
- bei längeren Entfernungen, mittels Freileitungen und Kabelleitungen
- über Schaltanlagen, diese verfügen im Gegensatz zu Umspannwerken über keine Trafos
Elektrische Netze vor bzw. nach der Energiewende
- Traditionelles elektrisches Energienetz vor der Energiewende
Traditionelle elektrische Energienetze sind charakterisiert durch- eine zentralisierte Energieerzeugung mittels einer überschaubare Anzahl an Kraftwerken mit einer Einspeisung größer bzw. deutlich größer als 20 MW.
- der Energiefluss ist unidirektional vom Kraftwerk zum Verbraucher und die Erzeugung folgt der Last. Dh auf Grund von Lastprognosen werden Kraftwerksfahrpläne erstellt, welche die Erzeugung mittelfristig vorgeben. Abweichungen vom Fahrplan werden ausgeregelt.
- die möglichen Netzzustände sind bekannt und basieren auf Erfahrungen.
- nationale Übertragungsnetze werden zur Steigerung der Netzstabilität und zum Energiehandel zu einem großen Verbundnetz – in Zentraleuropa dem UCTE Netz zusammengeschlossen.
- Die 3 großen europäischen Verbundnetze UCTE, NORDEL und das russische IPS/UPS können nur mittels Hochspannungsgleichstromübertragungen HGÜ zusammengeschlossen werden, da sie zwar alle 50 Hz als Frequenz verwenden, aber unterschiedliche Algorithmen zur Ausregelung von unvermeidlichen Frequenzschwankungen haben.
- Da alle 3 Verbundnetze auf einer Frequenz von 50 Hz basieren, ist es alternativ auch möglich, Inseln mit einem Erzeugungsüberschuss oder mit einem Verbraucherüberschuss dem anderen Verbundnetz temporär exklusiv zuzuschalten und so ohne Kopplung der Verbundnetze Energiehandel zu betreiben.
- Die Energiewende
Im Rahmen der sogenannten Energiewende, also dem Umstieg von nicht nachhaltig genutzten fossilen Energieträgern und von Kernenergie, auf nachhaltige Energieversorgung mittels erneuerbarer Energien und einer Steigerung der Energieeffizienz, erfolgt eine Transformation des Elektrizitätsversorgungssystems. Ob Kernenergie ein "nachhaltiger" Energieträger ist, also umweltverträglich, klimafreundlich, ressourcenschonend, langfristig verfügbar und gesellschaftlich akzeptiert ist, wird innerhalb der EU unterschiedlich bewertet. Das ist eine Frage, wie man die ungelöste Endlagerung von radioaktiven Abfall und das potentiell katastrophale Unfallrisiko einschätzt.- Von besonderer Bedeutung ist dabei die Integration erneuerbarer ("renewable") und räumlich weit verteilter Energie ("distributed energy resources", "DER").
- Die Steigerung erneuerbarer Energien (Wasserkraft, Windkraft, Photovoltaik, Biomasse, Geothermie) erfolgt neben bzw. auf Grund des hohen Ausbaugrades der Wasserkraft vorwiegend über
- Wasserkraft- und Windenergieanlagen, die zu 50% auf der Hochspannung - bzw. zu 50% Mittelspannung einspeisen und über
- Photovoltaik, die vorwiegend, ca. 80% auf der Niederspannung und nur in geringem Umfang von ca. 20% auf der Mittelspannung einspeisen.
- Die Steigerung erneuerbarer Energien (Wasserkraft, Windkraft, Photovoltaik, Biomasse, Geothermie) erfolgt neben bzw. auf Grund des hohen Ausbaugrades der Wasserkraft vorwiegend über
- Damit einher gehen u.a. folgende neue technische Herausforderungen gegenüber dem traditionellen Energienetz:
- Sprunghafte Änderungen in der Erzeugung durch Erneuerbare:
- +830 MW bzw. 1,1 GW/h innerhalb von 45 Min bei Winderzeugung in Österreich (24.06.2013). Wenn die Erzeugung ungleich dem Bedarf ist, kann dies zu Problemen in der Frequenzhaltung führen, wenn es zu geringe Regelreserven bei den TSOs gibt.
- Speicherung von elektrischer Energie
- dafür sind zwingend erforderlich: Batteriespeicher, Power-to-Gas,..
- Spannungsanhebung im Niederspannungsnetz zufolge zunehmender Einspeisung durch Photovoltaikanlagen
- Ohne dezentrale Einspeisung sinkt die Spannung im Verlauf der Leitung vom Trafo zum Verbraucher zunehmend ab und kann im Extremfall den Grenzwert vom unteren Spannungsband verletzen. Durch regelbare Transformatoren in den Umspannwerken und durch Längsregler wird diesem Spannungsabfall durch Spannungserhöhung am Anfang der Leitung entgegengewirkt.
- Mit zunehmender dezentraler Einspeisung, in der Praxis vorwiegend durch Photovoltaikanlagen, kommt es speziell in verbrauchsarmen Zeiten, zu einer im Verlauf der Leitung vom Trafo zum Verbraucher hin ansteigenden Spannung, die im Extremfall den Grenzwert vom oberen Spannungsband verletzt.
- Gegenmaßnahmen sind der Netzausbau, der teuer ist, die Spannungsregelung über Regeltransformator, Längsregler oder Batteriepufferung und eine situative Einspeise-Leistungsbegrenzung
- Sprunghafte Änderungen in der Erzeugung durch Erneuerbare:
- Von besonderer Bedeutung ist dabei die Integration erneuerbarer ("renewable") und räumlich weit verteilter Energie ("distributed energy resources", "DER").
- Modernes elektrisches Energienetz
Moderne elektrische Energienetze sind charakterisiert durch- Neben der zentralen Energieerzeugung in Kraftwerken erfolgt zunehmend mehr dezentrale Erzeugung und lokale Speicherung
- Integration von Micro Grids in das Verteilnetz
- Hochstrombezieher (Schnellladesäulen) zufolge Elektro-Mobilität
- Bidirektionaler Energiefluss, Verbraucher können Erzeuger werden, Rückspeisung bis in die Höchstspannung (380 kV Netz)
- Last folgt der Erzeugung: Demand Side Management hat als Ziel, die Last / Verbraucher an die erneuerbare Erzeugung zu koppeln; Kurzfristige wetterbedingte Erzeugungsschwankungen stellen eine Herausforderung dar.
- Netzzustände viel dynamischer, daher macht eine Netzautomatisierung der Mittel- und Niederspannung in Ortsnetzstationen zunehmend mehr Sinn
- Energiehandel mittels „Intraday Fahrplänen“ (Vorlaufzeit 45 Min) und „day ahead Fahrplänen“ (am Vortag angemeldete Handelsgeschäfte). Der steigende Anteil von intraday Fahrplänen erfordert Neuberechnung der Netzsicherheit nicht mehr wie traditionell 1 x pro Tag, sondern laufend.
- Teilnahme einer großen Anzahl an Marktteilnehmern an den Auktionen zur
- Bereitstellung von Primärregelleistung (PRL) (innerhalb von 30 Sekunden für mindestens 15 Minuten verfügbar.
- Bereitstellung von (mindestens 5MW) Sekundärregelleistung (SRL) (innerhalb von 5 Minuten) für mindestens 1 Stunde verfügbar.
Atom- und Kernphysik
- Schon 400 Jahre v. Chr. haben sich griechische Philosphen wie Demokrit den Aufbau der Materie aus unteilbaren Grundbausteinen vorgestellt.
- Erst Anfang des 19. Jahrhunderts setzte sich die Erkenntnis durch, dass Atome aus einem Atomkern bestehen, der sich seinerseits aus Protonen und Neutronen aufbaut und aus einer Atomhülle, die ihrerseits lediglich aus Elektronen besteht.
- In den 1960-er Jahren erkannte man, dass die Protonen und die Neutronen ihrerseits aus Quarks bestehen, während die Elektronen schon elementar sind.
- Zum Anfang des 3. Jahrtausends war bekannt, dass sich die bekannte Materie (das schließt also die Dunkle Materie nicht mit ein) aus 12 massebildendend Fermionen (6 Leptonen und 6 Quarks) sowie aus 7 Austauschteilchen, den Bosonen besteht. Diese subatomaren Teilchen sind im "Standardmodell der Elementarteilchen" zusammengefasst. Die durch die Austauschteilchen vermittelten Kräfte werden durch 4 fundamentale Wechselwirkungen und den Higgs Mechanismus beschrieben.
Drehstrom
Drehstrom ist eine gängige Kurzbezeichnung für dreiphasigen Wechselstrom, der in 3 um je 120° versetzten Spulen in einem homogenen Magnetfeld erzeugt wird.
Die Summe der 3 so induzierten sinusförmigen Strang-Spannungen u1(t), u2(t) und u3(t) ist zu jedem Zeitpunkt Null. Mit „Strang“ bezeichnet man immer die Größe, die direkt an der Generatorspule anliegt, unabhängig davon ob die Generatorspulen im Stern oder im Dreieck zusammengeschaltet werden. Man kann die 3 Induktionsspulen zu einem Stern oder einem Dreieck zusammenschalten, ohne dass ein Kurzschluss entsteht. Wird für das Drehstromsystem eine Nennspannung angegeben, im Haushalt z.B. 400V, so handelt es sich dabei um den Effektivwert der Außenleiterspannung. Die Spannung zwischen einem Außenleiter und dem Neutralleiter ist hingegen um die Quadratwurzel aus 3 kleiner (im Haushalt also 230V).
Spannungen in einem Drehstromsystem als sich zeitlich ändernde Wechselgrößen
\(\eqalign{ & {u_{1N}}\left( t \right) = \mathop U\limits^ \wedge \cdot \cos \omega t \cr & {u_{2N}}\left( t \right) = \mathop U\limits^ \wedge \cdot \cos \left( {\omega t - \frac{{2\pi }}{3}} \right) \cr & {u_{3N}}\left( t \right) = \mathop U\limits^ \wedge \cdot \cos \left( {\omega t - \frac{{4\pi }}{3}} \right) \cr} \)
Spannungen in einem Drehstromsystem in komplexer Zeigerdarstellung unter Verwendung vom komplexen Drehoperator "a".
\(\eqalign{ & \underline {{u_{1N}}} \left( t \right) = U \cdot {e^{j{\varphi _U}}} = \overrightarrow {{U_{1N}}} \cr & \underline {{u_{2N}}} \left( t \right) = {a^2} \cdot U \cdot {e^{j{\varphi _U}}} = {a^2} \cdot \overrightarrow {{U_{1N}}} \cr & \underline {{u_{3N}}} \left( t \right) = a \cdot U \cdot {e^{j{\varphi _U}}} = a \cdot \overrightarrow {{U_{1N}}} \cr} \)
Das dreiphasige Wechselstromsystem ist symmetrisch, wenn die 3 Amplituden \(\mathop U\limits^ \wedge {\,_a} = \mathop U\limits^ \wedge {\,_b} = \mathop U\limits^ \wedge {\,_c}\) gleich sind und wenn die Phasenverschiebung jeweils \(120^\circ = \dfrac{{2\pi }}{3}\) beträgt.
Komplexer Drehoperator “a”
In der Wechselstromtechnik werden die elektrischen Größen durch Zeiger dargestellt. Solch ein Zeiger ist ein Vektor, der mit einer frequenzabhängigen Winkelgeschwindigkeit um den Koordinatenursprung rotiert und bei denen Strom- und Spannungsgrößen einen konstanten Phasenverschiebungswinkel zu einander haben.
In der Drehstromtechnik werden elektrische Größen durch Raumzeiger dargestellt. Ist die Last im Dreieck geschaltet, oder ist der Sternpunkt der Last nicht mit dem Neutralleiter verbunden, dann ist die Summe der Phasengrößen immer Null. Auf Grund dieser "Nullbedingung" muß man bei Drehstromsystemen nicht mit drei autonomen Phasengrößen rechnen, sondern kann sich auf zwei Phasengrößen beschränken, da die dritte Größe immer die Ergänzung auf Null sein muss.
Dafür hat sich mit dem komplexen Drehstromoperator a folgende vereinfachte Schreibweise etabliert:
\(a = {e^{j120^\circ }} = {e^{j\dfrac{{2\pi }}{3}}} = \cos \left( {\dfrac{{2\pi }}{3}} \right) + j\sin \left( {\dfrac{{2\pi }}{3}} \right) = - \dfrac{1}{2} + j\dfrac{{\sqrt 3 }}{2}\)
\({a^2} = {\left( {{e^{j120^\circ }}} \right)^2} = {e^{j\dfrac{{4\pi }}{3}}} = \cos \left( {\dfrac{{4\pi }}{3}} \right) + j\sin \left( {\dfrac{{4\pi }}{3}} \right) = - \dfrac{1}{2} - j\dfrac{{\sqrt 3 }}{2}\)
Für den komplexen Drehstromoperator gelten folgende Rechenregeln:
\(\eqalign{ & {a^2} = {a^{ - 1}};\,\,\,\,\,{a^3} = 1;\,\,\,\,\,{a^4} = a; \cr & 1 + a + {a^2} = 0; \cr & a - {a^2} = j \cdot \sqrt 3 ; \cr & 1 - {a^2} = \sqrt 3 \cdot {e^{\dfrac{{j\pi }}{3}}}; \cr}\)
Symmetrische Drehstromsysteme
Auf Grund der überragenden praktischen Bedeutung werden Dreiphasenwechselstromsysteme und Drehstromsystem im Folgenden synonym verwendet. Ein Dreiphasenwechselstromsystem ist symmetrisch, wenn die 3 Außenleiterspannungen und die 3 Außenleiterströme gleich groß und um jeweils 120° phasenverschoben sind. Elektrische Energie wird vorwiegend mit Synchrongeneratoren "erzeugt", sodass die Spannungen am Ort der Erzeugung symmetrisch sind. Die Impedanzen der Leitungen, vor allem aber die Unsymmetrien der Lasten führen zu unsymmetrischen Drehstromsystemen.
\(\eqalign{ & \overrightarrow {{Z_1}} = \overrightarrow {{Z_2}} = \overrightarrow {{Z_3}} \cr & \overrightarrow {{I_1}} + \overrightarrow {{I_2}} + \overrightarrow {{I_3}} = 0 \cr & \left| {\overrightarrow {{I_1}} } \right| = \left| {\overrightarrow {{I_2}} } \right| = \left| {\overrightarrow {{I_3}} } \right| \cr & \overrightarrow {{U_{12}}} + \overrightarrow {{U_{23}}} + \overrightarrow {{U_{31}}} = 0 \cr & \overrightarrow {{U_{1N}}} + \overrightarrow {{U_{2N}}} + \overrightarrow {{U_{3N}}} = 0 \cr & \left| {\overrightarrow {{U_{12}}} } \right| = \left| {\overrightarrow {{U_{23}}} } \right| = \left| {\overrightarrow {{U_{31}}} } \right| = \sqrt 3 \cdot \overrightarrow {{U_{1N}}} = \sqrt {3 \cdot } \overrightarrow {{U_{2N}}} = \sqrt 3 \cdot \overrightarrow {{U_{3N}}} \cr}\)
Zur Berechnung symmetrischer Drehstromnetze genügen einphasige Ersatzschaltbilder. Statt der früher üblichen und veralteten Leiterbezeichnung R, S und T wird heute L1, L2 und L3 oder auch La, Lb und Lc verwendet.
Elektrisches Potential und Spannung
Bei Anwesenheit von elektrischer Ladung bildet sich ein räumliches elektromagnetisches Feld aus. Ein Feld ist eine Energieform, die den Raum erfüllt. Felder können sich mit endlicher Geschwindigkeit ausbreiten, wobei ihre Dynamik durch Feldgleichungen beschrieben wird. Das elektromagnetische Feld ist ein Vektorfeld. Es gibt in jedem Punkt die coulombsche Kraft nach Größe in Volt pro Meter und Richtung an, die auf eine positive oder negative Ladung ausgeübt wird.
Elektrisches Potential Phi
Das elektrische Potential \(\varphi \) repräsentiert die Fähigkeit eines elektromagnetischen Feldes Arbeit an einer elektrischen Ladung zu verrichten. Wird eine elektrische Ladung auf Grund der coulombschen Kraft durch ein elektromagnetisches Feld bewegt, so wird Arbeit an der Ladung verrichtet wodurch sich ihre potentielle Energie verändert.
\(\varphi = \dfrac{{{W_{pot}}}}{q}\)
\(\varphi \) | elektrisches Potential mit der Einheit Volt |
Wpot | potentielle Energie mit der Einheit Joule |
q | Ladung mit der Einheit Coulomb |
Volt V als Einheit vom elektrischen Potential
Volt V ist die Einheit vom elektrischen Potential \(\varphi \) .
\(1 \cdot V = 1 \cdot \dfrac{J}{C}\)
Elektrisches Potential von einem Bezugspunkt
Irgendwo im Raum wird ein Bezugspunkt mit frei wählbarem Potential \({\varphi _0} = 0V\) festgelegt. Von diesem Bezugspunkt aus kann jedem Punkt im Raum ein bestimmtes Potential \({\varphi _P}\) zugewiesen werden. Das elektrische Potential stellt ein Skalarfeld dar, dessen Einheit das Volt ist. Voraussetzung für das elektrische Potential ist die Wegunabhängigkeit der elektrischen Spannung.
Spannung als Potentialdifferenz
Die Spannung zwischen zwei Punkten P und Q ist nichts anderes, als die Differenz der Potentialwerte der beiden Punkte.
\({U_{PQ}} = {\varphi _P} - {\varphi _Q}\)
Spannung im Bereich konstanten Potentials
Liegt zwischen 2 Punkten P und Q keine elektrische Spannung an, dann handelt es sich um Bereiche konstanten Potentials (Äquipotentialfläche)
\({U_{PQ}} = {\varphi _P} - {\varphi _Q} = 0\)
Spannung gegenüber einem Nullpunkt
In der Elektrotechnik sind die Erde, der Neutralleiter und der Sternpunkt eines entsprechenden Trafos übliche Null- bzw. Bezugspunkte zur Spannungsmessung. Diese Wahl ist auch für die Dimensionierung der Isolation sehr wichtig.
Die Spannung gibt dann den Potentialunterschied zwischen dem Bezugspunkt P und dem Nullpunkt an:
\(\eqalign{ & {U_{0P}} = {\varphi _P} - {\varphi _0} \cr & {\text{sinnvolle Wahl: }}{\varphi _0} = 0 \cr} \)
\({U_{0P}} = {\varphi _P}\)
Illustration von Potentialdifferenzen in einem elektrischen Gleichstromkreis
Volt V als Einheit der elektrischen Spannung
Volt V ist die Einheit der elektrischen Spannung U. 1 Volt ist jene Spannung zwischen zwei Klemmen eines Stromkreises, bei der eine Leistung von 1 Watt bei einer Stromstärke von 1 A umgesetzt wird.
Elektrische Spannung U
Die elektrische Spannung ist der Quotient aus der zur Verschiebung einer Ladung Q erforderlichen elektrischen Arbeit W entlang des Weges von P nach Q und der verschobenen Ladung Q
\({U_{PQ}} = \dfrac{{{W_{PQ}}}}{Q}\)
Elektrische Spannung als Linienintegral der elektrischen Feldstärke
Die Spannung U zwischen den Punkten P und Q ist als das Linienintegral der elektrischen Feldestärke \(\overrightarrow E\) entlang einem beliebigen Weg zwischen P und Q definiert.
\(U = \int\limits_P^Q {\overrightarrow E } \,\,d\overrightarrow s \)
→ Auf die Eigenschaften von Spannung im Gleichstromkreis U bzw. Wechselstromkreis u(t) gehen wir in den diesbezüglichen Kapiteln ausführlich ein
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.

Gegenüberstellung Wechselstrom und Gleichstrom
Haben in einem Leiter Strom und Spannung einen sinusförmigen Verlauf mit der gleichen Periodenlänge, dann spricht man von Wechselstrom. Im Gegensatz zum Gleichstrom sind beim Wechselstrom die elektrischen Größen zeitabhängig, was man durch die Verwendung von Kleinbuchstaben i(t), u(t) hervorhebt.
Vorteil von Wechselstrom gegenüber Gleichstrom
- Reduzierung der Leitungsverluste: Man kann bei gegebener Leistung \(S = U \cdot I\) das Verhältnis von Strom und Spannung mit Hilfe eines Transformators indirektproportional ändern. Da die ohmschen Leitungsverluste mit dem Quadrat der Stromstärke steigen, transformiert man am Leitungsanfang die Spannung rauf. Da der Strom im selben Verhältnis sinkt, reduzieren sich so die Verluste entlang der Leitung. Am Ende der Leitung transformiert man die Spannung wieder runter. Dies ermöglicht Drehstromleitungen mit 1.150 kV, 5,5 GVA und Leitungslängen von 700 km (Kasachstan; Erkbastus - Kökschetau).
- Stromunterbrechbarkeit: Auf Grund der 2 Nulldurchgänge des Wechselstroms pro Periode (also 100 Mal pro Sekunde bei f=50Hz) kann Wechselstrom leichter ausgeschaltet werden, als Gleichstrom
- Lange Lebensdauer der Primärtechnik: Keine Leistungselektronik, also kein Gleich- und Wechselrichter wie bei HGÜ erforderlich
Vorteile von Gleichstrom gegenüber Wechselstrom
- Keine Blindleistungskompensation: Sehr lange Wechselstrom-Freileitungen (> 700 km) und lange Wechselstrom-Kabel (>10km) verschieben auf Grund von Leitungskapazitäten und der Ummagnetisierung des Feldes zufolge der Frequenz des Wechselstroms die eingespeiste Wirkleistung in unerwünschte Blindleistung, was den Einsatz von Blindleistungskompensatoren erforderlich macht. Dieses Problem gibt es bei Gleichstrom nicht. Hochspannungs-Gleichstromübertragungen ermöglichen +/- 800 kV, 8 GW über 2.000 km zu übertragen (China; Hami - Zhengzhou).
- Ermöglicht lange (Untersee-)Kabelleitungen und funktioniert mit 2 statt 3 Leitern
- Kopplung von Wechselstromnetzen: HGÜ von wenigen Metern Leitungslänge ermöglichen die Kopplung von Wechselstromnetzen bei unterschiedlicher Netzfrequenz oder unterschiedlicher Leistungs-Frequenzregelungskonzepten
Bei Wechselspannung handelt es sich in der Praxis um die Strangspannung, d.h. um die Spannung zwischen einem Außenleiter und dem Sternpunkt in einem Dreiphasenwechselstromsystem, kurz Drehstromsystem genannt.
Strom und Spannung (als zeitunabhängige, konstante Größen im eingeschwungenen) Gleichstromkreis
\(\begin{array}{} I\\ U \end{array}\)
Strom und Spannung als sich zeitlich ändernde Wechselgrößen
\(\eqalign{ & i\left( t \right) = \widehat i \cdot \sin \left( {\omega t + {\varphi _i}} \right) \cr & u\left( t \right) = \widehat u \cdot \sin \left( {\omega t + {\varphi _u}} \right) \cr} \)
Strom und Spannung in komplexer Zeigerdarstellung
\(\eqalign{ & \underline i \left( t \right) = \widehat i \cdot \left[ {\cos \left( {\omega t + {\varphi _i}} \right) + j \cdot \sin \left( {\omega t + {\varphi _i}} \right)} \right] = \widehat i \cdot {e^{j\left( {\omega t + {\varphi _i}} \right)}} \cr & \underline u \left( t \right) = \widehat u \cdot \left[ {\cos \left( {\omega t + {\varphi _u}} \right) + j \cdot \sin \left( {\omega t + {\varphi _u}} \right)} \right] = \widehat u \cdot {e^{j\left( {\omega t + {\varphi _u}} \right)}} \cr}\)
Strahlen- und Wellentheorie des Lichtes
Das Spektrum der elektromagnetischen Wellen hat Erscheinungsformen die von Wechselströmen über Rundfunk, Mikrowelle, Infrarot, sichtbares Licht, UV-Licht, Röntgenstrahlung, Gammastrahlung beim Kernzerfall bis zur kosmologischen Strahlung reichen.
Licht als Korpuskelstrahl
Dieser veraltete Ansatz aus der Zeit von Newton modelliert das Licht als eine Aufeinanderfolge von materiellen Teilchen. In der heutigen Quantenelektrodynamik gibt es mit dem Photon zwar ein Lichtteilchen, doch ist dieses masselos, weil es nicht mit dem Higgs-Feld wechselwirkt.
Licht im Welle-Teilchen-Dualismus
Der Welle-Teilchen-Dualismus von Licht findet seine Erklärung in der Quantenmechanik, derzufolge Objekte der Quantenphysik sowohl Eigenschaften als Welle und als Teilchen haben. Die masselosen Photonen, die sich mit Lichtgeschwindigkeit ausbreiten, sind die Quanten der elektromagnetischen Wechselwirkung.
Licht als Teilchenstrahl
Wenn man sich mit dem Weg auseinander setzt, den das Licht zurücklegt, dann modelliert man das Licht als einen Teilchenstrahl. Die Teilchen sind die masselose Photonen.
Am besten denkt man an einen punktförmigen Laserstrahl. Der Weg den der Strahl nimmt ist umkehrbar. Hinter einem undurchsichtigen Gegenstand entsteht bei punktförmiger Lichtquelle ein scharfer Schatten. Man kann damit die geradlinige Ausbreitung von Licht veranschaulichen, die Schattenbildung, die Reflexion und die Brechung. Lichtstrahlen können sich durchsetzen, ohne sich gegenseitig zu beeinflussen, weil die Teilchen aus denen Licht besteht, die Photonen, masselos sind. Außerhalb des konkreten Strahls gibt es kein Licht von dieser Quelle.
Licht als teilchenlose Welle
Wenn man sich mit Erscheinungen wir Beugung, Interferenz oder Polarisation auseinander setzt, dann modelliert man das Licht als Welle.
Am besten denkt man an die Wellen in einem Becken, in das man einen kleinen Stein geworfen hat. Das Licht ist dabei eine Transversalwelle, die sich mit anderen Wellen überlagern kann. Elementarwellen überlagern sich dabei und ergeben je nach Phasenlage eine Verstärkung oder Auslöschung.
Tatsächlich ist Licht eine elektromagnetische Welle, die in der Lehre von der Elektrodynamik ihre Beschreibung in Form der 4 Maxwell Gleichungen findet. Licht als elektromagnetische Welle besteht aus räumlich und zeitlich periodischen, ungedämpften, gekoppelten elektrischen und magnetischen Feldern, die in den Raum abgestrahlt werden. Das Licht als elektromagnetische Welle wird durch die 4 Maxwell Gleichungen beschrieben. Elektromagnetische Wellen haben in der Quantenelektrodynamik auch Teilchencharakter, ihr Quant ist das Photon.
Man spricht von einer Transversalwelle, weil die Schwingung des elektrischen \(\overrightarrow E\) - und des magnetischen \(\overrightarrow H\) -Feldes senkrecht zur Ausbreitungsrichtung erfolgt. Die elektromagnetische Welle braucht kein Medium („Lichtäther") zur Ausbreitung im Raum, sondern sie pflanzt sich im Vakuum mit Lichtgeschwindigkeit und in Materie mit einer entsprechend kleineren Ausbreitungsgeschwindigkeit fort.
Unterschied Quantenphysik und klassischen Physik
Klassische Physik
Die klassische Mechanik kann weitgehend mit den menschlichen Sinnesorganen überprüft werden und ist mit den Erwartungen aus unserem menschlichen Alltagsleben gut verträglich. So gilt Kausalität und Determinismus, sowie die chronologische Abfolge von Vergangenheit, Gegenwart und einer einzigen Zukunft entlang einer Zeitachse.
Relativitätstheorie und Quantentheorie stehen autark neben einander
Während die allgemeine Relativitätstheorie die Gravitation beschreibt, beschreibt die Quantentheorie die 3 restlichen fundamentalen Wechselwirkungen, also die starke und die schwache Kernkraft sowie die elektromagnetische Wechselwirkung. Die Relativitäts- und die Quantentheorie sind, jede für sich genommen, sehr gut überprüft, aber es gibt leider keine experimentell bestätigte Theorie der Quantengravitation, welche die beiden Theorien vereinheitlichen würde.
Gemäß dem Welle-Teilchen-Dualismus verhalten sich Objekte aus der Quantenwelt in manchen Fällen wie eine Welle, in anderen wie ein Teilchen. Man spricht dann vereinheitlichend von Quantenobjekten. Jedes Teilchen wird mit einer Wellenfunktion beschrieben. Das Quadrat des Betrags der komplexen Wellenfunktion kann als die Aufenthaltswahrscheinlichkeit des Teilchens gedeutet werden. Die zeitliche Veränderung der Aufenthaltswahrscheinlichkeit des durch die Wellenfunktion beschriebenen Teilchens wird in der Schrödingergleichung beschrieben.
In der Quantenphysik existiert ein subatomares Teilchen überall dort „gleichzeitig, ein wenig“, wo die aus seiner Wellenfunktion hergeleitete Wahrscheinlichkeit es anzutreffen größer als Null ist. Erst ausgelöst durch eine Messung des Aufenthaltsortes, also erst durch das Vorliegen von Information, entsteht aus den vielen möglichen Aufenthaltsorten „zufällig“ ein konkreter Aufenthaltsort, wobei auch dann Ort und Impuls des Teilchens nicht gleichzeitig beliebig genau bestimmt werden können. Vor und nach der Messung ist das Teilchen eine Welle, nur während der Messung ist das Teilchen tatsächlich ein Teilchen im Sinn von räumlich vorhandener Materie. Während der Messung spricht man daher vom Kollaps der quantenmechanischen Wellenfunktion.
Theorie der Quantengravitation verheiratet Relativitäts- und Quantentheorie
Vertritt man die Meinung, dass es keinen Grund für den Kollaps der quantenmechanischen Wellenfunktion gibt, kommt man zu Theorien mit parallelen Universen, wie die Stringtheorie und zum Begriff der Quantenverschränkung. Materie und Energie werden dann zu einer Realisierung von Information, deren kleinste Einheit 1 Qubit ist. Ein Qubit ist kein Objekt in Raum und Zeit sondern eine bedeutungslose Information in einem 2-Zustandssystem, die gleichzeitig wahr und falsch ist. (So wie die Katze in Schrödingers Gedankenexperiment gleichzeitig tot als auch lebendig ist). Erst durch deren Beobachtung nimmt die Information eine Bedeutung im Sinne eines der beiden möglichen Zustände an. Beobachtet man eines von zwei mit einander verschränkten Quanten, so nimmt dieses einen der beiden Zustände wahr oder falsch an. Zeitgleich nimmt ein verschränkte Quant, unabhängig von seiner Entfernung (!) einen Zustand ein, der sich aus jener Wahrscheinlichkeitsfunktion ergibt, die beide Teilchen zusammen beschreibt. Man spricht von Quantenverschränkung. Auf dem Prinzip der Quantenverschränkung und auf dem Prinzip der Kohärenz basieren Quantencomputer, die derzeit mit einigen Dutzend Qubits bereits experimentell erprobt werden.
Die Entstehungsgeschichte des Universums
Vor rund 14.109 Jahren nahm das Universum mit dem Big Bang, dem Urknall seinen Anfang.
Theory of Everything
In den ersten 10-43 s (Planckzeit) besteht das Universum aus Strings, alle 4 Wechselwirkungen sind noch in einer fundamentalen Urkraft vereint. Eine Theorie, die diesen Zeitraum beschreibt, eine sogenannte Theory of Everything - ToE - ist eine Quantengravitationstheorie. Die Stringtheorie ist eine solche Theorie.
Grand Unified Theory
Unmittelbar nach der Planckzeit spaltet sich als erstes die Gravitation ab, sodass nach der Grand Unified Theory - GUT - die starke, schwache und elektromagnetische Kraft noch immer in einer einzigen fundamentalen GUT-Kraft vereint sind. Zu diesem Zeitpunkt hatten noch alle Teilchen die Ruhemasse Null, waren nicht unterscheidbar und das Universum war symmetrisch.
Das Higgs-Feld kondensiert, die starke Wechselwirkung spaltet sich von der GUT Kraft ab
10-36 s nach dem Urknall war das Universum 1028 K heiß, was einem Energieäquivalent von 1016 GeV entspricht. (Zum Vergleich, der LHC vom Cern erreicht gerade mal 1,3.104 GeV). Es kam zur Aufspaltung der GUT Kraft in die starke Wechselwirkung und in die elektroschwache Wechselwirkung.
Nun war der Zeitpunkt gekommen, an dem der Higgs Mechanismus einsetzte. Durch die Abkühlung des Universums kondensiert das Higgs Feld, die Symmetrie wird gebrochen, die schwach wechselwirkenden Teilchen erhalten ihre Masse und werden langsamer als die Lichtgeschwindigkeit.
Nun ist es aber so, dass das Vakuum einen höheren Energiewert hat, wenn das Higgsfeld Null ist und das Vakuum den niedrigsten Energiewert (Vakuumerwartungswert) hat, wenn das Higgsfeld einen von Null verschiedenen Wert einnimmt. Stichwort: Sombrerokurve. Ein Zustand an dem das Higgsfeld Null ist stellt also einen instabilen Zustand dar, weil es andere, niederenergetischere Zustände gibt.
Theorie des inflationären strahlungsdominierten Universums
Die Theorie des inflationären Universums geht davon aus, dass das Higgsfeld während des kondensierens am - an sich instabilen - Punkt „hängengeblieben“ ist, an dem das Higgsfeld zwar Null und die Energie nicht das Minimum ist. Nachdem sich das Universum weiterhin ausdehnt, entsteht ein „unterkühltes“ Higgsfeld mit einer für die Temperatur des Universums zu hohen Energie.
Während des Zeitraums von 10-36 s bis 10-34 s nach dem Urknall erfolgt die Symmetriebrechung der elektroschwachen Wechselwirkung, aber die Masse die entsteht ist zunächst auf Grund der Unterkühlung des Higgsfeldes negativ und hat daher keine anziehende sondern eine abstoßend wirkende Gravitationskraft die bewirkt, dass sich das Universum exponentiell um das ca. 1026 -fache ausdehnt (Inflationäres Universum, kosmische Inflation).
10-34 s nach dem Urknall nimmt das Higgs Feld letztlich jenen von Null verschiedenen Wert an, bei dem Vakuumerwartungswert ein Minimum ist und es entstehen die Quarks, die Leptonen und die Bosonen, die die gewöhnliche Materie ausmachen. Man spricht vom Quark-Gluonen Plasma, einem Aggregatzustand bei dem das Confinement, welches Quarks und Gluonen aneinander bindet, auf Grund der hohen Temperatur noch nicht wirkt und es daher freue Quarks gibt.
Das strahlungsdominierte Universum dehnt sich nach der Phase der Inflation gemäß den Friedmann Gleichungen aus. Das Universum besteht aus Photonenstrahlung und aus freien relativistischen (v= fast Lichtgeschwindigkeit) Elementarteilchen.
Elektroschwache Kraft zerfällt in schwache Kernkraft und elektromagnetische Kraft
10-11 s nach dem Urknall, bei einer Temperatur von 1015 K zerfiel auch noch die elektroschwache Kraft in die schwache Kernkraft und in die elektromagnetische Kraft, womit alle 4 heutigen Wechselwirkungen individuell ausgeprägt vorliegen.
Nukleosynthese
10-6 s nach dem Urknall, bei einer Temperatur von 1012 K bilden sich aus dem Quark-Gluonen Plasma zufolge der Abkühlung zunächst gleich viele Protonen und Neutronen, später überwiegen jedoch die Protonen.
1 s nach dem Urknall, bei einer Temperatur von 1010 K kommen etwa 6 Protonen auf ein Neutron und es entsteht zunächst instabiles Deuterium
10 s nach dem Urknall, bei einer Temperatur von 3.109 K liegen etwa 75% Wasserstoff, 25% Helium und Spuren von Deuterium und Lithium vor, wobei auf jedes Kernteilchen 1010 Photonen kommen.
Das materiedominierte Universum
10.000 Jahre nach dem Urknall liegt dann ein materiedominiertes Universum vor, in dem die nicht-relativistische Masse dominiert und es bilden sich erste positiv geladene Nukleonen. Deuteron (das einfachste gebundene Nukleonensystem, also der Atomkern vom Deuterium, dem schweren Wasserstoff) entsteht.
Ungefähr 380.000 Jahre nach dem Urknall ist das Universum auf unter 3.000° K abgekühlt und die Epoche der Rekombination (Vereinigung positiver und negativer Ladungsträger = 1. Phasenübergang) beginnt. Teilchen kollidieren und geben dabei kinetische Energie ab und die Gravitation gewinnt die Oberhand. Es bilden sich elektrisch neutrale Wasserstoffatome und Heliumatome. Zu diesem Zeitpunkt gab es im Universum noch nicht einmal Objekte von der Größe eines Staubkorns. Das Universum ist für Photonen teilweise undurchlässig und dunkel.
Nach 108 Jahren beginnen die verdichteten Nebel zu kollabieren und zu rotieren.
Nach 109 Jahren haben sich erste Zwerggalaxien, zunächst aber noch ohne Sterne gebildet, die erst nach weiterer Abkühlung des Universums an den dichtesten Stellen entstehen.
Nach 150 Millionen bis 1 Milliarde Jahren nach den Urknall kommt es zum 2. Phasenübergang der Epoche der Reionisierung, da sich zuvor bereits massereiche Sterne mit hoher Oberflächentemperatur gebildet haben, deren Ultraviolettstrahlung energiereich genug war um den Wasserstoff wieder zurück in ein ionisiertes Plasma zu verwandeln. Aus dem dunklen Universum wird ein lichtdurchlässiges Universum, denn freie Elektronen können keine Energie von Photonen aufnehmen sonder sie allenfalls (selten) streuen.
Bildung von Akkretionsscheiben führt zum Entstehen von Sonnen
Nach 1010 Jahren bildet sich eine Akkretionsscheibe, in deren Schwerpunkt verdichtet sich ein kugeliger Stern, die Protosonne unserer heutigen Sonne. Diese ist noch millionenfach voluminöser als es die Sonne heute ist.
Die Protosonne schrumpft unter der Schwerkraft und vereint 99% der Masse der Akkretionsscheibe in Form eines Plasmas. Sobald die Temperatur im Plasma über 3 Millionen Grad erreicht, fusioniert statistisch ein bestimmtes Proton 1H im Schnitt nach 14.109 Jahren (zum Glück so selten = Lebensdauer der Sonne!) mit einem zweiten Proton 1H, zu einem Deuteriumkern 2H (1 Proton, 1 Neutron; „schwerer Wasserstoff“), wobei zusätzlich ein Positron, ein Elektronneutrino und Energie frei werden.
1,4.1010 Jahre = heute : Das Universum ist auf 2,7 K abgekühlt. Die Hitze der Kernfusion baut einen von innen nach außen gerichteten Gasdruck auf. Durch die Rotation der Sterne entsteht zudem eine von innen nach außen gerichtete Zentrifugalkraft. Die thermonukleare Fusion setzt eine 3. nach außen gerichtete Strahlung in Form von Photonen frei, die beim Auftreffen auf andere Objekte einen Strahlungsdruck erzeugen. Diese 3 Drücke wirken der nach innen gerichteten Gravitation entgegen, sodass sich ein sogenanntes hydrostatisches Gleichgewicht einstellt, welches verhindert, dass die Sonne unter ihrer eigenen Gravitation kollabiert und stabil ist.
Stabile Sonnen und Planeten entstehen
In der Folge entstehen auch noch die Planeten aus den Überresten der Akkretionsscheibe und Sonnensysteme wie das von unserer Sonne.
Unsere Sonne ist vor ca. 4,5 Milliarden Jahren entstanden und wird noch ca. 6 Milliarden Jahre weiter Wasserstoff zu Helium brennen. In 1 Milliarde Jahren wird die Sonne um 10% heller sein und die Erde so erhitzen, dass alle Kontinente nur mehr von Wüsten bedeckt sein werden. In 3,5 Milliarden Jahren wird die Sonne um 40% heller sein und das Wasser der Meere verdampft haben. In 7,5 Milliarden Jahren wird sich die Sonne zu einem Roten Riesen aufblähen und sich, abhängig davon wie viel und wie schnell die Sonne Masse ins Universum abgibt, sogar bis zur Erdumlaufbahn ausdehnen. In 7,7 Milliarden Jahren wird im Kern der Sonne das Heliumbrennen einsetzen und die Sonne wird sich letztlich in einen Weißen Zwerg bestehend aus Sauerstoff, Helium und Kohlenstoff verwandeln. Einige weitere Milliarden Jahre später wird dieser Weiße Zwerg dann kalt und dunkel sein.
Das Kosmologische Prinzip oder Super-Strukturen im Universum
Lange Zeit ging man davon aus, dass das kosmologische Prinzip zutrifft, welches besagt, dass die Materie im Universum annähernd gleichmäßig verteilt ist. Doch es gibt Hinweise, dass das Universum auch anders strukturiert sein könnte:
Unser Sonnensystem, bestehend aus der Sonne und den acht Planeten Merkur, Venus, Erde, Mars, Jupiter, Saturn, Uranus und Neptun, hat einen Durchmesser von etwa 18 Milliarden Kilometern. Dieses Sonnensystem ist Teil der Milchstraße, einer Galaxie mit einer geschätzten Masse von etwa 950 Milliarden Sonnenmassen. Davon entfallen etwa 15 % auf die 300 Milliarden Sterne der Galaxie und 85 % auf die unsichtbare Dunkle Materie.
Die Milchstraße selbst gehört zu einer Ansammlung von Galaxien, der sogenannten Lokalen Gruppe, die sich über etwa 10 Millionen Lichtjahre erstreckt. Diese Gruppe ist Teil des größeren Virgo-Galaxienhaufens, der wiederum zum noch umfangreicheren Laniakea-Supercluster gehört. Dieser Supercluster könnte Teil einer noch größeren Struktur sein, die als Basin of Attraction (BoA) bezeichnet wird. In diesem Fall würde der Laniakea-Supercluster zur Shapley-BoA gehören, die eine beeindruckende Ausdehnung von etwa 3,3 Milliarden Lichtjahren hat.
Eine mögliche Erklärung für diese riesigen kosmischen Strukturen könnten Fluktuationen während der kosmischen Inflation sein. Diese Phase fand in einem winzigen Zeitfenster, zwischen 10⁻³⁶ Sekunden und 10⁻³⁴ Sekunden nach dem Urknall, statt und beeinflusste möglicherweise die großräumige Verteilung der Materie im Universum.
Ein Blick in die Zukunft unserer Milchstraße
Unsere 13,6 Milliarden Jahre alte Milchstraße (13,8 Milliarden Jahre ist das Universum alt) wird in 4,5 Milliarden Jahren mit der Andromeda Galaxie kollidieren, die zur Zeit ca. 2,5 Millionen Lichtjahre entfernt ist und sich mit 100 km/s auf unsere Milchstraße zubewegt. Alle anderen Galaxien bewegen sich von unserer Milchstraße weg.
End of Everything
Das Universum dehnt sich etwa zufolge der hypothetischen negativen Gravitation der Dunklen Energie immer weiter aus. Materie und Energie verdünnen sich und wandeln sich zufolge dem zweiten Hauptsatz der Thermodynamik zunehmend in Wärme um, wodurch die Entropie (das ist ein Maß für die Menge der atomaren Unruhe) zunimmt, ein Vorgang der irreversibel ist.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.

Standardmodell der Elementarteilchen
Das Standardmodell der Elementarteilchen besagt, dass es 12 materiebildende Fermionen und zwischen ihnen 7 Bosonen als Austauschteilchen der 4 Wechselwirkungen gibt.
Schon in der Antike vermuteten die Griechen, dass man Dinge nicht unendlich oft teilen kann, sondern dass man irgendwann auf unteilbare Teilchen stoßen würde. Vom griechischen Wort für "unteilbar" leitet sich die Bezeichnung Atom ab. Heute ist statt unteilbar der Ausdruck "fundamentales Teilchen" üblich.
Zuerst wurde das Elektron entdeckt und dann wurde durch Rutherford’s Streuversuche klar, dass der Hauptteil der Masse samt der positiven Ladung im Atomkern vorliegt und dieser aus Protonen und Neutronen besteht. Als nächstes wurde das Positron, also das Anti-Teilchen zum Elektron experimentell entdeckt und damit die diesbezügliche rechnerische Vorhersage von Dirac bestätigt , dass es Materie und Antimaterie gibt.
In den späten 1940-er und 50-er Jahren wurde eine Vielzahl von scheinbar fundamentalen Teilchen entdeckt, in die erst die 1964 von Murray Gell-Mann publizierte Quark-Theorie (genauer: Quantenchromodynamik) Ordnung brachte. Heute besagt das Standardmodell der Elementarteilchen, dass es 12 materiebildende Fermionen und zwischen ihnen 7 Bosonen als Austauschteilchen der 4 fundamentalen Wechselwirkungen gibt. Ein weiterer wesentlicher Fortschritt war der Nachweis des Higgs-Bosons und damit eine Erklärung was Masse überhaupt ist.
Das wichtigste noch fehlende Teilchen im Standardmodell der Elementarteilchen ist das Graviton, also das Austauschteilchen einer quantisierten Gravitationswelle.
Elektronenvolt
Ein Elektronenvolt ist die Energie, die ein Teilchen mit einer Elementarladung (1 e) erhält, wenn es eine Spannung von 1 Volt durchläuft. Das Elektronenvolt ist eine Energieeinheit die in der Teilchenphysik Anwendung findet.
1 eV = 1,60217646263.10-19J
In der Teilchenphysik werden sowohl die Ruhemasse von Elementarteilchen als auch die Energie, auf die sie in Beschleunigern gebracht werden, in (Vielfachen von) Elektronenvolt angegeben. Die Umrechnung geschieht mit Hilfe der Gleichung E=mc2. Danach entspricht 1 eV/c² ungefähr 1,8·10-36 Kilogramm und 1 GeV (Gigaelektronenvolt) ungefähr der Ruheenergie eines Protons (genauer: 0,938 GeV).
Spin
Spin als der Eigendrehimpuls ist eine der Quantenzahlen von Fermionen und Bosonen
- In der makroskopischen Welt spricht man von Spin, wenn sich ein Gegenstand (Ball, Kreisel) um seine eigene Achse dreht. Aus dieser Drehbewegung resultiert jene Kraft, die dafür sorgt, dass ein rotierender Kreisel nicht umfällt.
- In der mikroskopischen Welt stellt der Spin eine „Eigenschaft“ (man spricht von einer Quantenzahl) von Fermionen und Bosonen dar, die man Eigendrehimpuls nennt. Allerdings kann der Spin nicht jeden beliebigen Wert annehmen, sonder er ist quasi „portioniert“ Er tritt dabei als halb- oder ganzzahliges Vielfaches von ℏ (sprich "h quer") auf.
Spin | Typ | Teilchen |
0 | Skalar Bosonen | Higgs Bosonen |
1/2 | Fermionen | 6 Leptonen, 6 Quarks |
1 | Vektor Bosonen | Gluon, W+, W- , Z0 , Photon |
3/2 | (hypothetische) Fermionen | supersymmetrische Teilchen |
2 | (hypothetisches) Tensorboson | Graviton |
Fundamentale Wechselwirkungen
Ursprünglich waren die elektrische und die magnetische Wechselwirkung getrennt, doch mit den 4 Maxwell Gleichungen gelang es diese beiden Wechselwirkungen zur elektromagnetischen Wechselwirkung zusammen zu fassen.
Heute beschreiben die 4 fundamentalen Wechselwirkungen, wie physikalische Objekte einander beeinflussen können. Bei den 4 Wechselwirkungen handelt es sich um die Gravitation, die starke und die schwache Wechselwirkung sowie um die elektromagnetische Wechselwirkung.
Zwischenzeitlich ist es im Rahmen des Standardmodells der Elementarteichen gelungen, die schwache und die elektromagnetische Wechselwirkung zur elektroschwachen Wechselwirkung zusammen zu fassen, sodass man eigentlich aktuell nur mehr von 3 fundamentalen Wechselwirkungen sprechen müsste.
Eine Sonderstellung hat der Higgs Mechanismus. Er hat zwar so wie die 4 Wechselwirkungen auch ein eigenes Quant als Austauschteilchen, nämlich das Higgs Boson und er hat auch ein eigenes Feld, nämlich das Higgs-Feld, da er aber durch die elektroschwache Theorie beschrieben wird, spricht man hier von einem Mechanismus und nicht von einer 5. Wechselwirkung.
Heute arbeiten die Wissenschaftler an der Grand Unified Theory (GUT) welche die elektroschwache mit der starken Wechselwirkung vereinheitlichen soll. Der nächste und letzte Schritt müsste auch noch die Gravitation mit der GUT verbinden, das wäre dann die sogenannte Theory of Everything (ToE), eine Theorie der Quantengravitation. Kandidaten dafür sind die Stringtheorie und die M-Theorie.
Wichtig ist zu verstehen, dass die physikalische Vereinheitlichung dieser Wechselwirkungen an Temperaturen jenseits von 1028 K bzw. an Energien jenseits von 1016 GeV gebunden sind. Zum Vergleich, der LHC vom Cern erreicht gerade mal 1,3.104 GeV und müßte somit noch eine Billion Mal energiereicher werden, um diese Temperaturen von unmittelbar nach dem Urknall zu simulieren.
Die fundamentalen Wechselwirkungen und der Higgs-Mechanismus
Ein Feld ist eine Energieform, die den Raum erfüllt. Felder können sich mit endlicher Geschwindigkeit ausbreiten, wobei ihre Dynamik durch Feldgleichungen beschrieben wird.
Unterscheidung der 5 Felder nach ihrem Rang:
- Skalarfeld (Tensor vom Rang 0)
- Higgs Feld
- Higgs Feld
- Vektorfelder (Tensor vom Rang 1)
- Elektromagnetisches Feld
- Feld der schwachen Wechselwirkung
- Feld der starken Wechselwirkung
- Tensorfeld (Tensor vom Rang >1)
- Gravitationsfeld
Die Austauschteilchen (Quanten) der 4 fundamentalen Wechselwirkungen und vom Higgs-Mechanismus
Unterscheidung der 5 Felder nach ihrem Wirkungsradius
Makrokosmos
-
- Gravitation - Graviton (postuliert, nicht experiementell nachgewiesen)
- elektromagnetische Wechselwirkung - Photon
Mikrokosmos
-
- schwache Wechselwirkung - W+, W- und Z0 Bosonen
- starke Wechselwirkung - Gluonen
- Higgs Mechanismus - Higgs Boson
Gleichstromkreise
Von Gleichstrom spricht man, wenn sich die Bewegungsrichtung der Ladungsträger (Elektronen, Protonen, Ionen) in einem leitfähigen Medium (z.B.: Kupferdraht) über die Zeit nicht verändert, sondern gleich bleibt.
Bleibt zusätzlich die Höhe vom Gleichstrom bzw. -spannung über die Zeit betrachtet unverändert, so verwendet man Großbuchstaben I, U.
Ändert sich deren Höhe im Verlauf der Zeit, so verwendet man Kleinbuchstaben i, u. Will man die Abhängigkeit von der Zeit in der Darstellung betonen, so schreibt man i(t), u(t). Anders formuliert: Das "Gleich" in Gleichstrom heißt nicht, dass die Stromhöhe gleich bleibt. (Gilt analog für die Spannung). Gründe für eine Änderung der Stromhöhe von Gleichstrom im Verlauf der Zeit können Änderungen der Speisespannung oder Kapazitäten oder Spulen im Stromkreis sein.
Die Elektronen als Ladungsträger bewegen sich dabei mit einer Geschwindigkeit von unter 1mm pro Sekunde durch die Leitung. Die Anzahl der transportierten Ladungsträger, also die Stromstärke, kann sich aber sehrwohl ändern.
Ein Gleichstromkreis besteht aus
- einer Stromquelle (z.B.: Batterie, Gleichstromgenerator) ,
- einem Stromverbraucher (z.B.: ohmscher Widerstand) und
- einer Leitung (z.B.: Kupferdraht), welche die Quelle und den Verbraucher ringförmig verbindet.
Physikalische Stromrichtung vom Minuspol zum Pluspol
Schließt man einen Verbraucher über elektrische Leitungen an eine Stromquelle an, so fließen die Elektronen vom Minuspol der Stromquelle, über den Leiter durch den Verbraucher zurück zum Pluspol der Stromquelle.
Technische Stromrichtung vom Pluspol zum Minuspol
Die technische Stromrichtung ist verwirrenderweise leider umgekehrt definiert. D.h. „Strom“ fließt technisch vom Pluspol zum Minuspol. Man wusste zu dem Zeitpunkt als man die Stromrichtung festlegte, noch nichts über die physikalische Fließrichtung von Elektronen und hat einfach eine falsche Annahme getroffen.
Stromrichtung bei Wechselstrom
Bei Wechselstrom ändert sich die Stromrichtung abhängig von der Frequenz zweimal pro 1 Hz bzw. hundertmal bei 50 Hz.
Elektrischer Stromkreis
Der einfachste elektrische Stromkreis setzt sich aus einer Spannungsquelle mit einem Innenwiderstand und einem äußeren Leiter mit einem Außenwiderstand zusammen. Physikalisch fließen im äußeren Leiter die Elektronen vom Minuspol zum Pluspol. Leider ist die technische Stromrichtung genau entgegengesetzt definiert. Die Spannung Uqder Spannungsquelle treibt bei geschlossenem Schalter einen Strom I durch die Widerstände Ri + Ra
\(I = \dfrac{{{U_q}}}{{{R_i} + {R_a}}}\)
Vorzeichenregel zur Berechnung von Gleichstromkreisen
- Der Zahlenwert der Spannung wird positiv gerechnet, wenn der Pfeil zum Punkt mit dem niedrigerem Potential zeigt, sonst hat die Spannung ein negatives Vorzeichen
- Der Zahlenwert des Stroms ist immer positiv
Zählpfeilregeln zur Beschriftung von Stromkreisen
- Erzeugerzählpfeilsystem: Quelle gibt Leistung ab; U und I sind entgegengesetzt orientiert. An einer Quelle, die Leistung abgibt, haben Strom und Spannung immer die entgegengesetzte Richtung.
- Verbraucherzählpfeilsystem: Verbraucher nimmt Leistung auf; U und I sind gleich orientiert. An Verbrauchern (passiver Zweipol) haben Strom und Spannung immer die gleiche Richtung.
Im Verbraucherzählpfeilsystem gilt in der zeitabhängigen Schreibweise.
\({u_R}\left( t \right) = R \cdot {i_R}\left( t \right)\) | für den Spannungsabfall am ohmschen Widerstand |
\({i_C}\left( t \right) = C \cdot \dfrac{{d{u_C}\left( t \right)}}{{dt}}\) | für den Stromverlauf am Kondensator |
\({u_L}\left( t \right) = L \cdot \dfrac{{d{i_L}\left( t \right)}}{{dt}}\) | für den Spannungsverlauf an einer Spule |
Im Gleichstromkreis
- Widerstand: Fließt durch den ohmschen Widerstand ein Dauerstrom zufolge dem ohmschen Gesetz, also I=U/R
- Kondensator: Lädt sich ein Kondensator einmalig bis zu einer maximalen Spannung auf. Nach dem Abklingen des Ladestroms wirkt der Kondensator wie eine Unterbrechung im Gleichstromkreis, d.h. es fließt dann kein Strom mehr.
Merkregel: Kondensator zunächst wie ein Kurzschluss, dann wie ein offener Schalter - Spule: Verhält sich eine Spule zunächst wie eine Unterbrechung, lädt sich aber zufolge von Selbstinduktion auf und begrenzt anschließend den realen Strom lediglich zufolge ihres unvermeidlichen ohmschen Widerstands auf I=U/RL.
Merkregel: Spule zunächst wie ein offener Schalter, dann wie ein Kurzschluss
Aufgaben
Aufgabe 221
Leistungsberechnung im Wechselstromkreis
Berechne für \(u\left( t \right) = U \cdot \sqrt 2 \cdot \cos \left( {\omega t + {\varphi _u}} \right)\) und für \(i\left( t \right) = I \cdot \sqrt 2 \cdot \cos \left( {\omega t + {\varphi _i}} \right)\) den Wirk- und den Blindleistungsanteil und interpretiere deren Mittelwerte.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.

Aufgabe 245
Fourier Analyse einer \(2\pi \) periodischen Rechteckspannung
Gegeben ist folgende Rechteckspannung
\(u\left( t \right) = \left\{ {\begin{array}{*{20}{c}} { + U\,\,\,\,\,...\,\,\,\,\,0 < t < \dfrac{T}{2}}\\ { - U\,\,\,\,\,...\,\,\,\,\,\dfrac{T}{2} < t < T} \end{array}} \right.\)
Aufgabenstellung:
Ermittle für obige Rechteckspannung die zugehörige Fourierreihe
Aufgabe 255
In einem Einfamilienhaus soll der Bezug von Strom und Gas aus dem öffentlichen Netz durch den Einsatz von Wärmepumpen und Photovoltaikanlagen reduziert werden.
1. Teilaufgabe:
Die spezifische Wärmekapazität von flüssigem Wasser beträgt \(4,190\dfrac{{kJ}}{{kg \cdot K}}\). Es soll ein 270 Liter Brauchwasserboiler eingesetzt werden. Das zufließende Wasser aus der öffentlichen Wasserleitung hat eine Temperatur von 7°C, das Brauchwasser (Abwasch, Dusche, Bad,...) soll 45°C haben.
Berechne, wie viel Energie in kWh pro Jahr erforderlich sind, um das Wasser zu erwärmen.
2. Teilaufgabe:
- Eine kWh Gas kostet inkl. MWST 4,8374 Cent bzw. 0,0484 €.
- Eine kWh Nachtstrom kostet inkl. MWST 14,21 Cent bzw. 0,1421 €
- Eine kWh Tagstrom kostet inkl. MWST 17,20 Cent bzw. 0,1720 €
Berechne die jährlichen Energiekosten des Brauchwasserboilers für jede der 3 Heizformen.
3. Teilaufgabe:
An dem Brauchwasserboilder soll eine Luft-Luft Wärmepumpe angebracht werden, die dem Raum Wärme entzieht und damit das Brauchwasser erwärmt. Die Brauchwasser-Wärmepumpe hat einen Effizienzfaktor COP = 3. D.h. sie nimmt 500 W elektrische Leistung aus dem Stromnetz auf und erzeugt 1.500 Heizleistung.
Berechne die jährlichen Stromkosten für den Betriev der Brauchwasser-Wärmepumpe.