Wirtschaftsmathematik und Künstliche Intelligenz
Wissenswertes über die Grundlagen der Wirtschaftsmathematik und über Künstlicher Intelligenz
Hier findest du folgende Inhalte
Formeln
Zinseszinsrechnung
Bei der Zinseszinsrechnung werden die Zinsen am Ende der Zinsperiode dem Kapital einmalig zugeschlagen, sodass sie in der darauffolgenden Zinsperiode mit verzinst werden. Der Aufzinsungsfaktor q gibt an, um welchen Faktor ein Kapital innerhalb einer Zinsperiode bei einem Zins von p anwächst.
K0 | Anfangskapital in € |
Kn | Endkapital in € |
n | Laufzeit in Jahren |
p | Zinssatz in % |
i | Jährliche Zinssatz, dimensionslose Dezimalzahl |
q=1+i | Aufzinsungsfaktor, dimensionslos |
Aufzinsungsfaktor
\(q = 1 + i\)
mit \(i = \dfrac{p}{{100\% }}{\rm{ und }}\left[ i \right] = \left[ q \right] = 1\)
Bei einer n-jährigen Veranlagung mit Zinseszins beträgt der Aufzinsungsfaktor qn.
Beispiel:
\({\text{p = 5% }} \to {\text{i = 0}}{\text{,05}} \to {\text{q = 1}}{\text{,05}}\)
Endkapital Kn gesucht
→ Die Aufzinsung gemäß der leibnizschen Zinseszinsformel dient zur Beantwortung der Fragestellung, welches Endkapital Kn man erhalten wird, wenn man das Anfangskapital K0 bei einem Zins von p% für n Jahren anlegt.
\({K_n} = {K_0} \cdot {\left( {1 + \dfrac{p}{{100}}} \right)^n} = {K_0} \cdot {q^n}\)
Beispiel:
K0=12.500€ … Anfangskapital
P=2,75% … Zins in %
n=1 Jahr und 9 Monate bzw. 21/12 … Laufzeit in Jahren
\(\eqalign{ & {K_n} = {K_0} \cdot {\left( {1 + \frac{p}{{100}}} \right)^n} \cr & {K_{\frac{{21}}{{12}}}} = 12500 \cdot {\left( {1 + \frac{{2,75}}{{100}}} \right)^{\frac{{21}}{{12}}}} \approx 13107,75 \cr} \)
Anfangskapital K0 gesucht
→ Die Diskontierung gemäß der leibnizschen Zinseszinsformel dient zur Beantwortung der Fragestellung welches Kapital K0 man anlegen muss, um bei einem Zinssatz von p% nach n Jahren über das Endkapital von Kn zu verfügen.
\({K_0} = \dfrac{{{K_n}}}{{{q^n}}} = \dfrac{{{K_n}}}{{{{\left( {1 + \dfrac{p}{{100}}} \right)}^n}}}\)
Beispiel:
Kn=742€ .. Endkapital
p=3% ... Zins in %
n=5 Jahre ... Laufzeit
\(\eqalign{ & {K_0} = \frac{{{K_n}}}{{{q^n}}} \cr & p = 3\% \to i = 0,03 \to q = 1,03 \cr & {K_0} = \frac{{742}}{{{{1,03}^5}}} \approx 640,05 \cr} \)
Laufzeit n gesucht
→ Dient zur Beantwortung der Fragestellung für wie viele Jahre n man ein Anfangskapital K0 bei einem Zins von p% veranlagen muss, damit man das Endkapital Kn erhält.
\(n = \dfrac{{\log \dfrac{{{K_n}}}{{{K_0}}}}}{{\log q}} = \dfrac{{\log \dfrac{{{K_n}}}{{{K_0}}}}}{{\log \left( {1 + \dfrac{p}{{100}}} \right)}}\)
Zins p in % gesucht
→ Dient zur Beantwortung der Fragestellung, welcher Zins erwirtschaftet werden muss, damit nach n Jahren aus dem Anfangskapital K0 das Endkapital Kn wird.
\(p = \left( {\root n \of {\dfrac{{{K_n}}}{{{K_0}}}} - 1} \right) \cdot 100\)
Unterjährige Raten
Für unterjährige Raten gilt
\(\eqalign{ & {i_p} = {\left( {1 + {i_m}} \right)^{\frac{m}{p}}} - 1 \cr & {i_m} = \root {\frac{m}{p}} \of {{i_p} + 1} - 1 \cr & \cr & r = 1 + i = {(1 + {i_m})^m} \cr & {r_p} = \root p \of r = \root p \of {{{\left( {1 + {i_m}} \right)}^m}} = {\left( {1 + {i_m}} \right)^{\frac{m}{p}}} \cr & \cr & {B_{{\text{nachsch }}}} = R \cdot \frac{{1 - {r_p}^{ - n}}}{{{i_p}}} \cr & {B_{{\text{vorsch = }}}}R \cdot \frac{{1 - {r_p}^{ - n}}}{{{i_p}}} \cdot {r_p} \cr & \cr & {E_{{\text{nachsch }}}} = R \cdot \frac{{{r_p}^n - 1}}{{{i_p}}} \cr & {E_{{\text{vorsch }}}} = R \cdot \frac{{{r_p}^n - 1}}{{{i_p}}} \cdot {r_p} \cr} \)
mit
im | unterjähriger Zinssatz |
m | Anzahl der unterjährigen Verzinsungsperioden; Semester → m=2; Quartal → m=4 |
ip | äquivalenter auf die Rentenperiode bezogener Zinssatz |
p | Anzahl der Raten pro Jahr |
R | Rate |
Unterjährige Verzinsung
Bei der unterjährigen Verzinsung ist die Anlagedauer ein ganzzahliges Vielfaches einer Verzinsungsperiode. Die Zinsen werden dabei mehrmals pro Jahr dem Kapital zugeschlagen, z.B. Verzinsungsperiode = vierteljährig → Zinsen werden an jedem Quartalsende dem Kapital zugeschlagen
\({K_n} = {K_0} \cdot {\left( {1 + \dfrac{{{p_m}}}{{100}}} \right)^{m \cdot n}}\)
\({p_m} = \dfrac{p}{m}\)
pm | unterjähriger Zinssatz |
m | Anzahl der Zinsperioden pro Jahr |
n | Anzahl der Veranlagungsjahre |
Beispiel:
\(\eqalign{ & n = 1{\text{ }}...{\text{ Laufzeit ist 1 Jahr}} \cr & {{\text{K}}_0} = 100 \cr & {p_{nom}} = 12\% {\text{ }}...{\text{ nomineller Jahreszinssatz}} \cr & m = 4{\text{ }}...{\text{ Quartalsweise Verzinsung}} \cr & \to {\text{ }}{{\text{p}}_m} = \dfrac{{12\% }}{4} = 3\% \cr & {K_n} = {K_0} \cdot {\left( {1 + \dfrac{{{p_m}}}{{100}}} \right)^{m \cdot n}} \cr & {K_n} = 100 \cdot {\left( {1 + \dfrac{3}{{100}}} \right)^{4 \cdot 1}} = 112,55 \cr} \)
Da bei der unterjährigen Verzinsung die Zinsen nach jedem Quartal dem Kapital zugeschlagen und fortan ebenfalls verzinst werden, rechnen wir nun noch aus wie hoch der Effektivzinssatz ist. Wir nützen dabei die weiter oben stehende Formel "Zins in % gesucht"
\(\eqalign{ & {p_{eff}} = \left( {\root n \of {\dfrac{{{K_n}}}{{{K_0}}}} - 1} \right) \cdot 100 \cr & {p_{eff}} = \left( {\root 1 \of {\dfrac{{112.55}}{{100}}} - 1} \right)*100 = 12,55\% \cr} \)
→ Durch die unterjährige Verzinsung ist der Effektivzinssatz mit 12,55% tatsächlich höher als der nominelle Jahreszinssatz von 12%
Gemischte Verzinsung
Bei der gemischten Verzinsung ist die Anlagedauer kein ganzzahliges Vielfaches einer Verzinsungsperiode
\({K_n} = {K_0} \cdot {\left( {1 + \dfrac{{{p_m}}}{{100}}} \right)^{{n_v}}} \cdot \left( {1 + \dfrac{{{p_m}}}{{100}} \cdot {n_r}} \right)\)
\({n_r} = \dfrac{{{\text{Anzahl der Monate der angebrochenen Verzinsungsperiode}}}}{{{\text{Anzahl der Monate einer vollern Verzinsungsperiode}}}}\)
nv | Anzahl der vollen Verzinsungsperioden, wird mit Zinseszins berechnet |
nr | restliche Zeit als Teil der lediglich angebrochenen Verzinsungsperiode, wird mit einfachem Zins berechnet |
Stetige oder kontinuierliche Verzinsung
Bei der stetigen oder kontinuierlichen Verzinsung konvergiert die Dauer einer Verzinsungsperiode mit anschließender Wiederveranlagung gegen Null, während die Anzahl der Zinsperioden gegen Unendlich geht. Der Zinsertrag steigt mit der Anzahl der Zinsgutschriften pro Jahr. Der zusätzliche Zinsertrag bei sukzessiver Steigerung der jährlichen Zinsperioden nimmt jedoch immer weiter ab und nähert sich einem Grenzwert, der mit Hilfe nachfolgender Exponentialfunktion berechnet wird.
\({K_n} = {K_0} \cdot {e^{\left( {\dfrac{p}{{100}} \cdot n} \right)}}\)
Beispiel:
Wir nehmen die selben Daten wie im Beispiel oben für die quartalsweise Verzinsung
\( \eqalign{ & n = 1{\text{ }}...{\text{ Laufzeit ist 1 Jahr}} \cr & {{\text{K}}_0} = 100 \cr & {p_{nom}} = 12\% {\text{ }}...{\text{ nomineller Jahreszinssatz}} \cr & {\text{kontinuierliche Verzinsung}} \cr & {K_n} = {K_0} \cdot {e^{\left( {\dfrac{p}{{100}} \cdot n} \right)}} \cr & {K_n} = 100 \cdot{e^{\left( {\dfrac{{12}}{{100}}} \right)}} = 112,75 \cr & {p_{eff}} = \left( {\root 1 \of {\dfrac{{112,75}}{{100}}} - 1} \right) \cdot 100 = 12,75\% \cr} \)
→ Wir sehen, dass sich durch den Übergang von quartalsweiser auf kontinuierliche Verzinsung der Effektivzinssatz nur geringfügig von 12,55% auf 12,75% erhöht hat.
Endfälliges-, Tilgungs- versus Annuitätendarlehen
Wenn man ein Darlehen aufnimmt, muss dieses während der Darlehenslaufzeit getilgt, also zurückbezahlt, werden, andernfalls handelt es sich um ein endfälliges Darlehen.
- Für endfällige Darlehen gibt es üblicherweise einen Ansparplan, mit dem Ziel am Ende der Darlehenslaufzeit soviel angespart zu haben, damit man das Darlehen auf einmal zurückzahlen kann. Der Ansparplan besteht meist aus Aktien und Anleihen. Man geht dabei das Risiko ein, dass sich der Aktienmarkt nicht so entwickelt wie erwartet und man am Laufzeitende zu wenig angespart hat um die gesamte Schuld zurückzahlen zu können.
- Bei Darlehen, die während der Laufzeit zurückgezahlt werden, unterscheidet man zwischen Tilgungs- und Annuitätendarlehen.
- Beim Tilgungsdarlehen bleibt die Tilgungsrate über die Laufzeit gleich, man zahlt also monatlich einen konstanten Betrag von der Schuld zurück. Da die Zinsen von der Restschuld berechnet werden, sinken die Zinszahlung während der Laufzeit kontinuierlich. Die Annuität, bzw. die Kreditrate, als Summe aus Zins- und Tilgungsanteil, ist am Anfang der Laufzeit am höchsten und nimmt während der Laufzeit ab.
- Beim Annuitätendarlehen bleibt die Annuität bzw. die Kreditrate über die Laufzeit unverändert gleich. Von der monatlich konstanten Ratenzahlung dominiert Anfangs der Zinsanteil, gegen Ende der Tilgungsanteil.
Annuität
Die Annuität ist ein über die Laufzeit gleichbleibender regelmäßiger Betrag, der (etwa monatlich) zur Tilgung eines Darlehens zurückbezahlt wird. Die Annuität setzt sich zusammen aus einem Anteil zur Kapitaltilgung T (Abbau der Schuld) und einer Zinszahlung P, die für die Rückzahlung der Zinsen anfällt.
Am Anfang der Laufzeit (hoher Schuldenstand) zahlt man vorwiegend für die Zinsen und zahlt kaum das Kapital selbst zurück, während man am Ende der Laufzeit (geringer Schuldenstand) vorwiegend das Kapital tilgt und kaum mehr Zinsen bezahlt. Die Höhe der regelmäßig zu bezahlenden Annuität wird so berechnet, dass sie betragsmäßig konstant bleibt, obgleich der Anteil an der Tilgung im Laufe der Zeit zunimmt und die Zinszahlung im Laufe der Zeit abnimmt.
\(A = \dfrac{{{K_n} \cdot {q^n}}}{{\dfrac{{{q^n} - 1}}{{q - 1}}}}\)
A | Annuität, bleibt über die Laufzeit konstant |
Kn | Endkapital nach n Jahren |
i | Jährlicher Zinssatz (Dezimalzahl) |
q=1+i | Aufzinsungsfaktor |
Tilgungsplan
Der Tilgungsplan ist eine tabellarische (z.B. monatliche) Aufstellung über die Kreditlaufzeit, aus der man die Zinszahlung P, die Kapitaltilgung T, die Annuität A und die Restschuld Kn übersichtlich ablesen kann.
K0 | Höhe des Kredits |
i | Jährlicher Zinssatz (Dezimalzahl) |
Ti | Tilgungsanteil |
Der Tilgungsplan sieht dann wie folgt aus
Zeit |
Zinszahlung Zinsanteil P |
Kapitaltilgung Tilgungsanteil T |
Annuität, Kreditrate A=P+T |
Restschuld Kn \({K_n} = {K_{n + 1}} + {T_{n + 1}}\) |
0 | K0 | |||
1 | \(P={K_0} \cdot i\) | T1 | \({A_1} = {K_0} \cdot i + {T_1}\) | \({K_1} = {K_0} - {T_1}\) |
... | ... | ... | ... | ... |
Beispiel:
Veranschaulichung der dramatischen Wirkung vom Zinseszins (Die Idee vom Josephspfennig):
- Hätte Joseph zur Zeit von Jesus Geburt 1€ mit 3% Zinsen bei seiner Hausbank veranlagt und nie etwas abgehoben, so hätten seine Nachkommen im Jahr 2019 ein Guthaben von: \(1\mbox{€} \cdot {\left( {1 + \dfrac{3}{{100}}} \right)^{2019}} = 82\,\,862\,\,241\,\,987\,\,585\,\,880\,\,104\,\,141\,\,897\mbox{€} = 8,3 \cdot {10^{25}}\mbox{€}\)
- Bei 8,3 Milliarden Menschen hätte im Jahr 2019 jeder Mensch ein Guthaben von \(\dfrac{{8,3 \cdot {{10}^{25}}}}{{8,3 \cdot {{10}^9}}} = 1 \cdot {10^{16}}\mbox{€} \overset{\wedge}\to{=} 10{\text{ Billiarden }}\mbox{€}\).
- Hätte er länger gespart und das doppelte Anfangskapital veranlagt, so hätte er heute ein Guthaben von: \(2\mbox{€} \cdot {\left( {1 + \dfrac{3}{{100}}} \right)^{2019}} = 165\,\,724\,\,483\,\,975\,\,171\,\,760\,\,208\,\,283\,\,795\mbox{€} = 1,7 \cdot {10^{26}}\mbox{€}\)
- D.h. doppelt so langes sparen, ehe man das Ersparte veranlagt, bringt langfristig nichts.
- Hätte Josef statt 3% sogar 4%, also um 1% mehr an Zinsen heraus verhandelt, so hätte er heute ein Guthaben von: \(1\mbox{€} {\left( {1 + \dfrac{4}{{100}}} \right)^{2019}} = 24\,\,564\,\,732\,\,784\,\,631\,\,725\,\,180\,\,258\,\,122\,\,392\,\,563\,\,155\mbox{€} = 2,5 \cdot {10^{34}}\mbox{€}\)
- D.h. etwas höhere Zinsen wirken sich langfristig dramatisch aus. (1034 >> 1026)
- Der Plantet Erde würde in purem Gold (1 kg Gold = 41.000€; Gewicht der Erde = \({\rm{6}} \cdot {\rm{1}}{{\rm{0}}^{24}}kg\)) somit \(\left( {{\rm{6}} \cdot {\rm{1}}{{\rm{0}}^{24}}} \right) \cdot \left( {4,1 \cdot {{10}^4}} \right) \approx 2,5 \cdot {10^{29}}\mbox{€}\)kosten.
- D.h. die Bank müsste im Jahr 2019: \(\dfrac{{2,5 \cdot {{10}^{34}}}}{{2,5 \cdot {{10}^{29}}}} = 1 \cdot {10^5}\)also 10.000 Planeten Erde aus purem Gold auszahlen... Wer soll das wegtragen und wie soll man das je ausgeben?
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Kosten- und Preistheorie
In der Kosten- und Preistheorie versucht man Kosten, Preise sowie Erlöse und Gewinne durch einfache mathematische Funktionen zu modellieren. Es handelt sich dabei um ein Teilgebiet der Mikroökonomie, welches die Preisbildung als Folge des Aufeinandertreffens von Angebot und Nachfrage auf verschiedenen Märkten untersucht.
Die wichtigsten Funktionen sind die
\(K\left( x \right) = {K_{fix}} + {K_{{\mathop{\rm var}} }}\left( x \right)\) | Kostenfunktion, beschreibt die gesamten Kosten als Summe der Fixkosten und der variablen Kosten in Abhängigkeit von der Produktionsmenge |
\(P\left( x \right) = \dfrac{{E\left( x \right)}}{x}\) | Preisfunktion, beschreibt den erzielbaren Preis pro Stück |
\(E\left( x \right) = P\left( x \right) \cdot x\) | Erlösfunktion, beschreibt den Erlös pro Stück |
\(G\left( x \right) = E\left( x \right) - K\left( x \right)\) | Gewinnfunktion, beschreibt den Gewinn als Differenz von Erlös und Gesamtkosten |
Einfache Verzinsung
Bei der einfachen Verzinsung werden die Zinsen einmalig für die gesamte Laufzeit vom Anfangskapital K0 berechnet. Es wird daher nur das Angangskapital verzinst, die Zinsen selbst werden nicht verzinst.Bei "einfacher Veranlagung" werden die jährlichen Zinsen im darauffolgenden Jahr nicht wieder mitverzinst, sondern zuvor ausbezahlt. Der jährliche (einfache) Zins Z (in €, $,..) ohne Zinseszins, ist proportional dem Anfangskapital K0 , sowie dem Zinssatz p in %, sowie der Laufzeit n in Jahren.
Z | Zins in € |
Zd | Zins auf täglich fälliges Kapital |
K0 | Anfangskapital in € |
p | Zinssatz in %/Jahr, es ist aber üblich das "pro Jahr" wegzulassen |
n | Laufzeit in Jahren |
Zins ohne Zinseszins
Der Zins ohne Zinseszins errechnet sich aus dem Produkt vom Anfangskapital multipliziert mit der Laufzeit in Jahren und dem Zinssatz in Prozent dividiert durch 100.
Nachfolgende Formel dient der Beantwortung der Fragestellung, wie viel Zinsen Z in € man ohne Zinseszinsen (=einfache Verzinsung) erhält, wenn man das Anfangskapital K0 für die Dauer von n Jahren bei einem Zinssatz von p% veranlagt.
\(Z = {K_0} \cdot \dfrac{{p \cdot n}}{{100\%}}\)
Beispiel
Welche Kredithöhe kann bei einer Bank aufnehmen, wenn man bereit ist 720€ an Zinsen in einem Jahr zu bezahlen?
\(\eqalign{ & Z = 720\mbox{€} \cr & p = 4\% \cr & n = 1 \cr & {K_0} = ? \cr & \cr & Z = {K_0} \cdot \dfrac{{p \cdot n}}{{100\%}} \to {K_0} = Z \cdot \dfrac{{100\%}}{{p \cdot n}} \cr & {K_0} = 720\mbox{€} \cdot \dfrac{{100}}{4} = 18.000\mbox{€} \cr} \)
Endkapital ohne Zinseszins
Das Endkapital ohne Zinseszins errechnet sich aus dem Anfangskapital multipliziert mit der Summe aus 1 plus der Laufzeit in Jahren mal dem Zins in Prozent dividiert durch 100.
Das Endkapital Kn ist die Summe aus dem Anfangskapital und dem Zins. Das Endkapital ohne Zinseszins dient der Bewertung von Finanztransaktionen mit kurzen Laufzeiten. Die erzielten Zinsen werden dabei dem Anfangskapital K0 nicht für eine weitere Verzinsung hinzugerechnet. Dies steht im Gegensatz zur Zinseszinsrechnung, bei der eine exponentielle Verzinsung stattfindet, was vor allem bei langfristigem Investment von entscheidender Bedeutung ist.
Nachfolgende Formel dient der Beantwortung der Fragestellung, welches Endkapital Kn man ohne Zinseszinsen erhält (=einfache Verzinsung), wenn man das Anfangskapital K0 für die Dauer von n Jahren bei einem Zinssatz von p% veranlagt.
\({K_n} = {K_0} \cdot \left( {1 + \dfrac{{p \cdot n}}{{100\%}}} \right)\)
Beispiel
\(\eqalign{ & {K_0} = 400\,\,\mbox{€} {\text{ }}...{\text{ Anfangskapital}} \cr & n = \dfrac{5}{{12}}{\text{ }}...{\text{ Laufzeit beträgt 5 Monate}} \cr & p = 6\% {\text{ }}...{\text{ Zinssatz in % }} \cr & {K_n} = {K_0} \cdot \left( {1 + \dfrac{{p \cdot n}}{{100}}} \right) \cr & {K_{\dfrac{5}{{12}}}} = 400 \cdot \left( {1 + \dfrac{{6 \cdot \dfrac{5}{{12}}}}{{100}}} \right) = 410\,\,\mbox{€} \cr} \)
Tagesgeld
Ein Tagesgeldkonto ist ein fest verzinstes Konto, auf das bzw. von dem der Kontoinhaber täglich in beliebiger Höhe einzahlen und abheben kann. Ein Tagesgeldkonto hat keine Laufzeit. Der Zinssatz ist wesentlich geringer als bei Veranlagungen mit fixer Laufzeit, da die Bank das Geld kaum reinvestieren kann, da es ja jederzeit wieder abgehoben werden kann.
Ein Bankjahr hat dabei fix 360 Tage bzw. 12 Monate zu je fix 30 Tagen
\(\eqalign{ & {Z_d} = Z \cdot \dfrac{d}{{360}} = {K_0} \cdot \dfrac{p}{{100\%}} \cdot \dfrac{d}{{360}} \cr & {K_0} = {Z_d} \cdot \dfrac{{100\%}}{p} \cdot \dfrac{{360}}{d} \cr} \)
Beispiel
Ein Kapital von 7.000€ wird für die Dauer von 3 Monaten zu einem Zinssatz von 0,75% für täglich fälliges Geld veranlagt. Wie hoch belaufen sich die Zinsen?
\(\eqalign{ & {K_0} = 7000\mbox{€} \cr & p = 0,75\% \cr & d = 90 \cr & {Z_{d = 90}} = ? \cr & \cr & {Z_{90}} = 7000\mbox{€} *\frac{{0.75}}{{100}}*\frac{{90}}{{360}} = 13,125\mbox{€} \cr} \)
Kostenfunktion
Die Kostenfunktion, auch Gesamtkostenfunktion genannt, beschreibt den Zusammenhang zwischen der produzierten Menge und den gesamten dafür anfallenden Kosten. Sie gibt also an, wie viel es in Summe kostet x-Stück zu produzieren. Die Gesamtkosten setzen sich aus den Fixkosten und den variablen Kosten zusammen.
\(K\left( x \right) = {K_f} + {K_v}\left( x \right)\)
Fixkosten
Fixkosten sind Kosten die auch dann anfallen, wenn nicht produziert wird. Sie sind von der Höhe der Erzeugung unabhängig. \({K_{fix}} = K\left( 0 \right) > 0\)
Variable Kosten
Variable Kosten sind Kosten, die von der produzierten Mengeneinheit abhängen. \(K'\left( x \right) > 0\) daraus folgert, dass die Kosten streng monoton steigen.
Deckungsbeitrag
Der Deckungsbeitrag sind jene Einnahmen, die nach Abzug der variablen Kosten von den Verkaufsnettoerlösen übrig bleiben. Der Deckungsbeitrag gibt an, wie viel ein verkauftes Stück zur Deckung der Fixkosten beiträgt. Ist der Deckungsbeitrag negativ, dann verliert das Unternehmen Geld bei jedem zusätzlich verkauften Stück.
\(D\left( x \right) = E\left( x \right) - {K_v}\left( x \right)\)
Der Deckungsbeitrag ist der Beitrag der Erlöse zur Deckung der Fixkosten. Der Deckungsbeitrag ist Null, wenn man durch die Erlöse nur mehr die variablen Kosten decken kann, aber kein Beitrag zur Deckung der Fixkosten übrigbleibt. Erwirtschaftet ein Geschäft keinen Deckungsbeitrag, macht es wirtschaftlich keinen ursächlichen Sinn mehr, das Geschäft weiter zu betreiben.
Ausgaben
Ausgaben sind Abgänge an Zahlungsmittel in einer Abrechnungsperiode. Ein Gut welches ins Lager kommt, verursacht Ausgaben, aber keine Aufwendungen.
Aufwendungen
Aufwendungen sind der Geldwert aller verbrauchten Güter und der in Anspruch genommener Dienstleistungen in einer Abrechnungsperiode. Ein Gut, welches aus dem Lager genommen und verbraucht wird, ist eine Aufwendung, aber keine Ausgabe.
Kosten
Kosten sind Aufwendungen, die auf den eigentlichen Betriebszweck bezogen in der betrachteten Periode anfallen und nicht außerordentlich sind. Unternehmerlohn, Abschreibungen oder Mieten stellen zwar (kalkulatorische) Kosten, aber keine Aufwendungen dar.
Lineare Kostenfunktion
Die einfachste Modellierung ist jene mit einer linearen Kostenfunktion. Die lineare Kostenfunktion ist streng monoton steigend und hat keine Extremstellen.
\(K\left( x \right) = kx + d\)
- Fixkosten einer linearen Kostenfunktion: \( K_f=K\left( 0 \right)=d\)
- variable Kosten einer linearen Kostenfunktion: \(K_v\left( x \right) = K\left( x \right) - K\left( 0 \right) = \left( {kx + d} \right) - \left( d \right) = kx\)
Illustration zur Veranschaulichung der linearen Kostenfunktion
Stückkosten einer linearen Kostenfunktion
Die Stückkosten sind die Produktionskosten einer Mengeneinheit. Man unterscheidet zwischen den
- durchschnittlichen Stückkosten, sinken bei höherer Produktion
- marginalen Stückkosten, konstant weil unabhängig von der Höhe der Produktion
Durchschnittliche Stückkosten
Die durchschnittlichen Stückkosten geben die Kosten für die Produktion von einer beliebigen Mengeneinheit an. Auch wenn die Kostenfunktion K(x) selbst linear ist, handelt es sich bei den durchschnittlichen Stückkosten \(\overline K (x) = \dfrac{{{K_v}\left( x \right)}}{x} + \dfrac{{{K_F}}}{x}\) um keine lineare Funktion, weil der Anteil der Fixkosten d mit der wachsenden Mengen x gemäß \(\dfrac{d}{x}\) immer kleiner wird.
\(\overline K \left( x \right) = \dfrac{{K\left( x \right)}}{x} = \dfrac{{k \cdot x + d}}{x} = k + \dfrac{d}{x}\)
Marginale Stückkosten (Grenzkosten) einer linearen Kostenfunktion
Die marginalen Stückkosten geben die Mehrkosten für eine zusätzliche Mengeneinheit an. Die Grenzkosten sagen, um wie viel sich die Kosten erhöhen, wenn man noch zusätzlich eine (unendlich kleine ≠ 1 Stk) Mengeneinheit produziert, unabhängig davon wie viel man bereits produziert hat.
\(K\left( {x + 1} \right) - K\left( x \right) = \left[ {k \cdot \left( {x + 1} \right) + d} \right] - \left[ {\left( {kx + d} \right)} \right] = k\)
In der Praxis ist der Verlauf der marginalen Kosten meist nicht konstant. Man erhält die Grenzkostenfunktion K' auf jeden Fall durch einmaliges Ableiten der Gesamtkostenfunktion K(x). Dabei fallen die Fixkosten weg, da sie unabhängig von der Stückzahl sind, und Konstante beim Ableiten wegfallen.
\(K'\left( x \right) = \dfrac{{dK\left( x \right)}}{{{\mathop{\rm dx}\nolimits} }} = {\left( {k \cdot x + d} \right)^\prime } = k\)
Illustration zur Veranschaulichung der Zusammenhänge
Ertragsgesetzliche Kostenfunktion
In der Praxis verläuft die Kostenfunktion gemäß einer Funktion 3. Grades. Die ertragsgesetzliche Kostenfunktion ist streng monoton steigend, hat keine Extremstellen aber einen Wendepunkt, den man Kostenkehre nennt.
\(K\left( x \right) = a \cdot {x^3} + b \cdot {x^2} + c \cdot x + d\)
Für die Koeffizienten einer ertragsgesetzlichen Kostenfunktion gilt (ohne Herleitung)
- \(a > 0\) weil für \(x \to \infty \) strebt \(K\left( x \right) \to \infty \)
- \(b < 0\) genauer: \(b = - 3a \cdot {x_{KK}}\)
- \(c \ge 0\) bzw. \(c \ge {b^2} - 3a\)
- \(d \ge 0\) Dies entspricht den Fixkosten und diese sind zumindest Null oder höher. d hat keinen Einfluss auf den Verlauf vom Graph der Funktion, sondern verschiebt diesen nur entlang der y-Achse.
- \({x_{kk}} = - \dfrac{b}{{3a}}\) muss für die produzierte Menge an der Kostenkehre gelten
Degressiver Kostenverlauf
Bis zum Wendepunkt der Kostenfunktion (Kostenkehre) verläuft diese degressiv (Wegfall von Stillstandszeiten, Output steigt bei zunehmenden Arbeitseinsatz … ). Degressiv = negativ, rechts bzw. konvex gekrümmt.
\(K''\left( x \right) < 0\): Erhöht sich die Stückzahl um n%, so stiegen die Kosten um weniger als n%.
Progressiver Kostenverlauf
Ab dem Wendepunkt der Kostenfunktion (Kostenkehre) verläuft diese progressiv (zu viele Arbeitskräfte behindern sich gegenseitig, Mangel an Facharbeitern, es wird zunehmend teurer, eine Mengeneinheit zu produzieren)
\(K''\left( x \right) > 0\): Erhöht sich die Stückzahl um n%, so stiegen die Kosten um mehr als n%.
In der betrieblichen Praxis kennt man die Kostenfunktion mitunter nicht. Aus der innerbetrieblichen Kostenrechnung kann man aber
- für bestimmte Produktionsmengen die zugehörigen Gesamtkosten erhalten
- diese in eine Punktwolke einzeichnen um dann
- mit Hilfe der Methode der kleinsten Quadrate
die ertragsgesetzliche Kostenfunktion bilden.
Illustration zur Veranschaulichung der ertragsgesetzlichen Kostenfunktion
- Das Betriebsminimum wird als Tangente aus dem Punkt (0|Fixkosten) an die ertragsgesetzliche Kostenfunktion konstruiert. Das Betriebsminimum liegt dort wo die variablen Durchschnittskosten ihr Minimum haben.
- Das Betriebsoptimum wird als Tangente aus dem Punkt (0|0) an die ertragsgesetzliche Kostenfunktion konstruiert. Das Betriebsoptimum liegt dort, wo die Durchschnittskostenfunktion ihr Minimum hat.
Marginale Stückkosten (Grenzkosten) einer ertragsgesetzlichen Kostenfunktion
Man erhält die Grenzkostenfunktion K' durch einmaliges Ableiten der Gesamtkostenfunktion K(x).
\(\eqalign{ & K\left( x \right) = a \cdot {x^3} + b \cdot {x^2} + c \cdot x + d{\text{ mit }}a > 0;\,\,d > 0; \cr & K'\left( x \right) = 3 \cdot a \cdot {x^2} + 2 \cdot b \cdot x + c \cr} \)
Dabei fallen die Fixkosten Kf (Parameter d) weg, da sie unabhängig von der Stückzahl sind, und Konstante beim Ableiten wegfallen.
Kennt man die Grenzkostenfunktion und die Fixkosten, so kann man die ertragsgesetzliche Kostenfunktion wie folgt anschreiben:
\(K\left( x \right) = {K_v} + {K_f} = \int {K'\left( x \right)} \,\,dx + {K_f}\)
Dort wo die ertragsgesetzliche Kostenfunktion K ihren Wendepunkt hat (Kostenkehre) dort hat die u-förmig verlaufende Grenzkostenfunktion ihr Minimum. Die Grenzkostenfunktion K' muss im ganzen Definitionsbereich positiv sein.
Illustration zur Veranschaulichung der kurz- bzw. langfristigen Preisuntergrenze bei einer ertragsgesetzlichen Kostenfunktion
- Die kurzfristige Preisuntergrenze, das sind Kosten pro Stück, liegt dort wo die variable Durchschnittskostenfunktion ihr Minimum hat.
- Die langfristige Preisuntergrenze, das sind Kosten pro Stück, liegt dort, wo die Durchschnittskostenfunktion ihr Minimum hat.
Kostenkehre
Die Kostenkehre ist der Wendepunkt der ertragsgesetzlichen Kostenfunktion K(x) (an der Stelle xKK), bzw. der Tiefpunkt der Grenzkostenfunktion K'(x)
Betriebsoptimum
Das Betriebsoptimum ist zugleich die langfristige Preisuntergrenze. Es liegt bei jener Produktionsmenge x, bei der die Stückkosten minimal sind bzw die Durchschnittskostenfunktion \(\overline K (x) = \dfrac{{{K_v}\left( x \right)}}{x} + \dfrac{{{K_F}}}{x}\) ihr Minimum hat. Konstruiert wird das Betriebsoptimum als Tangente aus (0|0) an die ertragsgesetzliche Kostenfunktion. Das Betriebsoptimum errechnet sich durch Nullsetzen der 1. Ableitung der Stückkostenfunktion. Es ist das Minimum der durchschnittlichen Kosten. Das Betriebsoptimum ist in der Regel nicht ident mit dem Gewinnmaximum.
\(\begin{array}{l} \overline K \left( x \right) = \dfrac{{K\left( x \right)}}{x}\\ {\overline K ^\prime }\left( {{x_{opt}}} \right) = 0 \end{array}\)
Langfristige Preisuntergrenze
Die langfristige Preisuntergrenze liegt dort wo die Stückkosten minimal sind. Es handelt sich dabei um das Betriebsoptimum xopt . Verkauft ein Unternehmen zu einem Preis, welcher den Stückkosten im Betriebsoptimum entspricht, so deckt es seine Fixkosten und seine variablen Kosten. Wird ein höherer Preis als die langfristige Preisuntergrenze erwirtschaftet, so macht das Unternehmen Gewinn.
Betriebsminimum
Das Betriebsminimum ist zugleich die kurzfristige Preisuntergrenze. Das Betriebsminimum liegt bei jener Produktionsmenge x, bei der die variablen Durchschnittskosten \(\overline {{K_v}} = \dfrac{{{K_v}\left( x \right)}}{x}\) minimal sind. Konstruiert wird das Betriebsminimum als Tangente aus (0|Fixkosten) bzw. (0|d) an die ertragsgesetzliche Kostenfunktion. Rechnerisch bestimmt man xmin durch Ableiten und Nullsetzen des variablen Anteils von der Stückkostenfunktion.
\(\begin{array}{l} \overline {{K_v}} \left( x \right) = \dfrac{{{K_v}\left( x \right)}}{x}\\ {\overline {{K_v}} ^\prime }\left( {{x_{\min }}} \right) = 0 \end{array}\)
Kurzfristige (absolute) Preisuntergrenze
Die kurzfristige Preisuntergrenze entspricht den Stückkosten im Betriebsminimum xmin . Sie liegt dort wo die variablen Durchschnittskosten \(\overline {{K_v}} = \dfrac{{{K_v}\left( x \right)}}{x}\) ihr Minimum haben. Verkauft ein Unternehmen zu einem Preis, welcher den Stückkosten im Betriebsminimum entspricht, so deckt es seine Fixkosten nicht und das Unternehmen macht Verluste. Die Verluste sind gleich hoch, als ob das Unternehmen gar nichts produzieren würde. Das macht nur Sinn, um kurzfristig Marktanteile zu halten. Wird hingegen ein höherer Preis als die kurzfristige Preisuntergrenze erwirtschaftet, so entsteht ein Deckungsbeitrag für die Fixkosten.
Die nachfolgende Illustration veranschaulicht diese Zusammenhänge
Preisfunktionen von Angebot bzw. Nachfrage
Die Preisfunktion beschreibt den erzielbaren Preis pro Stück. Der Preis pro Stück stellt dabei ein Gleichgewicht zwischen der nachgefragten und der angebotenen Menge dar, wobei dieser Ausgleich am besten in Märkten mit vollständiger Konkurrenz erfolgen kann. Der Preis ist dabei eine Bewertung in Geldeinheiten für die Knappheit eines Gutes. Anbieterseitig lenkt der Preis die produzierte Menge, nachfragerseitig lenkt der Preis die konsumierte Menge des Produkts.
\(P\left( x \right) = \dfrac{{E\left( x \right)}}{x}\)
- Die Preisfunktion der Nachfrage gibt den Zusammenhang zwischen dem Preis eines Gutes und der nachgefragten Menge an. Steigt die Nachfrage, so wird das Gut zunächst seltener und es steigt der Preis.
\({p_N}\left( x \right) = \dfrac{{E\left( x \right)}}{x}\) - Die Preisfunktion des Angebots gibt den Zusammenhang zwischen dem Preis eines Gutes und der angebotenen Menge an. Steigt der Preis so wird von den Anbietern mehr von dem Gut produziert wodurch größere Mengen verfügbar werden und der Preis sinkt.
- Im Marktgleichgewicht stimmen die angebotene und die nachgefragte Menge überein.
Preisfunktion der Nachfrage bzw. Preis-Absatzfunktion
Die Preisfunktion der Nachfrage gibt den Zusammenhang zwischen dem Preis p eines Gutes und der nachgefragten (=abgesetzten) Menge xN an.
\({p_N} = {p_N}\left( x \right)\) ... Preis pro Mengeneinheit, in Abhängigkeit von der nachgefragten Menge
Im Allgemeinen ist die Preisfunktion der Nachfrage streng monoton fallend. (Hoher Preis → geringe Nachfrage)
- Der Prohibitivpreis bzw. Höchstpreis pH ist jener Preis, bei dem die nachgefragte Menge Null wird \({p_N}\left( {x = 0} \right) = {p_H}\), weil niemand mehr bereit ist, zu einem so hohen Preis eine Produktionseinheit zu kaufen. Der Prohibitivpreis heißt daher auch Höchst- oder Maximalpreis.
- Die Sättigungsmenge xS ist jene Menge, wo auch zum Preis Null nicht mehr Produkteinheiten am Markt nachgefragt werden \({p_N}\left( {{x_S}} \right) = 0\), weil es keinen weiteren Bedarf gibt, selbst wenn das Produkt verschenkt wird. Grafisch handelt es sich um den Schnittpunkt der Preis-Absatzkurve mit der x bzw. Mengenachse. Die Sättigungsmenge ist also die Nullstelle der Preis-Absatz-Funktion. Nicht jede Preis-Absatzfunktion muss auch eine Nullstelle haben.
Nachfragefunktion
Die Nachfragefunktion ist die Inverse der Preis-Absatzfunktion.
\({x_N} = x_N\left( p \right)\) ... Menge in der ein Gut nachgefragt wird, in Abhängigkeit vom Preis
Die Funktion ist monoton fallend, denn ein tiefer Preis führt zu einer hohen Nachfrage und umgekehrt. In der Praxis hat die Nachfragefunktion Unstetigkeitsstellen, denn die Nachfrage ist bei einem Preis von 9,99 € mitunter aus psychologischen Gründen größer als bei einem Preis von 10,01 €, obwohl de facto kein Preisunterschied besteht.
Die nachfolgende Illustration veranschaulicht die Zusammenhänge p=p(x) bzw. von x=x(p) - es handelt sich ja um den selben Funktionsgraph:
Preiselastizität der Nachfrage
Die Preiselastizität der Nachfrage ist ein Maß (ein sogenanntes Reagibilitätsmaß) dafür, um wie viele Prozent sich die Nachfrage der Konsumenten ändert, wenn sich der Preis um einen bestimmten Prozentsatz ändert. Die Elastizität ist somit neben der relativen Änderungsrate und der momentanen Änderung (1. Ableitung) ein Maß dafür, wie sich eine Funktion innerhalb eines Intervalls ändert.
Die mathematische Definition im Falle einer differenzierbaren Nachfragefunktion lautet:
\(\varepsilon \left( x \right) = \dfrac{{{p_N}^\prime \left( x \right)}}{{{p_N}\left( x \right)}} \cdot x\)
Mikroökonomische Definition der Preiselastizität:
\({\varepsilon _N} = \dfrac{{\dfrac{{\Delta {x_N}}}{{{x_N}}}}}{{\dfrac{{\Delta p}}{p}}} = \dfrac{{{\text{relative Mengenänderung}}}}{{{\text{relative Preisänderung}}}}\)
Da die Nachfragefunktion \({p_N}\left( x \right)\) eine fallende Funktion, also k<0 ist, gilt
- die 1. Ableitung \({p_N}^\prime \left( x \right)\) ist negativ
- die Elastizität \(\varepsilon \left( x \right) < 0\) ist ebenfalls negativ, höchstens Null
In der nachfolgenden Übersicht verwenden wir daher nicht das negative \(\varepsilon \) sondern dessen Betrag \(\left| \varepsilon \right|\)
\(\left| \varepsilon \right| = 0\) | vollkommen unelastische Nachfrage | Eine Preisänderung von \( \pm x\% \) bewirkt keine Änderung der Nachfrage |
\(\left| \varepsilon \right| < 1\) | Preisunelastische Nachfrage | Eine Preisänderung von \( \pm x\% \) bewirkt eine unterproportionale Änderung der Nachfrage um \( \mp y\% \) mit x>y Eine Preissenkung führt zu einer Absatzerhöhung aber zu einer Gewinnreduktion Für den optimalen Gewinn ist eine Preiserhöhung notwendig |
\(\left| \varepsilon \right| = 1\) | proportional elastische Nachfrage | Eine Preisänderung von \( \pm x\% \) bewirkt eine Änderung der Nachfrage um \( \mp x\% \) Umsatzmaximaler Preis |
\(\left| \varepsilon \right| > 1\) | Preiselastische Nachfrage | Eine Preisänderung von \( \pm x\% \) bewirkt eine überproportionale Änderung der Nachfrage um \( \mp y\% \) mit x<y Eine Preissenkung führt zu einer Absatzerhöhung und Gewinnerhöhung |
\(\left| \varepsilon \right| = \infty \) | vollkommen elastische Nachfrage | Eine kleine Preisänderung bewirkt eine ganz erhebliche Änderung der Nachfrage |
Illustration zur Veranschaulichung von preiselastischer bzw. preisunelastischer Nachfrage
Beispiel:
Preiselastizität 1,5 → 1,5>1 → Preiselastische Nachfrage ⇔ überproportionale Änderung der Nachfrage
- Eine Preissteigerung um 10% bewirkt einen Absatzrückgang um \((10\% \cdot 1,5 = )15\% \)
- Eine Preissenkung um 10% bewirkt eine Absatzzuwachs um \((10\% \cdot 1,5 = )15\% \)
Preisfunktion des Angebots
Die Preisfunktion des Angebots gibt den Zusammenhang zwischen dem Preis p eines Gutes und der angebotenen Menge xA an
\({p_A} = {p_A}\left( x \right)\) ... Preis pro Mengeneinheit, in Abhängigkeit von der angebotenen Menge
Im allgemeinen ist die Preisfunktion des Angebots streng monoton steigend. (Hoher Preis → hohes Angebot)
Mindestpreis
Der Mindestpreis pMin ist jene Preisuntergrenze, bei der sich erstmals ein Anbieter findet um das Produkt auf den Markt zu bringen.
Angebotsfunktion
Die Angebotsfunktion gibt die Menge in der ein Gut angeboten wird in Abhängigkeit vom Preis an
\({x_A} = x_A\left( p \right)\) ... Menge in der ein Gut angeboten wird, in Abhängigkeit vom Preis
In der Regel handelt es sich um eine monoton steigende Funktion. Es erfordert einen bestimmten Mindestpreis, damit Anbieter anfangen ihre Produkte zu verkaufen. Der Mindestpreis ergibt sich aus den Herstellkosten HK und einer Vertriebsspanne VSP, die der Verkäufer erzielen will. Je höher der erzielbare Preis, umso mehr Anbieter bringen eine immer größere Menge auf den Markt. Zufolge des so entstehenden Überangebots reduziert sich der Preis wieder, da die Verbraucher nicht mehr entsprechend nachfragen und Anbieter wieder aus dem Markt aussteigen.
Illustration zum Auffinden des Marktgleichgewichts
Marktgleichgewicht
Im Marktgleichgewicht stimmen die angebotene und die nachgefragte Menge überein. Es gibt keine Über- und keine Unterversorgung.
\({p_A}\left( x \right) = {p_N}\left( x \right)\)
Gleichgewichtspreis
Der Gleichgewichtspreis ist jener Preis, bei dem die nachgefragte und die angebotene Menge auf einem vollkommenen Markt genau übereinstimmen. Es kommt zu keinem Nachfrage- oder Angebotsüberschuss.
Marktpreis ist gleich Gleichgewichtspreis
Die Nachfrager können genau jene Menge kaufen, die sie beim Gleichgewichtspreis kaufen wollen. Die Anbieter können genau jene Menge produzieren und verkaufen, die sie beim Gleichgewichtspreis verkaufen wollen. Es kommt zu keinem Nachfrage- oder Angebotsüberschuss.
Marktpreis ist ungleich Gleichgewichtspreis
Bei einem vom Gleichgewichtspreis abweichendem Preis gibt es entweder eine Übernachfrage (=Unterangebot) oder ein Überangebot.
- Preisobergrenze liegt über dem Gleichgewichtspreis → Überangebot
Es entsteht ein Überangebot am Markt. Die Preisobergrenze wirkt nicht als Schutz der Nachfrager, da sie weit über und nicht unter dem Gleichgewichtspreis liegt. Die Preisobergrenze wird als nicht bindend bezeichnet, wenn sie über dem Gleichgewichtspreis liegt.
Preisobergrenzen bzw. Höchstpreise dienen dem Schutz der Nachfrager vor zu hohen Preisen. Sie führen zu einem Nachfrageüberschuss und zu Warteschlangen vor den Geschäften, da die Produzenten keine wirtschaftliche Motivation haben, zu investieren oder mehr zu produzieren. Dies führt langfristig dazu, dass der Nachfrageüberschuss immer größer wird und immer mehr Konsumenten das begehrte Produkt mangels Angebot nicht mehr kaufen können.
- Preisobergrenze liegt unter dem Gleichgewichtspreis → Übernachfrage bzw. Unterangebot
Es entsteht ein Unterangebot am Markt.
Preisuntergrenzen bzw. Mindestpreise dienen dem Schutz der Anbieter vor Preisdumping durch den Mitbewerber und führen zu Angebotsüberschüssen. Die Preisobergrenze wird als bindend bezeichnet, wenn sie unter dem Gleichgewichtspreis liegt.
Eine Gegenmaßnahme ist die Kontingentierung, d.h. die Angebotsmenge wird durch einen Regulator beschränkt, sodass weniger Produkte auf den Markt kommen.
- Preisuntergrenze liegt über dem Gleichgewichtspreis → Angebotsüberschuss
Liegen etwa die Löhne über dem Gleichgewichtspreis, so bieten immer mehr Arbeitnehmer ihre Arbeitsleistung am Markt an. Auf Grund der hohen Löhne sind aber weniger Arbeitgeber als beim Gleichgewichtspreis (-lohn) bereit, so viele Arbeitnehmer einzustellen. Es kommt zu Arbeitern ohne Arbeit, also zu Arbeitslosigkeit.
- Preisuntergrenze liegt unter dem Gleichgewichtspreis → Unterangebot
Liegen etwa die Löhne unter dem Gleichgewichtspreis, so bieten immer weniger Arbeitnehmer ihre Arbeitsleistung am Markt an. Auf Grund der niederen Löhne sind immer mehr Arbeitgeber an zusätzlichen Arbeitnehmern interessiert, die sie am Arbeitsmarkt nicht finden, wodurch offene unbesetzte Stellen entstehen. Es gibt mehr freie Stellen, als zu dem niederen Lohn (=Preis) besetzt werden können.
Beispiel: Die Nachfrage- (Demand)- und Angebotsfunktionen (Supply) nach einer Dienstleistung sind gegeben durch:
\(\eqalign{ & {Q_D} = 1200 - 2p \cr & {Q_S} = 1100 + 2p \cr} \)
Wir formulieren die gegebenen Gleichungen so um, dass der Preis p eine Funktion der Menge x ist. Damit wird, so wie wir es gewohnt sind, der Preis auf der y-Achse und die Menge auf der x-Achse dargestellt.
\( \eqalign{ & {Q_D} = 1200 - 2p \to {p_D} = 600 - 0,5 \cdot x \cr & {Q_S} = 1100 + 2p \to {p_S} = - 550 + 0,5 \cdot x \cr} \)
Anmerkung: Würden wir diese Umformung nicht machen, käme natürlich das selbe Resultat heraus, es würden lediglich auf der x-Achse der Preis und auf der y-Achse die Menge dargestellt werden.
Nun setzen wir die beiden Gleichungen einander gleich, um die Gleichgewichtsmenge zu bestimmen:
\(\eqalign{ & 600 - 0,5 \cdot x = - 550 + 0,5 \cdot x \cr & 1150 = x \cr} \)
Im Preis, bei dem sich das Marktgleichgewicht einstellt, stimmen die angebotene Menge und die nachgefragte Menge überein. Diese Gleichgewichtsmenge kennen wir gemäß x=1150, daher bestimmen wir noch den Gleichgewichtspreis, indem wir in die Preis-Absatzkurve bzw. die Angebotsfunktion einsetzen. Es kommt jedes Mal der idente Gleichgewichtspreis von 25 GE heraus:
\(\eqalign{ & x = 1150 \cr & \cr & {p_D}\left( {x = 1150} \right) = 600 - 0,5 \cdot 1150 = 600 - 575 = 25 \cr & {p_S}\left( {x = 1150} \right) = - 550 + 0,5 \cdot 1150 = - 550 + 575 = 25 \cr & \cr & {p_D} = {p_S} = 25 \cr} \)
Bei einem Preis von 25 Geldeinheiten wird eine Menge von 1150 Dienstleistungseinheiten nachgefragt. Es gibt keine Über- oder Unterversorgung.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Zinsrechnung
Die Zinsrechnung ist eine Anwendung der Prozentrechnung.
Prozentrechnung | Zinsrechnung |
Prozentsatz p, Prozentueller Anteil vom Prozentwert am Grundwert |
Zinssatz p, Prozentueller Anteil vom Prozentwert am Kapital |
Prozentwert P, Anteil am Grundwert |
Zinsen Z, Anteil am Grundwert |
Grundwert G | Kapital K |
\({\text{Prozentsatz = }}\dfrac{{{\text{Prozentwert}}}}{{{\text{Grundwert}}}} \cdot 100\% \) | \({\text{Zinssatz = }}\dfrac{{{\text{Zinsen}}}}{{{\text{Kapital}}}} \cdot 100\% \) |
Gläubiger
Unter einem Gläubiger versteht man eine natürliche oder juristische Person (Kreditunternehmen) welche einer anderen natürlichen oder juristischen Person, dem Schuldner, temporär Kapital zur Verfügung stellt.
Schuldner
Unter einem Schuldner versteht man eine natürliche oder juristische Person, die von einer anderen natürlichen oder juristischen Person, dem Gläubiger, temporär Kapital gegen Zahlung einer Überlassungsgebühr, den Zinsen, leiht.
Kapital
Das Kapital ist jener Geldbetrag, den ein Kreditgeber einem Kreditnehmer gegen Bezahlung von Zinsen am Anfang der Verzinsungsperiode überlässt.
\(K = \dfrac{Z}{p} \cdot 100\% \)
Zinssatz
Der Zinssatz ist ein in Prozent ausgedrücktes Entgelt für den Kreditgeber, damit dieser temporär auf Liquidität zu Gunsten des Kreditnehmers verzichtet. Für den Zinssatz p gilt üblicherweise: \(0 \leqslant p \leqslant 1\). Der Zinssatz bezieht sich immer auf einen bestimmten Zeitraum, welcher Verzinsungsperiode genannt wird. Eines negativen Zinssatzes bedient man sich, wenn man Bankguthaben für Anleger unattraktiv machen möchte, etwa um sie zu motivieren in andere Anlageformen (Aktien) zu investieren.
\(p = \dfrac{Z}{K} \cdot 100\% \)
Zinsen
Die Zinsen sind ein in Geldeinheiten (€, $,..) ausgedrückter Preis für die Überlassung von Kapital vom Kreditgeber an den Kreditnehmer. Der Kreditgeber verzichtet temporär auf Liquidität und erhält den Zins als Entschädigung für das Risiko, das eingesetzte Kapital nicht vollständig vom Schuldner zurück zu erhalten.
\(Z = K \cdot \dfrac{p}{{100\% }}\)
Zinseszinsen
Zinseszinsen sind Zinsen auf Zinsen. Die Zinsen aus der ersten Zinsperiode werden dem Kapital zugeschlagen und zukünftig mitverzinst.
Zinsperiode
Zinsen werden zu bestimmten Terminen zur Zahlung fällig. Die zeitliche Differenz zweier aufeinanderfolgender Zinszahlungstermine bezeichnet man als Zinsperiode. Übliche Zinsperioden sind ein Jahr oder ein Quartal, also alle drei Monate bzw. viermal im Jahr.
Verzinsungsmodelle
Bei den verschiedenen Verzinsungsmodellen sind immer Geldzahlungen, Zahlungszeitpunkt bzw. Verzinsungsperioden sowie der Zinssatz von zentraler Bedeutung.
Es werden 2 verschiedene Verzinsungsmodelle unterschieden
- Bei der einfachen Verzinsung werden die Zinsen einmalig für die gesamte Laufzeit vom Anfangskapital K0 berechnet. Es wird daher nur das Angangskapital verzinst, die Zinsen selbst werden nicht verzinst.
- Bei der Verzinsung mit Zinseszinsen werden die anfallenden Zinsen am Ende der jeweiligen Verzinsungsperiode dem Kapital zugeschlagen und fortan ebenfalls der Verzinsung unterworfen. Verbreitete Verzinsungsperioden sind die jährliche, die quartalsweise und die kontinuierliche Verzinsung.
Erlösfunktion
Die Erlösfunktion (auch Umsatz- bzw. Ertragsfunktion), gibt den Erlös E (oft auch R für revenue) in Abhängigkeit von der abgesetzten Menge x an.
\(E\left( x \right) = p\left( x \right) \cdot x\)
In der Erlösfunktion ist der erzielbare Preis p(x) abhängig von der absetzbaren Menge x. Man kann daher ohne weiteres Wissen nichts über den Verlauf der Erlösfunktion aussagen. Aber eines gilt immer: Wenn man nichts produziert, kann man auch nichts verkaufen und somit nichts erlösen. Dh alle Erlösfunktionen müssen bei x=0 Null sein, also E(0)=0
Illustration von der Erlösfunktion und vom Grenzerlös
Ist die abgesetzte Menge null, dann ist auch der Erlös null. Bei geringer Angebotsmenge steigen die erzielbaren Preise und somit auch die Erlöse, bis bei weiter steigender Angebotsmenge zufolge eines Angebotsüberschusses die Preise und somit die Erlöse wieder zu sinken beginnen. Ist letztlich bei der Sättigungsmenge der erzielbare Preis null, so wird auch der Erlös ein zweites Mal zu null. Produziert man über die Sättigungsmenge hinaus, so wird der Erlös negativ.
Erlös bzw. Umsatz:
Der Erlös errechnet sich als Produkt vom Verkaufspreis mal der Anzahl der verkauften Mengeneinheiten.
Erlösfunktion bei vollständiger Konkurrenz
In der Erlösfunktion ist der erzielbare Preis abhängig von der absetzbaren Menge. In einem Polypol, wo viele Anbieter vielen Abnehmern gegenüber stehen, sodass niemand die Marktmacht hat, den Marktpreis wesentlich zu beeinflussen, ist der erzielbare Preis jedoch eine Konstante, also unabhängig von der absetzbaren Menge. Da bei vollständiger Konkurrenz der Marktpreis unbeeinflussbar ist, muss jeder Anbieter die von ihm angebotene Menge anpassen.
\(E\left( x \right) = R\left( x \right) = p \cdot x\)
Illustration von der Erlösfunktion und vom Grenzerlös bei vollständiger Konkurrenz, also bei konstantem weil mengenunabhängigem Preis
Bei konstantem Verkaufspreisen steigt der Erlös linear mit der abgesetzten Menge an. Der Grenzerlös, er ist die 1. Ableitung der linearen Erlösfunktion, ist eine Parallele zur x-Achse im Abstand p.
Die Erlösfunktion bei einem monopolistischen Anbieter
In der Erlösfunktion ist der erzielbare Preis abhängig von der absetzbaren Menge. In einem Monopol, wo ein einziger Anbieter den Preis und die angebotene Menge einseitig bestimmen kann, wird der Monopolist genau jene Menge anbieten, für die er den gewinnmaximalen Preis erzielt. Den Monopolisten bezeichnet man daher als "Mengenfixierer". Er gibt die angebotene Menge vor, somit ergibt sich der zugehörige Preis, den die Abnehmer bereit sind zu bezahlen.
\(E\left( x \right) = {p_N}\left( x \right) \cdot x\)
Grenzerlös
Der Grenzerlös ist der Erlöszuwachs, der aus dem Verkauf einer zusätzlichen marginal kleinen Mengeneinheit (dx) resultiert. Der Erlös ist dort maximal, wo der Grenzerlös null ist. An der Stelle wo der Grenzerlös null wird, liegt die optimale Produktionsmenge, bei welcher der maximale Ertrag erwirtschaftet wird.
\(E'\left( x \right) = \dfrac{{dE\left( x \right)}}{{\operatorname{dx} }}\)
Beispiel:
Gegeben ist die Umsatz- bzw. Erlösfunktion
\(E\left( x \right) = 540 \cdot x - {x^2}\)
Gesucht sind die optimale Produktionsmenge und der sich einstellende Preis und der zugehörige Gesamterlös!
\(\eqalign{
& E\left( x \right) = 540 \cdot x - {x^2} \cr
& 540 \cdot x - {x^2} = 0 \cr
& {x_1} = 0 \cr
& {x_2} = 540 \cr} \)
Die Erlösfunktion ist zwischen 0 und 540 Stück positiv. Bei 540 Stück liegt die Sättigungsmenge. Werden mehr Stück produziert, dann wird der Erlös negativ. Der Erlös ist dort maximal, wo der Grenzerlös E‘(x) null ist:
\(\eqalign{
& E'\left( x \right) = 540 - 2 \cdot x \cr
& E'\left( x \right) = 0 \cr
& 540 - 2 \cdot x = 0 \cr
& 540 = 2 \cdot x \cr
& x = \frac{{540}}{2} = 270 \cr} \)
Die optimale Produktionsenge beträgt 270 Stück.
\(\eqalign{
& E(x = 270) = 540 \cdot 270 - {270^2} = 72.900 \cr
& p\left( x \right) = \frac{{E\left( x \right)}}{x} = \frac{{72.900}}{{270}} = 270 \cr} \)
Dabei ergibt sich Gesamterlös von 72.900 Geldeinheiten und ein Preis von 270 Geldeinheiten pro Stück
Wenn die Produktionseinschränkungen durch Ungleichungen gegeben sind, die den zulässigen Lösungsbereich umfassen, dann liegt die optimale Produktionsmenge im optimlaen Punkt und dieser liegt dort, wo die Gerade der Zielfunktion den zulässigen Lösungsbereich berührt.
Im Fall von einem Angebotsüberschuss sinken die Preise, sodass mit jedem zusätzlich verkauften Produkt der Grenzerlös abnimmt. Wird letztlich der Grenzerlös kleiner als die Kosten der Herstellung eines zusätzlichen Produkts, dann bewirkt der zusätzliche Verkauf keine Gewinnsteigerung mehr, sondern im Gegenteil einen Verlust.
Illustration vom maximalen Ertrag
Gewinnfunktion
Der Gewinn ist die Differenz zwischen Erlösen und Kosten. Der Gewinn ist bei kleinen Stückzahlen zunächst negativ, wird beim Erreichen der Gewinnschwelle positiv und wird bei einer großen Stückzahl ab der Gewinngrenze wieder negativ.
\(G\left( x \right) = E\left( x \right) - K\left( x \right)\)
Grenzgewinn
Der Grenzgewinn ist jener Gewinn, der für eine zusätzliche, marginal kleine (dx), abgesetzte Produktmenge erzielt werden kann.
\(G'\left( x \right) = \dfrac{{dG\left( x \right)}}{{\operatorname{dx} }}\)
Break-Even-Point, Gewinnschwelle
Als Break-Even-Point, auch Gewinnschwelle genannt, bezeichnet man jenen Punkt an dem Kosten und Erträge gleich hoch sind. Erzielt ein Unternehmen einen höheren Ertrag liegt es in der Gewinnzone, bei einem niedrigeren Ertrag macht es Verluste.
\(\eqalign{ & G\left( x \right) = 0 \cr & E\left( x \right) = K\left( x \right) \cr} \)
Den Break-Even-Point ermittelt man, in dem man:
- die 1. Nullstelle der Gewinnfunktion ermittelt.
- als den 1. Schnittpunkt aus Erlös- und Kostenfunktion
Zur Ermittlung vom Break-Even-Point muss man
- die Fixkosten, die variablen Kosten und den Deckungsbeitrag kennen. Dividiert man die Fixkosten durch den Deckungsbeitrag erhält man die Mindestumsatzmenge.
\(\eqalign{ & x \cdot p = x \cdot {K_v} + {K_f} \cr & x = \dfrac{{{K_f}}}{{p - {K_v}}} = \dfrac{{{K_f}}}{{DB}} \cr} \)
Gewinnzone
Die Gewinnzone erhält man, wenn man G(x)=0 setzt.
- 1. Nullstelle der Gewinnfunktion: Gewinnschwelle bzw. Break-Even-Point: Erstmals wird ein positiver Gewinn wird erzielt, sobald der Erlös die Gesamtkosten übersteigt. Die Gewinnschwelle liegt im 1. Schnittpunkt von Erlös- und Kostenfunktion
- Hochpunkt der Gewinnfunktion: Gewinnmaximum Gmax: Das Gewinnmaximum wird bei jener Produktionsmenge erreicht, bei der der Hochpunkt der Gewinnfunktion liegt. Mathematisch ist das jene Stelle an der die 1. Ableitung der Gewinnfunktion ihre Nullstelle hat.
- 2. Nullstelle der Gewinnfunktion: Gewinngrenze : Bei großen Produktionsmengen steigen die Kosten überproportional an und übertreffen die Erlöse, wodurch aus dem Gewinn ein Verlust wird. Dies ist bedingt durch den s-förmigen Verlauf der ertragsgesetzlichen Kostenfunktion. Die Gewinngrenze liegt im 2. Schnittpunkt von Erlös- und Kostenfunktion.
Illustration der Gewinnzone
Cournot’scher Punkt
Der Cournot’sche Punkt ist jener Punkt auf der Gewinn-Funktion bei dem sich das Gewinnmaximum befindet. Die Gewinnfunktion ergibt sich als die Differenz von der Erlös- und der Kostenfunktion
\(G\left( x \right) = E\left( x \right) - K\left( x \right)\)
Man bestimmt daher die Nullstelle der 1. Ableitung der Gewinnfunktion.
- x-Koordinate: Jene Produktionsmenge, bei der das Gewinnmaximum liegt
- y-Koordinate: Preis bei gewinnmaximaler Produktionsmenge
Anmerkung: Ein Unternehmen im Wettbewerb hat auf den Preis keinen Einfluss, es muss den Gleichgewichtspreis (Angebot und Nachfrage) als gegeben akzeptieren. Für einen Monopolisten ist der Cournot'sche Punkt jene Preis-Mengen Kombination für die der Gewinn maximal ist.
Gewinnmaximum eines Monopolisten
Der Gewinn eines Monopolisten hat bei einer linearen Preis-Absatzfunktion dann sein Maximum, wenn er die halbe Sättigungsmenge zum halben Prohibitivpreis anbietet.
\(C\left( {\dfrac{{{x_C}}}{{p\left( {{x_C}} \right)}}} \right){\text{ sodass }}G\left( x \right) = \max \)
Im Cournot’schen Punkt sind Grenzkosten und Grenzerlöse gleich.
\(K'\left( x \right) = E'\left( x \right)\)
Mathematik Lernen mit Computer Algebra Systemen
Computer-Algebra-Systeme (CAS) sind Softwareprogramme, welche die symbolische oder numerische Berechnung mathematischer Aufgabenstellungen ermöglichen.
- Bei der symbolischen Berechnung werden mathematische Ausdrücke so umgeformt oder berechnet bis ein exaktes allgemeingültiges Resultat vorliegt, ohne dass dabei für die Variablen konkrete Werte eingesetzt werden.
- Bei der numerischen Berechnung wird die (näherungsweise) Lösung eines mathematischen Ausdrucks durch schrittweise Annäherung anhand spezifischer numerischer Werte iterativ ermittelt. Es werden dabei konkrete Zahlen für die Variablen eingesetzt und die resultierenden Ausdrücke ausgewertet. Auf die sehr rechenintensive numerische Berechnung greift man zurück, wenn eine symbolische Berechnung nicht sinnvoll möglich ist.
Beliebte Computer-Algebra-Systeme
Die nachfolgenden Computer-Algebra-Systeme werden in verschiedenen Bereichen eingesetzt, darunter Mathematik, Physik, Ingenieurwesen, Informatik und Bildung. Sie helfen Forschern, Wissenschaftlern, Ingenieuren und Studenten bei der Durchführung komplexer Berechnungen, der Erforschung mathematischer Konzepte und der Lösung komplizierter mathematischer Probleme.
Bei den oben genannten CAS handelt es sich um kommerzielle Software deren Vollversion auf Grund der Anschaffungskosten für Nutzer mit begrenzten Budgets kaum zugänglich sind. Die Software ist nicht für ad-hoc Einsätze gedacht, da sie eine umfangreiche Einarbeitung erfordern.
Wolfram Alpha (Pro)
Wolfram Alpha ist eine kostenlose Website, welche einzelne Suchabfragen basierend auf kuratierten Daten und CAS-Funktionalität miteinander verbindet. Die Benutzeroberfläche weist einen Suchslot auf, in den man die jeweilige Abfrage, losgelöst von vorherigen Abfragen, entweder in englischer natürlicher Sprache oder als mathematischen Term gemäß der Wolfram-Language eingibt. Die Ausgabe erfolgt als Set von strukturierten Daten.
Die Basisversion Wolfram Alpha ist kostenlos, die Pro Version bietet zusätzlich Schritt-für-Schritt Lösungen, ermöglicht Downloads und verfügt über einen Aufgaben-Generator, ist jedoch kostenpflichtig.
Wolfram Alpha Notebook Edition
Wolfram Alpha Notebook Edition ist kostenpflichtig als Desktop- bzw. als Online-Variante verfügbar. Die Alpha Notebook Edition ist als separates Produkt und als Teil von Mathematica erhältlich. Die Wolfram Alpha Notebook Edition erweitert die Funktionalität von Wolfram Alpha Pro, indem es aufeinander aufbauende Verarbeitungen ermöglicht, während Alpha Pro auf eine „one-Shot“ Abfrage/Antwort limitiert ist. Die Notebook Edition basiert auf Mathematica, erlaubt aber weitgehend eine Eingabe in englischer natürlicher Sprache, dh man muss die Wolfram-Language nicht unbedingt beherrschen.
Mathematica
Mathematica wurde von Wolfram Research entwickelt und ist ein umfassendes CAS, das eine breite Palette an mathematischen und rechnerischen Fähigkeiten speziell für symbolische Berechnungen bietet. Wolfram Mathematica ist kostenpflichtig als Desktop- bzw. als Online-Variante verfügbar. Mathematica ist eine professionelle Software für Mathematik auf Universitäts-Niveau und erfordert einiges an Einarbeitungszeit.
Maple
Maple ist ein leistungsstarkes CAS, das von Maplesoft entwickelt wurde. Es bietet umfangreiche Werkzeuge für symbolische Berechnungen, mathematische Visualisierung und Programmierung.
MATLAB
MATLAB ist in erster Linie als numerische Rechenumgebung bekannt, umfasst aber über seine Symbolic Math Toolbox auch Funktionen für symbolische Berechnungen. Es kann durch Simulink ergänzt werden, welches speziell zur Modellierung von technischen, physikalischen oder finanzmathematischen Aufgabenstellungen optimiert ist.
Beliebte Programmiersprachen für numerische Berechnungen
Python
Python als eine weit verbreitete und lizenzlos zugängliche Programmiersprache, die sich leicht erlernen und für numerische Berechnungen verwenden lässt, speziell um große Datenmengen zu sammeln, zu strukturieren, zu analysieren und zu visualisieren. NumPy- und SciPy-Bibliotheken bieten einen umfangreichen Satz numerischer Funktionen und Algorithmen, einschließlich linearer Algebra, Optimierung, Interpolation und mehr. Bei rechenintensiven Aufgaben kann Python im Vergleich zu kompilierten Sprachen langsamer sein. Obwohl NumPy und SciPy leistungsstark sind, bieten sie möglicherweise nicht das gleiche Leistungsniveau wie spezialisierte numerische CAS-Systeme
R
R ist eine beliebte Sprache für statistische Berechnungen und Datenanalysen mit umfangreichen Paketen und Bibliotheken. Es bietet eine breite Palette an Statistikfunktionen und Visualisierungsmöglichkeiten. R verfügt über eine starke Community und eine Fülle an Ressourcen zum Lernen und zur Unterstützung. Für allgemeine numerische Berechnungen, die über Statistik und Datenanalyse hinausgehen, ist R möglicherweise nicht so gut geeignet wie spezialisierte numerische CAS-Systeme.
Beliebte Computer-Algebra-Systeme für ad-hoc Einsätze
GeoGebra
GeoGebra ist vor allem als dynamische Mathematiksoftware bekannt, die verschiedene mathematische Darstellungen integriert, darunter Geometrie, Algebra, Analysis und Statistik. Es bietet Benutzern eine Plattform zum Erstellen und Bearbeiten geometrischer Objekte, zum Plotten von Funktionen und zum Durchführen symbolischer Berechnungen mithilfe des integrierten CAS. GeoGebra legt Wert auf interaktives Lernen und Visualisierung und ist daher bei Pädagogen und Studenten beliebt.
Mit den CAS-Funktionen von GeoGebra können Benutzer symbolische Berechnungen durchführen, beispielsweise Ausdrücke vereinfachen, Gleichungen lösen, Ableitungen finden und Integrale auswerten. Allerdings ist die CAS-Funktionalität im Vergleich zu dedizierten CAS-Tools eingeschränkt. Auch die Möglichkeiten komplexe numerische Berechnungen durchzuführen können auf Grund der zugrundeliegenden Spezialisierung nicht mit Wolfram Alpha oder Wolfram Mathematik mithalten. GeoGebra‘s CAS ist in eine umfassenderen mathematischen Visualisierungs- und Explorationsfunktionen integriert und ermöglicht es Benutzern, symbolische Berechnungen mit dynamischen geometrischen Konstruktionen und Visualisierungen zu verbinden.
Wolfram Alpha als CAS
Wolfram Alpha ist eine rechnergestützte Wissensmaschine, die darauf ausgelegt ist, Fragen zu beantworten und detaillierte Informationen zu einem breiten Themenspektrum bereitzustellen. Es beinhaltet ein leistungsstarkes CAS, das über traditionelle mathematische Berechnungen hinausgeht und ein breites Spektrum an Bereichen abdeckt, darunter Mathematik, Naturwissenschaften, Ingenieurwesen, Finanzen, Linguistik und mehr. Wolfram Alpha kann komplexe mathematische Operationen verarbeiten, sein Anwendungsbereich geht jedoch weit über die reine Mathematik hinaus.
Das CAS von Wolfram Alpha kann anspruchsvolle Berechnungen durchführen, die symbolische Manipulation, Gleichungslösung, Analysis, lineare Algebra, Statistik und mehr umfassen. Es bietet umfassendes integriertes Wissen und Algorithmen, die es ihm ermöglichen, komplexe Probleme in verschiedenen Disziplinen zu lösen. Im Gegensatz zu GeoGebra konzentriert sich Wolfram Alpha in erster Linie auf die Bereitstellung detaillierter Antworten und Erklärungen auf der Grundlage von Benutzeranfragen und nicht auf interaktive Erkundungen oder dynamische Visualisierungen.
Zusammenfassend lässt sich sagen, dass sowohl GeoGebra als auch Wolfram Alpha CAS-Funktionen bieten, GeoGebra sein CAS jedoch in eine umfassendere interaktive Mathematiksoftware integriert und dabei den Schwerpunkt auf visuelles Erkunden und Lernen legt. Im Gegensatz dazu ist Wolfram Alpha eine umfassende rechnerische Wissensmaschine, die neben ihren vielen Funktionen auch ein robustes CAS umfasst und als Werkzeug zum Erhalten detaillierter Antworten und Erklärungen in zahlreichen Bereichen dient.
Lernen mit Keyword basierten Suchmaschinen und organischen Treffern
Google, Bing, Yahoo oder Ecosia
Keyword basierte Suchmaschinen wie Google, Bing, Yahoo oder Ecosia durchforsten mit Hilfe eines Web-Crawlers zyklisch die ihnen zugänglichen Teile vom Internet und erstellen einen Index, der für jedes Schlüsselwort die relevanten Webseiten auflistet. Da Google 2022 einen Anteil von 95% der Suchanfragen im deutschen Sprachraum hatte, werden wir uns im Folgenden auf die Google Terminologie beschränken.
Sucht ein Nutzer der Suchmaschine nach einem bestimmten Schlüsselwort – z.B.: „Binomialkoeffizient“, werden auf der SERP (Search Engine Result Page) nach einem (geheimen) Ranking-Algorithmus aus dem Index die blauen Links auf die relevanten Webseiten ausgegeben. Man spricht dabei von organischen Suchtreffern. Klickt der Suchende den Link an, landet er auf der entsprechenden Website eines Inhalteanbieters irgendwo auf der Welt. Da mehr als ein Treffer angeboten wird, bleibt die Meinungsvielfalt gewahrt.
2012 haben die keyword-basierten Suchmaschinen bezüglich der Strukturierung von Daten aufgerüstet. Oberhalb der organischen Treffer gibt Google auf der SERP, abgesehen von bezahlter Werbung, mehrere Boxen aus, deren Inhalt von Google generiert wird. D.h. Google verlinkt nicht mehr auf externe Inhalte, sondern generiert die Inhalte selbst. Die Quellen werden möglichst unauffällig angegeben und es ist nicht die Absicht von Google, dass Nutzer zum eigentlichen Inhalteanbieter weitersurft. Der Nutzer bleibt im Ökosystem von Google und es fällt kaum mehr Traffic für externe Webseiten an, die Meinungsvielfalt bleibt auf der Strecke.
- Direkt Answer, beantwortet einfache Suchanfragen, die über ein gigantischem Suchvolumen verfügen direkt, z.B.: "km Meilen". Der Nutzer bleibt im Google Ökosystem.
- Knowledge Panel bzw. Informationen aus dem Knowledge Graph, damit werden die auf verschiedenen Webseiten gefunden Informationen automatisch von Google zusammengefasst. Die Nutzer erhalten einen schnellen Überblick über allgemeine Themen, ohne auf externe Webseiten zu surfen. Hier werden ab 2023 wohl KI generierte Texte den Nutzer noch stärker zum Verweilen im Google Ökosystem verleiten.
- Featured Snippets, damit werden Auszüge aus einer durch Favicon und URL grundsätzlich identifizierbaren externen Webseite in Form einer Antwort auf die sehr konkrete Suchanfrage zusammengefasst. Trafficstarke Featured Snippets bringen viel organischen Traffic auf die Website des Inhalte-Erstellers. Hier werden ab 2023 wohl KI generierte Texte den Nutzer noch stärker zum Verweilen im Google Ökosystem verleiten.
- People Also Ask - Boxen, damit werden ähnliche Fragen beantwortet, die für den Nutzer ohne dessen Zutun die Suchanfrage verfeinern oder leicht abwandeln.
D.h. der Nutzer erhält eine erste oberflächliche und natürlichsprachige Antwort auf seine Suchabfrage bereits direkt durch Google, und zwar ganz oben auf der Trefferseite, noch vor den organischen Treffern. Der Nutzer "erspart" es sich dadurch auf die der Antwort zugrunde liegende Website zu surfen, was den Webseiten, welche die Inhalte aufwendig erstellt haben, um die Besucher und die damit verbundenen Vermarktungsmöglichkeiten bringt. An dieser Stelle sei vor einem Informationsmonopol durch Google, Bing, Yandex und Baidu gewarnt!
Der Betrieb eines Indexers ist teuer, daher gibt es weltweit nur 4 große Suchindizes (Google und Bing aus den USA; Yandex aus Russland bzw. den Niederlanden und Baidu aus China) die auf Grund ihrer Dominanz das Potential haben, die gesellschaftliche Willensbildung zu beeinflussen. Daher fördert die EU derzeit den Aufbau eines europäischen Suchindex.
Das Training einer KI und deren Betrieb in einem Rechenzentrum sind ebenfalls sehr teuer, sodass es auch hier vor einem Informationsmonopol gewarnt werden muss.
Lernen mit wissensbasierten semantischen Suchmaschinen
Wolfram Alpha - als semantische Suchmaschine
Wissensbasierte semantische Suchmaschinen wie Wolfram Alpha suchen nicht nach einzelnen Schlüsselwörtern, sondern nach deren Bedeutung („Notable people born in Vienna“ wird zerlegt in „City=Vienna“ & „notable people born in city“) und nützten dabei durch „Data Curators“ händisch ausgewählte vertrauenswürdige Datenquellen, etwa von Statistischen Zentralämtern. Es kommt kein Indexer zum Einsatz.
Als Ausgabe erhält der Nutzer keine Links auf die Datenquellen wie bei Google, aber auch keinen Text in natürlicher Sprache wie bei ChatGPT, sondern ein Set an strukturierten Daten.
Bei der Suchfunktionalität von Wolfram Alpha handelt es sich um ein wissensbasiertes System, welches formalisierte Regeln und Logiken verwendet, um Fragen faktenbasiert zu beantworten. Der Nachteil dieses Ansatzes ist, dass die Suchmaschine komplex formulierte sprachliche Anfragen nicht verarbeiten kann und nur auf Fragen aus ausgewählten Wissenschaften eine Antwort liefern kann.
Mathematik Lernen mit KI basierten Sprachmodellen
ChatGPT, Gemini, Copilot und Claude von Anthropic
KI-basierte Sprachmodelle vom Typ LLM (Large Language Model) wie ChatGPT von OpenAI, Gemini (ehemals Bard) von Google oder Copilot von Microsoft bzw. Claude von Anthropic wurden vorab mit gigantischen Textmengen trainiert. Sie nützen neuronale Netze, um Beziehungen zwischen einzelnen Worten und Texten zu erfassen. Basierend auf Wahrscheinlichkeiten und Modellen von Wortabfolgen, erzeugen sie neue Texte und geben diese dann in natürlicher Sprache aus, sodass der Eindruck eines Gesprächs („Chat“) entsteht.
Während LLM basierte KIs einen Text schreibt, evaluiert es auf der Basis eines komplexen Sprachmodells mit Milliarden an Parametern vor jedem neuen Wort, welche Wörter mit der größten Wahrscheinlichkeit auf den bisher geschriebenen Satzteil folgen sollten um zur Fragestellung zu passen. Ziel ist es, wortweise einen sinnvollen Satz bzw. eine kontextbezogene Abfolge von Sätzen auszugeben.
Sprachbasierte generative KIs, bei der eine künstliche Intelligenz vom Typ „Large Language Model (LLM)“ mit dem Nutzer unter Zuhilfenahme einer Chatoberfläche kommuniziert, können ohne Plugin, also Schnittstellen zu einem externen CAS, grundsätzlich nicht rechnen!
Das kann sich auch so lange nicht ändern, als LLMs auf stochastischen Modellen basieren. D.h. sie erzeugen eine Wahrscheinlichkeitsverteilung von möglichen Antworten.
Die Fähigkeiten sind bei Texten über mathematische Inhalte ausreichend:
1. Beispiel: Fragt man ChatGPT: „Wofür dient der Binomialkoeffizient“ so erhält man eine brauchbare Antwort: „Der Binomialkoeffizient, oft mit dem Symbol "n über k" oder "C(n,k)" dargestellt, ist eine mathematische Funktion, die in der Kombinatorik und Wahrscheinlichkeitstheorie weit verbreitet ist. Er dient dazu, die Anzahl der Möglichkeiten zu berechnen, k Elemente aus einer Menge von n Elementen auszuwählen, ohne die Reihenfolge zu berücksichtigen… Die Berechnung des Binomialkoeffizienten erfolgt in der Regel mithilfe der Kombinatorik-Formel: \(C\left( {n,k} \right) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) = \dfrac{{n!}}{{k!\left( {n - k} \right)!}}\)
In der weiteren Antwort kommt aber auch der Begriff „Binomiales Experiment“ vor. Fragt man nach, ob ein „Binomiales Experiment“ dasselbe wie eine „Bernoulli-Kette“ ist, so verfängt sich ChatGPT in Widersprüchen ….
2. Beispiel: Fragt man ChatGPT: "Wieviel ist 1+1?“, so erhält man als Antwort jenes Resultat, das ChatGPT am häufigsten in den Daten gefunden hat, mit denen es trainiert wurde: „1+1 ergibt 2“. Und müsste eigentlich hinzufügen: „Wahrscheinlich“.
Die Fähigkeiten sind nicht ausreichend, für Rechenaufgaben, die eine exakte Antwort benötigen.
3. Beispiel: Hat ChatGPT das Resultat aber noch nie gelesen, fängt es an zu raten: „Wieviel ist \root 5 \of {147,95} =“. Die Antwort lautet „Die fünfte Wurzel von 147,95 beträgt ungefähr 2,364“, was nicht wirklich brauchbar ist, denn: \(\sqrt[5]{{147,95}} \approx 2,71658\)
4. Beispiel: (verkürzter) Dialog mit Copilot am 26.6.2024 :
- Ich: "Zeige die schwache Goldbachvermutung für die Zahl 13"
- Copilot: "Natürlich! Hier ist die Darstellung gemäß der schwachen Goldbachvermutung für die angegebene Zahl: 13=2+2+3+6; Summe von vier Primzahlen; Die schwache Goldbachvermutung besagt, dass jede ungerade Zahl größer als 5 als Summe dreier Primzahlen dargestellt werden kann. ...
- Ich: "Das ist falsch, für 13 verwendest du nicht 3 Primzahlen, sondern 4 Zahlen, wobei 6 keine Primzahl ist"
- Copilot: "Du hast absolut recht, und ich entschuldige mich für den Fehler in meiner vorherigen Antwort. Vielen Dank für die Korrektur! Lassen Sie uns die schwache Goldbachvermutung für die Zahl 13 erneut betrachten: 13=2+2+3+6; Summe von vier Primzahlen: 2, 2, 3 und 6. Vielen Dank nochmals für den Hinweis, und ich hoffe, diese Antwort ist korrekt und hilfreich!"
- Ich: "Das ist die gleiche falsche Antwort, für 13 verwendest du nicht 3 Primzahlen, sondern 4 Zahlen, wobei 6 keine Primzahl ist."
- Copilot: "Vielen Dank für deine Geduld, und ich entschuldige mich für die wiederholten Fehler in meinen vorherigen Antworten. Lassen Sie uns die schwache Goldbachvermutung für die Zahl 13 erneut betrachten: 13=2+11. Summe von zwei Primzahlen 2 und 11. Ich hoffe, diese Antwort ist korrekt und hilfreich!"
- Ich: "Leider nein!"
Was zeigt uns das Beispiel:
- Copilot sagt korrekt, dass es sich bei der schwachen Goldbachvermutung um die Summe aus 3 Primzahlen handeln muss, weil sich dieser einfache Text oft in der Literatur findet.
- Copilot nennt aber die Summe aus 4 Zahlen, von denen eine keine ("6") Primzahl ist. Später nennt es die Summe aus 2 Zahlen. Dh es versteht die Goldbachvermutung überhaupt nicht.
- Im 3. Anlauf werden 2 Primzahlen genannt. Dh das LLM kann nicht bis 3 zählen. Es versteht auch den zweifachen Hinweis nicht, dass nicht 4 sondern 3 Zahlen aufsummiert werden sollen.
- Mögliche richtige Antworten wären übrigens : 13=3+3+7 oder 13=3+5+5. Wenn Copilot diese Zeilen hier liest, gibt es in Zukunft hoffentlich eine korrekte Antwort... zumindest für die Goldbach-Zerlegung der Zahl 13.
Rechenaufgaben erfordern ein Verständnis der zugrundeliegenden Mathematik, während KIs die auf LLM basieren, Muster in Trainingsdaten erkennen und daraus, basierend auf einem Algorithmus, ein Modell parametrieren.
Stellt ein Nutzer eine Frage, versucht die KI mit Hilfe des vorab parametrieren Modells eine wahrscheinliche Antwort zu finden, ohne jegliches Verständnis der zugrundeliegenden Kausalitäten, – etwa von Gleichungen oder Formeln.
Bei den meisten Aufgabestellungen in der Schulmathematik hat der Ersteller darauf geachtet, dass ein „schönes“ Ergebnis rauskommt.
„Berechne an Hand von konkreten Zahlenbeispielen für ein rechtwinkeligen Dreieck aus den gegebenen Katheten a, b die zugehörige Hypotenuse c“. Natürlich gibt es dafür unendlich viele Zahlen-Tripel, aber es gibt nur eine Handvoll „schöner“ Tripel, also solche, bei denen die Quadratwurzel aus der Summe der beiden Quadrate zweier ganzer Zahlen wieder eine ganze Zahl ergibt. Mögliche Antworten sind :
- 3 und 4 liefern 5
- 5 und 12 liefern 13
- 6 und 8 liefern 10
- 8 und 15 liefern 17
- 7 und 24 liefern 25
- 20 und 21 liefern 29
- 9 und 40 liefern 41
- 28 und 45 liefern 53
- usw
Die Wahrscheinlichkeit, dass eine sprachbasierte generative KI, genau diese wenigen, speziellen Tripel in den Trainingsdaten findet, ist durchaus hoch, da sie sich in der Literatur bereits seit der Antike immer wieder finden.
Wir haben obige Aufgabe aber auch in Textform verfasst! Das „liegt“ einer sprachbasierten KI natürlich… Hätten wir statt dem Text eine Illustration mit einem rechtwinkeligen Dreieck verwendet, hätte die KI zunächst mit Hilfe einer Bilderkennungssoftware die Illustration in einen Text umwandeln müssen, was ausgesprochen fehleranfällig ist.
Man kann das mal anhand eines Bildes mit Midjourney und dem Befehl /describe probieren. Erst mit dieser Beschreibung kann die sprachbasierte KI im Modell mit der Suche beginnen.
Das erklärt auch, warum speziell ehemalige Maturaaufgaben zu erfolgreichen Antworten führen. Exakt diese Angaben samt korrektem Lösungsweg finden sich dutzendfach im Internet, etwa auf unserer Website.
Mehr noch: Auf maths2mind liegen sogar die zugehörigen Illustrationen im vektoriellen .svg-Format vor, in dem grafische Elemente in XML, einer durch Menschen und Maschinen lesbaren Textform, abgelegt sind.
Man könnte sagen, KIs die auf LLMs basieren, eignen sich dann zum Schummeln bei Matheaufgaben, wenn die KI selbst Schummeln kann. Denn eines kann eine sprachbasierte generative KI nicht – nämlich rechnen!
Text to "Wolfram Language“
Wir haben bisher immer wieder betont, eine „sprachbasierte generative KI“ kann nicht rechnen. Natürlich hat sich dafür auch schon ein „Workaround“ gefunden. „Plugins“ wie etwa „Wolfram GPT“ übersetzen den vom LLM (Large Language Model) des Chatbots zugelieferten linguistischen Text in die mathematische Sprache namens „Wolfram Language“, mit der dann wiederum ein CAS wie Wolfram Mathematica oder Wolfram|Alpha aufgerufen wird. So erhält die KI Zugang zu leistungsstarken Berechnungen und Visualisierungen, basierend auf präziser Mathematik.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Risiken bei der Nutzung von KI
Die zunehmende Nutzung von LLM (Large Language Model) basierter KI birgt sowohl Chancen als auch Risiken. Nachfolgend machen wir und einige der Risken bewusst.
Monopolisierung von Wissen
So begeistert Lernende über den auf LLMs basierenden Durchbruch bei KI basierten Recherchetools auch sein mögen, so sei dennoch vor Missbrauch gewarnt:
- Im Oktober 2022 hat der Tech-Milliardär Elon Musk Twitter – nunmehr X – um unvorstellbare 40 Milliarden Euro gekauft und nach seinen ganz persönlichen Vorstellungen dieses weltumspannende Informationsnetzwerk umgestaltet.
- Im September 2023 kamen Gerüchte auf, Elon Musk als Gründer und CEO von SpaceX, dem Mutterunternehmen von Starlink, hätte persönlich angeordnet das Satellitenkommunikationsnetzwerk in der Umgebung der russisch besetzen Krim Halbinsel abzuschalten, um einen potenziellen Angriff der Ukraine auf die dort stationierte russische Flotte zu verhindern.
Diese beiden Beispiele zeigen, welchen Einfluss bereits heute ein einzelner Mensch auf die freie Meinungsbildung und auf den Verlauf eines Krieges haben könnte.
- Stellen wir uns vor, ein anderer Tech-Milliardär hatte vergleichbaren Einfluss auf die Trainingsdaten einer LLM basierten KI. Stellen wir uns weiter vor, er würde beispielsweise daran glauben, dass Gott die Erde wörtlich in sieben Tagen erschaffen hat und damit Darwins Theorie von der Evolution negieren. Könnte er diese Meinung auf Grund seines Aktenanteils durchsetzen und Darwins Theorie fortan nicht mehr zu den Trainingsdaten gehören, so würde auch die KI diese fragwürdige "sieben Tage" Schöpfungstheorie mit Nachdruck gegenüber seinen Nutzern vertreten.
Risiko systematischer Fehlinformation bei Suchindex basierte Recherche
Die Nutzung von schlüsselwortbasierten Suchmaschinen wie Google zur Informationsbeschaffung beim Lernen ist uns heute bestens vertraut. Der Nutzen ist unbestritten, die größte Gefahr liegt in der weltweiten Konzentration des Angebots auf nur 4 Betreiber von Suchindizexen (Google, Bing, Yandex und Baidu).
Bislang gibt der Nutzer einen Suchbegriff als Anfrage ein und erhält als Antwort eine Liste mit relevanten Links. Aus dieser Vielzahl an möglichen Antworten sucht er sich dann die passende Antwort heraus, indem er den entsprechenden Link anklickt und so auf die Website des Informationserstellers gelangt. Auf Grund der Impressumspflicht weiß der Nutzer, von welchem Menschen die Informationen stammen und kann sich selbst eine Meinung über deren Qualität bilden.
Risiko systematischer Fehlinformation bei Sprachmodell basierte Recherche
Seit der Einführung von ChatGPT, dem Sprachmodell von Open AI, basiert die Anfrage nicht mehr auf einem Schlüsselwort oder Satzteil, sondern auf mehreren ausformulierten Sätzen, mit denen die Suchintention genau abgegrenzt werden kann.
Die Antwort ist aber keine Vielzahl an Verweisen auf individuelle Websites, sondern ein eloquent ausformulierter Text aus mehreren Sätzen bzw. Absätzen, jedoch die zugrunde liegenden Quellen selbst anzusehen, sollten die Quellen überhaupt angegeben sein...
Der Nutzer kann auch um eine Korrektur, Vereinfachung oder Vertiefung der Antwort bitten und erhält so, wie bei einem Dialog zwischen Menschen, eine kontextbezogene Antwort. Super!
Weniger Super: Die Antwort ist allerdings nicht einmal ein „best-off“ aller (mitunter ungenannten) Quellen, sondern – man lasse sich das auf der Zunge zergehen – „Jene Abfolge von Worten, mit der höchsten statistischen Wahrscheinlichkeit, für eine sinnvoll formulierte Antwort“. ChatGPT kann 1+1 nicht (!) berechnen, es kann nur auf Grund von Trainingsdaten sagen, dass es statistisch wahrscheinlich ist, dass „1+1=2“ gilt.
Sind die Trainingsdaten zudem nicht objektiv, sondern tendenziell (rassistisch, frauenfeindlich, politisch geschönt, verschwörerisch, …), so ist die Antwort ebenfalls nicht objektiv. Bei der indexbasierten Suche hingegen deckt die Liste an Links auf verschiedene Websites ein breites Meinungsspektrum ab.
Kommen Informationen in den Trainingsdaten nicht vor, so fabuliert ChatGPT. Sprachmodelle können grundsätzlich und für alle Zukunft gar nicht entscheiden, ob ihre Antwort richtig ist oder falsch ist, denn sonst müsste die KI bei der Bewertung der Antwort über mehr Wissen verfügen als unmittelbar zuvor bei der Formulierung der Antwort.
Unterscheidung zwischen Wahrscheinlichkeit und Wahrheit
LLM erstellen Antworten auf Basis von aus Trainingsdaten gelernten Wahrscheinlichkeiten für sinnvolle Wortabfolgen, nicht aber auf Basis des zugrunde liegenden Wahrheitsgehalts. Durch diesen Ansatz neigen LLM bei Antworten systembedingt zum „Halluzinieren“ und „Schwafeln“.
Erklärbare KI (XAI - Explainable Artificial Intelligence)
Die Probleme beim Halluzinieren von LLM werden dadurch verschärft, dass es uns Menschen auf Grund der Komplexität der Antwortfindung einer KI, die auf einer gigantischen Black-Box, in Form eines neuronalen Netzwerk mit Maschinenlernen basiert, gar nicht möglich ist, nachzuvollziehen, wie die KI zu der konkreten Antwort gekommen ist. Bei XAI versucht man aus einem bereits trainierten neuronalen Netz die zugrunde liegenden Regeln für Menschen verständlich abzuleiten.
Mist-rein → Mist raus
Von wesentlicher Bedeutung für die Qualität der Antworten eines LLM ist die Qualität der Trainingsdaten. Beinhalten die Trainingsdaten falsche, trendige oder diskriminierende Aussagen, darf man von der Antwort nichts Besseres erwarten. Darin liegt auch die Problematik LLM basierte KIs online auf das Internet zugreifen zu lassen. Nicht jeder ist mit der unentgeltlichen Nutzung seiner Daten durch KI-Betreiber einverstanden, und es kommen zunehmend „vergiftete“ Daten ins Netz. Dabei werden Daten absichtlich so verfälscht, dass eine KI in die Irre geführt wird und meinen einen Hund auf einem Bild zu identifizieren, wo eigentlich eine Katze abgebildet ist
Zensur von Daten
Wenn Trainingsdaten ausgewählt werden, entspricht dies einer Wissenskontrolle. Wenn die Trainingsdaten hingegen nicht ausgewählt werden, sondern frei aus dem Web stammen, besteht die Gefahr des Erlernens von Vorurteilen.
Themenfilter
Sowohl bei der Auswertung von Eingaben als auch bei der Ausgabe von Antworten arbeiten die Betreiber von LLMs mit Verbotslisten. Verbotslisten umfassen Wörter, Phrasen oder Muster, die von einem LLM nicht verarbeitet werden dürfen, um sicher zu stellen, dass keine unerwünschten, unangemessenen oder diskriminierende Inhalte erzeugt werden. Andererseits schränken Verbotslisten die Meinungsfreiheit ein und fördern Zensur.
Zusammenbruch des Geschäftsmodells für die Bereitstellung neuen Wissens im Web
Die KI basierten digitalen Assistenten, die allwissend über das gesamte täglich erforderliche Wissen verfügen, machen klassische Websites überflüssig. Sie entziehen ihnen jeglichen Traffic, wodurch es für die Masse der Sitebetreiber keine Motivation mehr gibt, derartige Websites weiterhin zu erstellen und zu pflegen. Es werden nur mehr Websites überbleiben, welche Produkte oder Informationen präsentieren, deren Relevanz über einen Tag nicht hinausgehen (Sportresultate).
Aber auch da droht den kleinen Websites Ungemach, durch die Marktmacht von Amazon und Booking.com. Eventuell steht der Zusammenbruch des World Wide Webs bevor, welches weltweit durch 10 Mega-Sites abgelöst und beherrscht wird.
Generative KI und das Urheberrecht
Wir wollen an dieser Stelle nicht schwarzmalen. Generative KI liefert oft recht brauchbare Resultate. Gehen wir daher kurz auf die Rechte an diesen KI generierten Resultaten ein:
Urheberrecht an Trainingsdaten
Wenn eine KI unentgeltlich mit urheberrechtlich geschützten Werken trainiert wurde, stellt sich die Frage, ob durch die Nutzung der KI nicht Urheberrechte verletzt werden. 2024 laufen in den USA diesbezügliche Sammelklagen.
Die generative Bild-KI „Adobe Firefly“ wurde mit Adobe Stock Bildern, deren Urheber entschädigt wurden, sowie mit gemeinfreien Inhalten und mit Werken trainiert, deren Urheberrechte schon abgelaufen sind.
Urheberrecht an den generierten Daten
Das Urheberrecht gehört demjenigen, der ein Werk mit der erforderlichen Schöpfungshöhe erstellt hat, also z.B.: dem Fotografen. Wem gehört nun das Urheberrecht an KI-generierten Inhalten, dem Betreiber der KI, dem Prompt Engineer, speziell wenn der Prompt sehr komplex formuliert ist, eine eigene individuelle Idee umfasst, oder sind die Werke gar gemeinfrei? Auf jeden Fall lohnt sich ein Blick in die AGBs des KI-Betreibers.
Kommerzielle Nutzung der generierten Bilder
Die kommerzielle Nutzung KI-generierter Bilder wird zwischen dem Betreiber und dem Abonnenten der KI vertraglich in den AGBs geregelt.
KI als disruptive General Purpose Technologie
Disruptive Technologien verändern spezifische Aspekte bestehender Technologie und haben das Potential diese aus dem Markt zu verdrängen. Generative KI gilt als eine disruptive Technologie, durch welche die bisherige Erstellung von Texten, Musik, Bildern und Videos radikal verändert wird, indem menschliche intellektuelle Leistung durch maschinelle Leistung ersetzt wird.
Evolutionäre technologische Entwicklungen
Evolutionäre technologische Entwicklungen folgen einem stetigen Pfad an Verbesserungen, bei dem bestehende Technologien, im Laufe der Zeit, durch inkrementelle Schritte, kontinuierlich weiterentwickelt werden. Dieser Prozess baut auf vertrauten Vorgängermodellen auf, wobei jedes folgende Modell eine Verbesserung des vorherigen darstellt. Bei evolutionären Entwicklungen bleibt für die Nutzer bereits Vertrautes und Bewährtes erhalten und bilden dennoch das Fundament für kontinuierliche Verbesserungen. Die Weiterentwicklung von Innovationen zufolge evolutionärer technologischer Entwicklungen haben einen linearen Charakter. Beispiel: Auf den VW Golf 5 folgt der VW Golf 6.
Revolutionäre technologische Entwicklungen
Revolutionäre Entwicklungen führen zu radikalen Veränderungen und stellen bestehende Paradigmen in Frage. Einerseits stellen sie einen raschen dramatischen Umbruch dar und andererseits haben sie weitreichende Auswirkungen auf Wirtschaft, Technologie, Arbeitsmarkt und Gesellschaft. Die Weiterentwicklung von Innovationen zufolge revolutionärer technologischer Entwicklungen haben einen exponentiellen Charakter. Sie haben das Potential Produktivität sprunghaft zu steigern und damit punktuellen Wohlstand zu erzeugen, der jedoch oft zu Lasten von breiten Schichten an Erwerbstätigen geht, und neue Einkommensungleichheiten schafft. Beispiel: Illustrationen werden nicht mehr durch Menschen aus grafischen Elementen zusammengesetzt, sondern gemäß einer verbalen Beschreibung aus Rauschen erzeugt.
Sie sind daher verbunden mit Ängsten vor sozialer und wirtschaftlicher Ungerechtigkeit, denen man durch Regulierung und Politik so entgegenwirken sollte, dass die Vorteile der neuen Technologien einer breiten Bevölkerungsschicht zugutekommen.
Auf dem Weg zur Industrie 4.0 als General Purpose Technologie
General Purpose Technologie
Unter dem Ausdruck „General Purpose Technologies“ fasst man bisherige revolutionäre technologische Fortschritte zusammen, die auf Grund ihrer exponentiellen und globalen technologischen Umbrüche das Potential haben, tiefgreifende und weitreichende Veränderungen in Wirtschaft und Gesellschaft herbeizuführen. Dies geht weit über die disruptive Veränderung spezifischer Technologien hinaus.
Beispiele für derartige General Purpose Technologies sind:
Mechanisierung durch die Dampfmaschine: (1770, Watt)
Sie prägte die erste industrielle Revolution, in dem sie den Übergang von handwerklicher auf industrielle Produktion ermöglichte. Die Dampfmaschine revolutionierte durch die damit einher gehende Mechanisierung die Landwirtschaft, die produzierende Industrie und das Transportwesen.
Elektrifizierung: (1882, Edison)
Sie prägte die zweite industrielle Revolution, weil elektrischer Strom den Transport und die Nutzung von Energie revolutionierte. Sie ermöglichte kostengünstige Motoren, Beleuchtung und die Fernkommunikation durch Telefon und Radio, wodurch sich der Lebensstandard breiter Bevölkerungsschichten erheblich verbesserte.
Digitalisierung: (1950, IBM bzw. 1990, Berners-Lee)
Sie prägte die dritte industrielle Revolution, durch den Übergang von analogen zu digitalen Techniken. Lernende sind nicht mehr darauf angewiesen Bücher physikalisch in die Hand zu bekommen, sondern ganze Bibliotheken sind digital 24/7 verfügbar. Computer, das Internet, HTML-basierte Webbrowser, Keyword basierte Suchmaschinen mit Links auf organische Treffer revolutionierten die Art und Weise wie Menschen und Maschinen Informationen verarbeiteten, bereitstellten und teilten.
Erfolgten die ersten drei industriellen Revolutionen noch mit einem zeitlichen Abstand von jeweils 100 Jahren, bringt die vierte industrielle Revolution - Industrie 4.0 – staccatoartig technologische und wirtschaftliche Umbrüche, auf breiter Front und mit exponentieller Geschwindigkeit.
Industrie 4.0: (2010)
Vor allem die Auswertung von Datenmengen, deren Umfang vom menschlichen Gehirn nicht mehr verarbeitet werden kann, begründet die vierte industrielle Revolution: Big Data, IoT (Internet der Dinge), Maschinelles Lernen und darauf aufbauend KI (Künstliche Intelligenz; Englisch: AI), aber auch Augmented bzw. Virtual Reality (erweiterte Realität) und autonomes Fahren sind zu alltäglichen Buzzwords geworden.
Hinzu kommt der signifikante Ersatz von fossiler durch erneuerbare Energie im Rahmen des Kampfs gegen den Klimawandel, sowie der Einsatz von Biotechnologie, basierend auf der Genomsequenzierung, im Bereich der Medizin.
Um Menschen auf diese disruptiven Veränderungen vorzubereiten, und Ängste und Weltuntergangsmythen zu egalisieren, sind wichtige Schritte erforderlich, an denen wir mit unserer Website maths2mind.com durch Bildung, Weiterbildung und Aufklärung mitwirken wollen.
Es ist wichtig, dass nicht nur Experten und Führungskräfte die Wirkungsprinzipien von Industrie 4.0 verstehen, sondern dass dieses Wissen einer breiten Öffentlichkeit niederschwellig zugänglich gemacht wird. Auch wenn Politiker es als ihre Aufgabe sehen mögen, bestehendes im Sinne ihrer Wählerschaft zu bewahren, sind Transparenz, Partizipation und Mitbestimmung in einer globalisierten Welt wohl zukunftsweisender.
Weiterbildung ist aber nicht nur eine Bringschuld durch Innovatoren, sondern auch eine Holschuld des Einzelnen, durch die Bereitschaft zu lebenslangem Lernen.
Künstliche Intelligenz und Maschinelles Lernen
Intelligenz
ist ein Begriff, der verschiedene Aspekte des geistigen Vermögens einer Person oder eines Systems beschreibt. Es ist die Fähigkeit, Informationen zu verstehen, zu verarbeiten, zu analysieren, zu lernen, Probleme zu lösen, zu planen, zu denken und zu kommunizieren.
Traditionell wird Intelligenz oft anhand der Fähigkeit gemessen, logisch zu denken, komplexe Probleme zu lösen und Wissen anzuwenden. Diese Art der Intelligenz wird oft als "kognitive Intelligenz" oder "intellektuelle Intelligenz" bezeichnet. Sie kann durch Intelligenztests gemessen werden, die verschiedene Aufgaben und Fragen enthalten, um die Fähigkeiten einer Person in Bereichen wie sprachlicher Ausdruck, mathematisches Denken, räumliches Denken und problemlösendes Denken zu bewerten.
In jüngerer Zeit haben Forscher jedoch erkannt, dass Intelligenz vielfältiger ist und nicht allein auf die traditionelle kognitive Fähigkeit beschränkt sein sollte. Es gibt andere Arten von Intelligenz, wie emotionale Intelligenz, soziale Intelligenz, körperliche Intelligenz und kreative Intelligenz. Diese Formen der Intelligenz beziehen sich auf die Fähigkeit, Emotionen zu erkennen und zu regulieren, Beziehungen zu anderen Menschen aufzubauen und aufrechtzuerhalten, körperliche Fähigkeiten zu koordinieren und kreative Problemlösungen zu finden.
Es ist wichtig anzumerken, dass Intelligenz ein komplexes Konzept ist und weiterhin Gegenstand von Diskussionen und Debatten in der wissenschaftlichen Gemeinschaft ist. Es gibt keine allgemein akzeptierte Definition von Intelligenz, und verschiedene Theorien und Modelle wurden entwickelt, um sie zu erklären.
Künstliche Intelligenz (KI bzw. AI)
bezieht sich auf die Entwicklung von Computersystemen oder Maschinen, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern würden. Das Ziel der künstlichen Intelligenz besteht darin, Maschinen so zu programmieren oder zu entwickeln, dass sie lernen, verstehen, denken und Entscheidungen treffen können.
Unter einer künstlichen Intelligenz versteht man ein Computerprogramm, welches genau definierte Aufgaben ausführen kann, für die normalerweise menschliche Intelligenz erforderlich wäre. Die Betonung liegt auf „genau definierte Aufgaben“: Ein Schachcomputer auf Großmeisterniveau kann nicht unbedingt auch die Schachfiguren am Brett greifen, anheben, bewegen und wieder abstellen, was jedes Kind kann.
Zudem verändert sich im Laufe der Zeit unsere Einschätzung darüber, was wir als künstliche Intelligenz wahrnehmen oder eben nicht, und zwar indirekt proportional zur Vertrautheit mit der jeweiligen Technologie.
Ein Beispiel zur zeitabhängigen Wahrnehmung von künstlicher Intelligenz
- Vor 10 Jahren hat man Navigationssysteme im Auto noch als „intelligent“ bezeichnet.
- Heute versteht man sie eher rational als eine Kombination aus GPS-Signalen samt genauer Zeitmessung, einer Straßenrouten-Datenbank, einem Algorithmus aus der Graphentheorie zur Berechnung des kürzesten Weges (etwa der Dijkstra Algorithmus) und eventuell noch Echtzeit-Verkehrsfluss-Informationen, sowie einer Mensch-Maschine Schnittstelle, die heute oft das vertraute und allgegenwärtige Smartphone mit der Anwendung Google Maps ist.
Das ehemals intelligente System ist 10 Jahre später zu einem dummen Rechenknecht degeneriert.
- Heute, 02.2024, versteht man die Weiterentwicklung der Navigationssysteme, nämlich selbstfahrende Autos, als intelligente Systeme.
Es gibt verschiedene Ansätze und Techniken in der künstlichen Intelligenz, darunter maschinelles Lernen, neuronale Netzwerke, Expertensysteme, natürliche Sprachverarbeitung und Computer Vision. Diese Techniken ermöglichen es Maschinen, aus Erfahrungen zu lernen, Daten zu analysieren, Muster zu erkennen, Probleme zu lösen und Entscheidungen zu treffen.
Maschinelles Lernen ist ein wichtiger Bereich der künstlichen Intelligenz, bei dem Algorithmen entwickelt werden, die es Computern ermöglichen, aus Daten zu lernen und Vorhersagen oder Mustererkennungen zu treffen, ohne explizit dafür programmiert zu werden. Durch die Verwendung großer Datenmengen und leistungsstarker Rechenressourcen können maschinelle Lernmodelle komplexe Aufgaben wie Bilderkennung, Spracherkennung, Übersetzung, personalisierte Empfehlungen und autonomes Fahren durchführen.
Künstliche Intelligenz wird in einer Vielzahl von Anwendungen eingesetzt, einschließlich Sprachassistenten, automatisierter Datenanalyse, medizinischer Diagnose, Robotik, Finanzwesen, Verkehr und vielen anderen Bereichen.
Obwohl künstliche Intelligenz viele Vorteile und Potenziale bietet, gibt es auch ethische und gesellschaftliche Fragen im Zusammenhang mit Datenschutz, Arbeitsplatzveränderungen, Verantwortlichkeit und dem potenziellen Missbrauch von KI-Systemen.
Der Turing-Test
ist ein bekannter Test, der von Alan Turing vorgeschlagen wurde, um die Fähigkeit einer Maschine zu überprüfen, intelligentes Verhalten zu imitieren und von einem menschlichen Beobachter nicht unterscheidbar zu sein. Der Test beinhaltet, dass ein menschlicher Prüfer über eine Textkommunikation mit einem Computerprogramm und einem anderen menschlichen Teilnehmer interagiert, ohne ihre Identitäten zu kennen. Wenn der Prüfer nicht in der Lage ist, den Computer vom Menschen zu unterscheiden, wird der Test als "bestanden" angesehen.
Stärken des Turing-Tests
- Praktische Anwendbarkeit: Der Turing-Test ermöglicht eine praktische Überprüfung der Fähigkeiten einer KI, menschliches Verhalten zu imitieren. Es stellt eine einfache und direkte Methode dar, um die Leistungsfähigkeit von KI-Systemen in Bezug auf sprachliche Kommunikation zu bewerten.
- Fokus auf Ergebnisse: Der Turing-Test konzentriert sich auf das Ergebnis und die Auswirkungen des intelligenten Verhaltens, anstatt auf die internen Mechanismen der Maschine. Es geht darum, ob die Maschine in der Lage ist, eine überzeugende Konversation zu führen, anstatt zu verstehen, wie sie das genau erreicht.
Schwächen des Turing-Tests
- Subjektivität: Die Beurteilung des Turing-Tests hängt von der Urteilskraft und dem Vorwissen des menschlichen Prüfers ab. Es kann zu unterschiedlichen Ergebnissen führen, da die Beurteilung subjektiv ist und von individuellen Einschätzungen und Erwartungen abhängt.
- Begrenzung auf sprachliche Fähigkeiten: Der Turing-Test legt den Schwerpunkt auf sprachliche Kommunikation und vernachlässigt andere Aspekte der Intelligenz, wie visuelle Wahrnehmung, körperliche Fähigkeiten oder kreatives Denken. Eine Maschine könnte den Turing-Test bestehen, indem sie eine überzeugende Konversation führt, aber in anderen Bereichen wie visuellem Verständnis oder Problemlösung möglicherweise nicht so leistungsfähig ist.
- Mangel an objektiven Kriterien: Es gibt keine eindeutigen objektiven Kriterien für das Bestehen oder Nichtbestehen des Turing-Tests. Die Debatte darüber, ob der Turing-Test ausreicht, um wahre Intelligenz zu bewerten, bleibt bestehen.
Insgesamt hat der Turing-Test eine wichtige Rolle bei der Diskussion und dem Verständnis von KI gespielt, aber er hat auch seine Einschränkungen und kann nicht als umfassende Methode zur Beurteilung der Intelligenz einer Maschine betrachtet werden.
Lernen
ist ein Prozess, bei dem Wissen, Fähigkeiten, Verhaltensweisen oder Konzepte erworben, verinnerlicht und angewendet werden. Es bezieht sich auf die Veränderung des Verhaltens oder der mentalen Repräsentationen einer Person aufgrund von Erfahrungen, Übung, Studium oder Beobachtung.
Lernen kann auf verschiedene Arten stattfinden:
- Assoziatives Lernen: Hierbei werden Verbindungen zwischen Reizen und Reaktionen hergestellt. Es umfasst klassisches Konditionieren, bei dem ein neutraler Reiz mit einem natürlichen Reiz gekoppelt wird, um eine konditionierte Reaktion auszulösen, und operantes Konditionieren, bei dem Verhaltensweisen durch Belohnung oder Bestrafung verstärkt oder gehemmt werden.
- Kognitives Lernen: Dieses umfasst das Verstehen von Informationen, das Erkennen von Mustern, das Problemlösen und das Anwenden von Konzepten. Es beinhaltet bewusstes Denken, Einsicht und die Nutzung von Gedächtnis- und Denkprozessen.
- Soziales Lernen: Hierbei erfolgt das Lernen durch Beobachtung und Nachahmung anderer. Es beinhaltet das Lernen von Verhaltensweisen, Normen, Werten und sozialen Fähigkeiten durch soziale Interaktionen.
- Emotionales Lernen: Emotionen können das Lernen beeinflussen, indem sie Gedächtnisbildung und Motivation beeinflussen. Emotionales Lernen bezieht sich auf das Erlernen von emotionalen Reaktionen, das Erkennen und Verarbeiten von Emotionen und die Regulierung von Emotionen.
Lernen kann bewusst oder unbewusst, absichtlich oder zufällig stattfinden. Es ist ein lebenslanger Prozess, der sowohl bei Menschen als auch bei Tieren stattfindet. Lernen ermöglicht es uns, uns an die sich ändernde Umwelt anzupassen
Maschinelles Lernen
Unter maschinellem Lernen versteht man einen Ansatz der künstlichen Intelligenz (KI), bei dem Computer die Fähigkeit entwickeln, aus Erfahrungen mit Daten zu lernen, ohne explizit für die jeweilige Problemlösung programmiert zu werden. Statt spezifischer Anweisungen, wie sie eine Aufgabe ausführen sollen, werden Algorithmen verwendet, um aus den Daten Muster, Zusammenhänge und Regeln abzuleiten.
Im maschinellen Lernen werden Modelle verwendet, um aus Trainingsdaten zu lernen und Informationen abzuleiten. Diese Trainingsdaten bestehen aus Eingabevariablen und den entsprechenden Ausgabevariablen oder Ergebnissen. Die Modelle werden darauf trainiert, die Muster in den Daten zu erkennen und Zusammenhänge zwischen den Eingabevariablen und den Ausgabevariablen zu lernen. Sobald das Modell trainiert ist, kann es auf neue, nicht gesehene Daten angewendet werden, um Vorhersagen oder Entscheidungen zu treffen.
Im maschinellen Lernen werden Computermodelle entwickelt, die in der Lage sind, automatisch aus Daten zu lernen und Vorhersagen oder Entscheidungen zu treffen. Dazu werden große Mengen an Daten verwendet, die als Trainingsdaten dienen. Diese Daten können strukturiert sein, wie z.B. Tabellen oder Datenbanken, oder unstrukturiert, wie z.B. Texte, Bilder oder Videos.
Maschinelles Lernen ist eine Schlüsseltechnologie für Systeme der künstlichen Intelligenz, gewissermaßen ihr Unterbau. Als maschinelles Lernen bezeichnet man jenen Prozess, bei dem das Verhalten eines Computerprogramms nicht durch einen menschlichen Programmierer festgelegt wurde, sondern das Programm – die KI - aus Trainingsdaten lernt, darin enthaltene Muster selbsttätig erkennt, um darauf aufbauend Aufgaben erfüllen zu können.
Maschinelles Lernen bewährt sich besonders dort, wo der menschlichen Intelligenz keine Regeln in Form von Ursache – Wirkungszusammenhängen zugänglich sind, oder die Datensätze unüberschaubar groß sind.
Es gibt KIs mit und solche ohne maschinelles Lernen.
KIs ohne maschinelles Lernen, Expertensystem
Bei KIs ohne maschinelles Lernen, sogenannten regelbasierten KIs, werden die Algorithmen vom Entwickler so programmiert, dass sie bestimmte Aufgaben erfüllen. Beispiele für solche regelbasierten Algorithmen sind Regression, Klassifikation, Clustering, Zeitreihen.
Wenn eine KI darauf abzielt das menschliche Wissen eines Experten, sogenanntes Domänen-Knowhow zu modellieren und zu replizieren, dann spricht man von einem Expertensystem.
KIs mit maschinellem Lernen
Bei KIs mit maschinellem Lernen findet das Computerprogramm die spezifischen Regeln durch selbstständiges Ausprobieren und Benchmarken an einem vorgegebenen Ziel selbst. Durch maschinelles Lernen können also Regeln gefunden werden, die dem Programmierer zuvor nicht zugänglich waren.
Maschinelles Lernen umfasst also die Fähigkeit des Programms Erfahrungen zu machen, in dem es Regeln sucht und findet, um die Zielerfüllung eigenständig zu verbessern, dazu passt es während eins Lernvorgangs die Parameter des Modells an. Beispiele für solche Algorithmen sind Entscheidungsbäume, k-nächste Nachbarn, Support-Vektor-Maschinen (SVM) und neuronale Netze.
Je nach der spezifischen Aufgabe und der Art der verfügbaren Trainingsdaten können verschiedene Lernmethoden verwendet werden, um optimale Ergebnisse zu erzielen.
Überwachtes maschinelles Lernen (Supervised Learning)
Beim überwachten maschinellem Lernen werden dem Algorithmus Daten mit „richtigen“ Lösungen zur Verfügung gestellt!
Daher teilt man die Trainingsdaten in 2 Kategorien: 70% Lerndaten und 30% Testdaten.
- Lerndaten: Anhand der Lerndaten lernt der Algorithmus Vorhersagen zu treffen, da ihm die richtige Lösung bereits mitgegeben wird.
- Testdaten: Anhand der Testdaten wird anschließend der Grad der Zielerreichung ermittelt. Daher spricht man von „überwachtem“ Lernen.
Beispiel:
- Ein KFZ-Sachverständiger verfügt über Trainingsdaten, die aus 1.000 Fotos von PKWs samt Typbezeichnung bestehen.
- 700 Fotos samt Typbezeichnung werden dem Algorithmus als Lerndaten zur Verfügung gestellt.
- Den Testdaten, bestehend aus den restlichen 300 Fotos, die dem Algorithmus jedoch ohne Typbezeichnung vorgelegt werden, muss der Algorithmus die Typbezeichnung auf Grund der gelernten Regeln selbsttätig zuordnen.
- Der KFZ-Sachverständige überprüft anschließend den Erfolg in Prozent der richtigen Antworten.
Bei überwachtem Lernen sind sowohl Eingabemuster als auch die gewünschten Ausgabemuster bekannt. Das neuronale Netz vergleicht das berechnete Ausgabemuster mit dem gewünschten Ausgabemuster und passt die Gewichtungen zwischen den Neuronen entsprechend an. Dieses Verfahren ist effizient und schnell.
Es erfordert das Vorhandensein von Daten mit der „richtigen“ Antwort, sogenannte "gelabelte Daten", die mit menschlicher Expertise erstellt wurden. Ausreißer bzw. atypische Daten, die nicht in den Lerndaten enthalten waren, verursachen Probleme.
- Überwachtes Lernen wird häufig für Aufgaben wie Klassifikation und Regressionsprobleme verwendet.
Unüberwachtes maschinelles Lernen (Unsupervised Learning)
Beim unüberwachten maschinellem Lernen werden dem Algorithmus keine Daten mit "richtigen" Lösungen zur Verfügung gestellt. Unüberwachtes Lernen erfolgt ohne Trennung zwischen Lern- und Testdaten. Dem Algorithmus werden also während des Lernens keine Vorlagen für „richtige“ Lösungen mitgegeben. Das Netzwerk muss eigenständig lernen, Muster in den Daten zu erkennen und in verschiedene Gruppen oder Kategorien einzuteilen, indem es Ähnlichkeiten bzw. Unterschiede zwischen den Mustern erkennt. Die Gewichtungen im neuronalen Netzwerk werden so angepasst, dass ähnliche Eingabemuster ähnliche Ausgaben erzeugen.
Beispiel:
- Ein KFZ-Sachverständiger verfügt über Trainingsdaten, die aus 1.000 Fotos von PKWs bestehen und die ohne weitere Angaben dem Algorithmus vorgelegt werden.
- Der Algorithmus versucht nun Muster in den Daten zu erkennen.
- Eventuell sortiert er die Autos nach KFZ-Typ, eventuell nach deren Farbe, eventuell nach Spuren von Unfällen, eventuell sortiert er auch nur die sehr seltenen Pick-Ups aus. Es kann sogar sein, dass sich die gefundenen Muster nicht interpretieren lassen, weil sie nicht zur Erlebniswelt des Sachverständigen passen.
- Der KFZ-Sachverständige muss anschließend entscheiden, ob die Sortierung für ihn einen praktischen Nutzen hat oder nicht.
Da das Verfahren ohne gelabelte Daten auskommt, ermöglicht es die Entdeckung von neuen Zusammenhängen, die im Voraus nicht bekannt waren. Das kann aber auch negativ sein, wenn die erlernten Muster nicht für die vorgesehene Anwendung relevant sind, d.h. die KI entwickelt dann Lösungen, für die womöglich niemand das zugehörige Problem hat.
- Unüberwachtes Lernen wird oft beim Clustering angewendet. Es kann Musikvorschläge liefern oder Brustkrebs auf Grund von Strukturen in Bildern erkennen.
Bestärkendes maschinelles Lernen (Reinforcement Learning)
Beim bestärkenden maschinellem Lernen werden dem Algorithmus keine Daten mit "richtigen" Lösungen zur Verfügung gestellt, aber der Algorithmus erhält positives oder negatives Feedback. Bestärkendes Lernen wird in Situationen eingesetzt, die sich permanent verändern. Der Algorithmus führt verschiedene Aktionen aus und erhält für Versuch und Irrtum positives oder negatives Feedback, je nachdem ob seine Ausgabemuster richtig oder falsch sind. Er muss aber selbstständig die richtigen Ausgabemuster finden, indem er versucht das positive Feedback zu maximieren und das negative Feedback zu minimieren.
Beispiel:
- Ein Roboterarm mit Greifzange muss ein Wasserglas anheben, welches jedes Mal an einer anderen Stelle am Tisch steht. Dazu positioniert er über Motoren den Greifarm relativ zum Wasserglas.
- Es gibt eine positive Bewertung, wenn er das Wasserglas hochhebt, ohne es zu zerbrechen.
- Es gibt eine neutrale Bewertung, wenn das Wasserglas nur vermeintlich hochgehoben wird, aber unversehrt stehen bleibt.
- Es gibt eine negative Bewertung, wenn das Wasserglas zerbricht.
Dieser Lernprozess ist nicht so schnell wie das überwachte Lernen, aber er eignet sich für Situationen, in denen keine klaren Entscheidungskriterien vorhanden sind, wie etwa beim autonomen Fahren.
Bedeutung von Trainingsdaten und Big Data für maschinelles Lernen
Für maschinelles Lernen sind neben Hardwareanforderungen an die verarbeitende IT noch qualitativ hochwertige Trainingsdaten erforderlich, geeignete Algorithmen und die Definition eines klar beschriebenen Ziels. Interessant ist, dass die Lernalgorithmen teils schon seit Jahrzehnten bekannt sind.
Da aber die Trainingsdaten umfangreich sein müssen, ging der Durchbruch beim maschinellen Lernen, Hand in Hand mit den Fortschritten bei der Verarbeitung von Big Data.
Der Nutzung von Trainingsdaten gehen zwei Arbeitsschritte voraus:
- Datenquellen müssen zugänglich gemacht werden und die daraus resultierenden Daten müssen digital erfasst werden
- In den erfassten Daten allenfalls enthaltene Fehler müssen korrigiert werden und die Daten müssen so aufbereitet werden, dass sie für den eigentlichen maschinellen Lernprozess automatisiert und im Falle von Wiederholungen unverändert zugänglich sind.
Die Beschaffung von Trainingsdaten ist daher sehr aufwändig und kostenintensiv. Nachfolgend 2 öffentlich zugängliche Quellen für Trainingsdaten:
- Wikipedia wird gerne für Trainingsdaten herangezogen. Dabei wird gerne übersehen, dass die Artikelverteilung keineswegs ausgewogen ist.
- Veröffentlichungen des Übersetzungszentrums für die Einrichtungen der EU werden gerne als Trainingsdaten für Übersetzer verwendet, da dort professionelle Übersetzungen innerhalb der 24 Amtssprachen der EU vorliegen.
Aufgaben
Aufgabe 244
Kosten- und Preistheorie
Eine Kostenfunktion laute: \(C\left( x \right) = 4x + 2000\). Die momentane Produktionsmenge x beträgt 10.000 ME.
Aufgabenstellung:
- 1. Teilaufgabe: Berechne die durchschnittlichen Stückkosten \(\overline C \)
- 2. Teilaufgabe: Berechne die marginalen Kosten \(C'\)
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Aufgabe 223
Kosten- und Preistheorie
Anwendung aus der Wirtschaft: Für die Produktion eines Wirtschaftsguts ist die Kostenfunktion wie folgt gegeben
\(K\left( x \right) = {x^3} - 30{x^2} + 400x + 512\)
- 1. Teilaufgabe: Berechne die Fixkosten K(0) in Euro
- 2. Teilaufgabe: Berechne die Stückkosten
- 3. Teilaufgabe: Berechne das langfristige Betriebsoptimum
- 4. Teilaufgabe: Berechne die gesamten Produktionskosten beim langfristigen Betriebsoptimum
- 5. Teilaufgabe: Wie viel kostet durchschnittlich ein Stück im langfristigen Betriebsoptimum?
- 6. Teilaufgabe: Berechne die Stückkosten im langfristigen Betriebsoptimum
- 7. Teilaufgabe: Berechne die Grenzkosten im langfristigen Betriebsoptimum
- 8. Teilaufgabe: Wie stark steigen die Kosten, wenn ein zusätzliches Stück über das langfristige Betriebsoptimum hinaus produziert wird?
- 9. Teilaufgabe: Berechne die gesamten Produktionskosten , wenn (Betriebsoptimum + 1 Stück) erzeugt werden
- 10. Teilaufgabe: Berechne das kurzfristige Betriebsoptimum, wenn man also auf die Deckung der Fixkosten verzichtet
- 11. Teilaufgabe: Wie viel kostet ein Stück im kurzfristigen Betriebsoptimum, wenn man auf die Deckung der Fixkosten verzichtet?
Aufgabe 233
Kosten- und Preistheorie
Die nicht-lineare Kostenfunktion in € eines Betriebs lautet:
\(K\left( x \right) = 3{x^2} + 50x + 4800\)
Ermittle
- 1. Teilaufgabe: die Stückkostenfunktion k(x)
- 2. Teilaufgabe: die Grenzkostenfunktion K‘(x)
- 3. Teilaufgabe: das Betriebsoptimum k‘(0)
- 4. Teilaufgabe: die minimalen Stückkosten
Aufgabe 256
Gleichgewichtspreis und Auswirkungen einer Preisobergrenze, die über dem Gleichgewichtspreis liegt
Der Markt für ein Produkt ist durch folgende Nachfrage- und Angebotsfunktionen bestimmt:
- Qd = 1150-o,5p
- Qs = 1100+2p
p | Preis in Euro |
Q |
Menge in Stück |
1. Teilaufgabe
Berechnen Sie den Preis und die Menge im Gleichgewicht.
Angenommen, ein Regulator setzt eine Preisobergrenze von € 600 pro ME fest.
2. Teilaufgabe
Berechnen Sie die angebotenen und nachgefragten Mengen. Was ist Ihre Beobachtung? Ist die Preisobergrenze bindend?
Grundkompetenzen
Lektion 1: Grundlegende Bedienung von GeoGebra
In dieser Mikro-Lerneinheit verschaffen wir uns einen Überblick über die wesentlichen Bedienelemente von GeoGebra. Wir lernen die Hauptansichten kennen, die vier ansichtenspezifischen Werkzeugleisten, die Menüleiste, die beiden Eingabezeilen und die virtuelle Tastatur. Klicke die einzelnen Icons mal an und erfahre mehr über die vielfältigen Möglichkeiten des Programms.
Zuerst verschaffst du dir zuerst einen Überblick darüber, welche Aufgabenstellungen mit GeoGebra überhaupt gelöst werden können. Mit welcher Eingabe man dann eine konkrete Aufgabenstellung löst, weiß man - bei häufig wiederkehrenden Aufgabenstellungen - auswendig, oder - bei selteneren Aufgabenstellungen – schaut man in der Dokumentation nach.
Die Hauptansichten
GeoGebra ist ein dynamisches Mathematikprogramm, welches bis zu 5 verschiedene Ansichten auf ein und dasselbe mathematische Objekt (z.B.: die Gleichung einer Geraden \(y = f(x) = k \cdot x + d\)) liefert. GeoGebra verbindet geometrischen Darstellungen („Grafik“) mit algebraische Ein- bzw. Ausgaben („Algebra“) und ermöglicht Parametervariationen mit Schiebereglern. Zusätzlich verfügt es über ein Computer Algebra System („CAS“), eine rudimentäre Tabellenkalkulation („Tabelle“) und ein Statistikmodul („Wahrscheinlichkeitsrechner“).
- In der Grafik-Ansicht kann man geometrische Objekte konstruieren. Parallel dazu erscheint die mathematische Beschreibung in der Algebra-Ansicht.
- In der Algebra-Ansicht kann man mathematische Objekte definieren. Parallel dazu erscheint die geometrische Konstruktion in der Grafik-Ansicht.
- In der CAS-Ansicht kann man Terme umformen, Gleichungen lösen sowie integrieren und differenzieren.
- In der Tabellen-Ansicht kann man Punktpaare zu Listen zusammenfassen um anschließend mit Hilfe der Regression die zugrundeliegende Funktionsgleichung zu ermitteln.
- Mit dem Wahrscheinlichkeitsrechner kann man Wahrscheinlichkeits- bzw. Dichtefunktionen und Verteilfunktionen berechnen.
Die Werkzeugleisten
Die Werkzeugleiste von GeoGebra verläuft horizontal am oberen Rand des Fensters. Sie ist zweigeteilt.
Im linken Bereich werden Icons angezeigt, welche Werkzeuge repräsentieren, die abhängig von der jeweiligen Ansicht sind. Klickt man auf eines der Werkzeuge, so werden unterhalb weitere, ähnliche Werkzeuge angezeigt.
Im rechten Bereich werden die Werkzeuge für „Rückgängig“, „Wiederherstellen“ und „Lupe“ angezeigt. Klickst du auf „Lupe“, kommst du automatisch auf die Online-Plattform mit zahlreichen kostenlosen Unterrichtsmaterialien. Zudem kann ganz rechts die Menüleiste ein- bzw. ausgeblendet werden.
Die Gestaltungsleisten
Jede Ansicht (Grafik, Algebra, 3D-Grafik, CAS und Tabelle) verfügt über eine eigne Gestaltungsleiste, mit der verschiedene Grundeinstellungen für
- die Ansicht selbst
- die in der Ansicht enthaltenen Objekte
verändert werden können.
Ein- und ausblenden kann man die Gestaltungsleiste rechts oben im Fenster der jeweiligen Ansicht.
Gestaltungsleiste der Grafik-Ansicht
Klickt man in der Grafik-Ansicht auf das Icon der Gestaltungsleiste so lassen sich folgende Einstellungen vornehmen:
- Achsen anzeigen oder verbergen
- Koordinatengitter anzeigen oder verbergen
- Standardeinstellungen der Koordinatenachsen wieder herstellen
- Punkte an den Ecken der Koordinatengitter fangen
- Einstellungen öffnen
- Weitere Ansichten einblenden
Klickt man hingegen auf ein bestimmtes Icon der Werkzeugleiste, dann kann man die Eigenschaften (Farbe, Strichstärke, Linienart, Beschriftung,...) eines konkreten Objekts (Punkt, Gerade, Vektor, Kreis,...) verändern.
Sehr nützlich: Wenn man in der Grafik-Ansicht einmal den Überblick verloren hat, wo am Zeichenblatt sich überhaupt Inhalte befinden, kann man in der Gestaltungsleiste mittels dem Haus-Icon und dem Werkzeug mit dem "Dehnen-Pfeil" alle Inhalte sichtbar machen.
Gestaltungsleiste der Algebra-Ansicht
Klickt man in der Algebra-Ansicht auf das Icon der Gestaltungsleiste so lassen sich folgende Einstellungen vornehmen:
- Sortierung der Zeilen in der Algebra Ansicht wählen.
- Sortieren nach freien und abhängigen Objekten
- Sortieren nach dem Typ des Objekts (Punkte, Vektoren,...)
- Sortieren der Objekte nach Ebenen, in denen sie konstruiert wurden
- Sortieren nach der Reihenfolge der Konstruktion
- Einstellungen öffnen
- Weitere Ansichten einblenden
Gestaltungsleiste der CAS-Ansicht
Klickt man in der CAS-Ansicht auf das Icon der Gestaltungsleiste so lassen sich folgende Einstellungen vornehmen:
- Textformatierungen der Formelinhalte je Zeile, z.B.: Farbe, Fettschrift, Schrägschrift
- Einstellungen öffnen
- Weitere Ansichten einblenden
Gestaltungsleiste der Tabellen-Ansicht
-
Textformatierungen der Formelinhalte je Zeile, z.B.: Fettschrift, Schrägschrift, Text-Bündigkeit
-
Hintergrundfarbe
- Einstellungen öffnen
- Weitere Ansichten einblenden
Gestaltungsleiste der 3D-Grafik-Ansicht
Klickt man in der 3D-Grafik-Ansicht auf das Icon der Gestaltungsleiste so lassen sich folgende Einstellungen vornehmen:
- Achsen anzeigen oder verbergen
- Koordinatengitter anzeigen oder verbergen
- Standardeinstellungen der Koordinatenachsen wieder herstellen
- Punkte an den Ecken der Koordinatengitter fangen
- Drehung der Ansicht starten bzw. stoppen
- Blickrichtung auf die 3D-Darstellung wählen: Grundriss, Aufriss bzw. Kreuzriss
- Art der Projektion wählen: Parallelprojektion, Perspektive mit Fluchtpunkt, 3D für rot-grün-3D-Brille, Schrägprojektion
- Einstellungen öffnen
- Weitere Ansichten einblenden
Die Menüleiste
Die GeoGebra Menüleiste wird mit dem Icon aus 3 Strichen, ganz rechts in der oben horizontal verlaufenden Werkzeugleiste, ein- und ausgeblendet. Sie enthält Menüs mit denen man Dateien öffnen oder abspeichern kann, mit der man die Hauptansichten wählen kann, oder mit denen man globale die Einstellungen ändern kann.
Die Eingabezeilen
Mit Hilfe der Eingabezeile und Befehlen kann man die algebraische Repräsentation eines mathematischen Objekts eingeben bzw. ändern. Die GeoGebra Eingabezeile kann über die Menüleiste und das Ansicht-Menü ein- bzw. ausgeblendet werden. Sie befindet sich dann am untersten Rand vom Fenster.
Ist die Algebra-Ansicht aktiviert, dann wird dort eine Algebra-Eingabezeile angezeigt, wenn die oben beschriebene GeoGebra Eingabezeile ausgeblendet ist.
Die virtuelle Tastatur
Wenn man GeoGebra erstmalig startet, dann erscheint links die Algebra-Ansicht und rechts die Grafik-Ansicht. Darunter wird eine virtuelle Tastatur angezeigt, die mit der Maus bedient wird.
Sollte die virtuelle Tastatur mal unsichtbar werden, dann klickt man auf das "+" in der Algebra-Eingabezeile und wählt "Ausdruck". Dann wird die virtuelle Tastatur eingeblendet.
Bei der virtuelle Tastatur kann zwischen unterschiedlichen Tastatur-Layouts umgeschaltet werden.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Lektion 2: Dateihandling und Dateneingabe in GeoGebra
In dieser Mikro-Lerneinheit verschaffen wir uns einen Überblick über den "Datei" - Eintrag in der Menüliste und über diverse programmspezifische Anforderungen an die Eingabe.
Zuerst verschaffst du dir zuerst einen Überblick darüber, wie du eine neue oder bestehende GeoGebra Datei mit der Datei-Endung .ggb öffnest, bearbeitest und wieder abspeicherst. Weiters ist es unbedingt erforderlich zu wissen, wie man die diversen Eingaben korrekt eintippen muss, damit sie von GeoGebra korrekt verarbeitet werden können.
"Einstellungen" - Eintrag in der Menüleiste
Als Erstes sollte man einige globale Einstellungen vornehmen. Die Sprache, die Anzahl der Nachkommastellen, ob Objekte in der Grafik-Ansicht sichtbar benannt werden und die Schriftgröße (12pt) wählt man in der Menüleiste unter "Einstellungen".
„Datei“ – Eintrag in der Menüleiste
Beschäftigen wir uns zunächst damit, wie wir ein GeoGebra-Arbeitsblatt öffnen und speichern können.
-
„Neu“ erstelle ein neues leeres Arbeitsblatt
-
„Öffnen“ macht dasselbe wie ein Klick auf die „Lupe“ in der Werkzeugleiste:
-
„online“: In der Hauptansicht vom GeoGebra Fenster wird die GeoGebra-Online-Plattform mit zahlreichen kostenlosen Unterrichtsmaterialen angezeigt und man kann eine Datei auswählen, öffnen, bearbeiten und abspeichern.
-
„lokal“: Über den Button ganz links oben im Fenster kann man auf lokal am Computer gespeicherte Dateien zugreifen
-
-
„Speichern“ ermöglicht das Abspeichern vom gesamten Arbeitsblatt in einer GeoGebra-Datei vom Typ .ggb.
-
„Bild exportieren“ ermöglicht es die Grafik-Ansicht als pixelbasierte Bilddatei vom Typ .png abzuspeichern.
-
„Teilen“ ermöglicht es, zuvor auf der GeoGebra-Online-Plattform abgespeicherte Arbeitsblätter, über soziale Netzwerke oder als direkter Link weiterzugeben.
-
„Herunterladen als…“ ermöglicht das Abspeichern des aktuell sichtbaren Ausschnitts der Grafik-Ansicht, in verschiedenen Dateiformaten wie .png, .svg oder .pdf.
Will man mehr Einfluss – z.B. einen transparenten Bildhintergrund - auf die Parameter der Bilddatei haben, dann empfiehlt sich der Befehl „ExportImage“.
z.B.: ExportImage("filename", "beispiel_4410_1.svg", "type", "svg", "transparent", "true") -
„Druckvorschau“ ermöglicht das Ausdrucken des aktuell sichtbaren Ausschnitts der Grafik-Ansicht
Anforderungen an die Eingabe:
Mit Hilfe der Eingabezeile und Befehlen kann man die algebraische Repräsentation eines mathematischen Objekts eingeben bzw. ändern. Dabei sind folgende Regeln zu beachten:
- Dezimalzahlen erfordern die englische Schreibweise, d.h. das Komma wird als Punkt geschrieben. Beispiel: ½ als 0.5 nicht als 0,5
- Hochzahl einer Potenz erzeugt man mit der „Dach-Taste“, also etwa 2x durch 2^x
- Fakultät wird als n! geschrieben und ist das Produkt aller natürlichen Zahlen größer Null und kleiner gleich n
- Binomialkoeffizient n über k wird als nCr(n,k) geschrieben und besagt, wie viele Möglichkeiten es gibt, k Elemente aus einer Menge von n Elementen auszuwählen
- Permutation ohne Zurücklegen nPr(n,k) besagt, wie viele Möglichkeiten es ohne Zurücklegen gibt, k Elemente aus einer Menge von n unterscheidbaren Elementen auszuwählen
- Komplexe Zahl im CAS: Die Eingabe muss in der Form (a+bi) erfolgen, nicht aber als (a+ib).
- Punkte werden mit Großbuchstaben eingegeben: A=(2,2)
- Vektoren werden mit Kleinbuchstaben eingegeben v=(1,1,2)
- Listen werden mit dem Kleinbuchstaben l und einer Zahl innerhalb einer geschwungenen Klammer eingegeben: l1={1,2,3} oder l2={4,5,6}. Am einfachsten erzeugt man Listen in der Listenansicht.
- Matrizen werden mit dem Kleinbuchstaben m und einer Zahl innerhalb einer geschwungenen Klammer als Liste von Listen eingegeben: m1= {{1, 2, 3}, {4, 5, 6}} oder m1={l1,l2}
- Eulersche Zahl \(e\) darf nicht als Buchstabe „e“ eingegeben werden, sondern wird
- entweder als Sonderzeichen über die virtuelle Tastatur (im Bereich 123 zu finden) eingegeben
- oder mittels „Alt + e“ über die Tastatur
- Kreiszahl Pi wird
- durch das Wort pi oder Pi eingegeben
- oder als Sonderzeichen über die virtuelle Tastatur (im Bereich 123 zu finden) eingegeben
- oder mittels „Alt P“ über die Tastatur
- Imaginäre Einheit i darf nicht als Buchstabe „i“ eingegeben werden, sondern wird
- entweder als Sonderzeichen über die virtuelle Tastatur (im Bereich f(x) zu finden) eingegeben
- oder mittels „Alt + i“ über die Tastatur
- Unendlich-Zeichen \(\infty \) wird
- entweder als Sonderzeichen über die virtuelle Tastatur eingegeben
- durch das Wort infinity oder Infinity eingegeben
- oder mittels „STRG + U“ über die Tastatur.
- Zuweisung := vs Gleichung = In der CAS-Ansicht werden Variable und Terme mit einem den Gleichheitszeichen vorgesetzten Doppelpunkt „:=“ zugewiesen, nicht so in der Algebra-Ansicht
- CAS-Eingabe: f(x):=2x^2
- Algebra-Eingabe: f(x)=2x^2
- Mal-Rechenzeichen „*“ der Multiplikation muss in der CAS-Ansicht verpflichtend in der Form „*“ eingegeben werden, nicht so in der Algebra-Ansicht
- CAS-Eingabe: a*(b+c)
- Algebra-Eingabe: a(b+c)
- Brüche werden in Form einer Division angeschrieben, wobei sowohl Zähler als auch Nenner in runde Klammern gesetzt werden sollten.
- Variablen existieren nur ein Mal innerhalb eines Arbeitsblattes. Es kann der Variablen in einer nachfolgenden CAS-Eingabe kein neuer Wert zugewiesen werden. Variablen, die in der Algebra-Ansicht definiert wurden, werden in der CAS-Ansicht nicht erneut dargestellt, können aber verwendet werden.
- Funktionen kann man durch den Funktionsterm einzugeben, man kann aber auch y= oder f(x)= voran setzen.
- Betragsfunktion gibt man als abs(..) ein, wobei die Zahl zwischen runden Klammern gesetzt wird.
- Signumfunktion liefert Vorzeichen, die man mit Hilfe der Signum-Funktion sign(x) ermittelt
- Liefert +1 für positive Zahlen, -1 für negative Zahlen und 0 für null
- Rundungsfunktionen erhält man mit Hilfe
- round(x), wodurch auf die nächste ganze Zahl gerundet wird
- ceil(x), wodurch auf die nächste ganze Zahl aufgerundet wird
- floor(x), wodurch auf die nächste ganze Zahl abgerundet wird
- Wurzel zieht man mit Hilfe von sqrt(x)
- Logarithmen berechnet man mit Hilfe von ln(x), log(x) bzw. mit log10(x) oder log2(x)
- Winkelfunktionen berechnet man mit sin(x), cos(x), tan(x),…
- Umkehrung der Winkelfunktionen liefern mit
- arcsind(x) das Ergebnis in Grad
- arcsin(x) das Ergebnis in Radianten
Unterschied freie und abhängige Objekte
- Freie Objekte (z.B.: 2 Punkte A, B) hängen nicht von der Position oder vom Wert bereits zuvor erstellter Objekte ab. Werden freie Objekte über ihre "Einstellungen" fixiert, können sie nicht mehr gezogen und damit auch nicht mehr in ihrer Position am Zeichenblatt verändert werden.
- Abhängige Objekte (z.B.: die Strecke AB) hängen von der Position oder vom Wert bereits zuvor erstellter freier Objekte ab. Löscht man das zugrunde liegende freie Objekt, so löscht man auch das abhängige Objekt.
Statische und dynamische Texte
Die Eingabemaske für Texte wird über die Werkzeugleiste und das Icon "ABC Text" eingegeben. Über "Erweitert" kann man 4 Kartei-Reiter (Vorschau, GeoGebra-Symbol, Griechischen Zeichensatz und vordefinierte LaTeX Formeln) anzeigen.
- Statischer Text wird über die Tastatur eingegeben und ist von Objekten und Änderungen an Objekten unabhängig. Statischer Text kann in Form von ASCII Code oder als LaTeX-Code eingegeben werden. Während mit ASCII Code die von der Tastatur vertrauten Buchstaben und Ziffern und einige darüber hinausgehende Sonderzeichen eingegeben werden können, kann man mit LaTeX-Code ganze Formeln (samt Wurzel- und Integralzeichen oder Brüchen) eingeben.
- Dynamischer Text wird mit Hilfe der im Kartei-Reiter mit dem GeoGebra-Symbol enthaltenen Objekten erstellt.
- Statischer und Dynamischer Text zusammen ermöglichen Texte mit Koordinaten zu vereinen.
Geogebra Binomial (Befehl)
- Binomial( <Anzahl der Versuche>, <Erfolgswahrscheinlichkeit> )
- Mit dem Befehl Binomial (n, p) erzeugt man in der Grafik-Ansicht ein Balkendiagramm.
- Der Parameter n steht dabei für die Anzahl der von einander unabhängigen Bernoulli-Versuche.
- Der Parameter p steht für die Erfolgswahrscheinlichkeit pro Versucht
Beispiel
- Gegeben:
- n=20
- p=0,9
- Gesucht:
- Balkendiagramm der Binomialverteilung
- Ausführung:
- Syntax: Binomial( <Anzahl der Versuche>, <Erfolgswahrscheinlichkeit> )
- Geogebra Grafik-Ansicht: Binomial(20, 0.9)
- Anmerkung: x-Achse auf 0 .. 22 skalieren; y-Achse auf 0 .. 0,5 skalieren
- Lösung:
- Wir erhalten ein Balkendiagramm der Binomialverteilung.
- Der höchste Balken entspricht dem zugehörigen Erwartungswert \(E(x) = \mu \)
Beispiel
- Gegeben:
- n=20
- p=0,9
- Gesucht:
- Erwartungswert \(E(x) = \mu \) der Binomialverteilung
- Standardabweichung \(\sigma\) der Binomialverteilung
- Ausführung:
- Geogebra → Ansicht → Wahrscheinlichkeitsrechner
- Im Feld für die Verteilung von Normal auf → Binomial umstellen
- n=20 und p=0.9 eingeben
- Die Klammerausdrücke können unbeachtet bleiben
- Lösung:
- Wir erhalten ein Balkendiagramm der Binomialverteilung.
- Wir erhalten den zugehörigen Erwartungswert zu \(E(x) = \mu = 18\)
- Wir erhalten die zugehörige Streuung zu \(\sigma = 1,3416\)
Geogebra InversNormal (Befehl)
- InversNormal[ <Mittelwert>, <Standardabweichung>, <Wahrscheinlichkeit> ]
- Mit dem Befehl InversNormal (μ, σ , P] berechnet man jene Zufallsvariable X, welche die gegebene Wahrscheinlichket P als Fläche unter der Gauß'schen Glockenkurve besitzt.
Beispiel
- Gegeben:
- Erwartungswert μ = 1005 mm
- Standardabweichung σ = 5 mm
- Fläche = 0,025 bzw. Wahrscheinlichkeit P = 2,5%
- Gesucht:
- Zufallsvarialble X
- Ausführung:
- Syntax: InversNormal[ <Mittelwert>, <Standardabweichung>, <Wahrscheinlichkeit> ]
- Geogebra - CAS Ansicht: InversNormal[1005, 5, 0.025] → X=x1 = 995,25
- Lösung
- Für die Zufallsvariable X=x1 = 999,25 mm beträgt bei einer μ = 1005 mm und σ = 5 mm verteilten Normalverteilung die Wahrscheinlichkeit 2,5% bzw. die Fläche unter der Gauß'schen Glockenkurve 0,025
Beispiel
- Gegeben:
- Erwartungswert μ = 1005 mm
- Standardabweichung σ = 5 mm
- Fläche = 0,95 bzw. Wahrscheinlichkeit P = 95%
- Gesucht:
- Ermitteln Sie dasjenige um μ symmetrische Intervall, in dem 95 % der Zufallswerte liegen.
- Ausfühung:
- untere Grenze: Fläche links von der unteren Grenze: \(\dfrac{{1 - 0,95}}{2} = 0,025\)
- Syntax: InversNormal[ <Mittelwert>, <Standardabweichung>, <Wahrscheinlichkeit> ]
- Geogebra - CAS Ansicht: InversNormal[1005, 5, 0.025] → x1 = 995,25
- obere Grenze: Fläche links von der oberen Grenze: \(\dfrac{{1 - 0,95}}{2} + 0,95 = 0,975\)
- Syntax: InversNormal[ <Mittelwert>, <Standardabweichung>, <Wahrscheinlichkeit> ]
- Geogebra - CAS Ansicht: InversNormal[1005, 5, 0.975] → x2 = 1014,75
- untere Grenze: Fläche links von der unteren Grenze: \(\dfrac{{1 - 0,95}}{2} = 0,025\)
- Lösung:
- Das symmetrische Intervall, in dem mit einer Wahrscheinlichkeit P=95% alle Zuvallsvariablen X einer μ = 1005 mm und σ = 5 mm verteilten Normalverteilung liegen, lautet: [995,2; 1 014,8]
- Grafische Darstellung
-
Der Befehl mit der Syntax: Normal[μ, σ, x, false] erzeugt eine Darstellung der Wahrscheinlichkeitsdichtefunktion der Normalverteilung f
-
Geogebra Grafik-Ansicht: Normal(1005, 5, x, false)
-
-
Der Befehlt mit der Syntax: Integral(<Funktion>, <untere Grenze>, <obere Grenze>) berechnet das bestimmte Integral der Funktion f zwischen unterer und oberer Grenze und schattiert die Fläche über die integriert wurde.
-
Geogebra Grafik-Ansicht: Integral(f, 995.25, 1014.75)
-
-
Geogebra Normal (Befehl)
- Normal[ <Erwartungswert>, <Standardabweichung>, <Wert der Variablen x1> ]
- \(P\left( {X \le x_1} \right)\) einer \({\rm{N}}\left( {\mu ,\sigma } \right)\) Normalverteilten Zufallsvariablen X berechnen
- Mit dem Befehl Normal[μ, σ , x1] berechnet man die Wahrscheinlichkeit P dafür, dass eine Zufallsvariable X kleiner oder gleich einem Grenzwert x1 ist. Das Resultat entspricht der Fläche unter der Gauß'schen Glockenkurve, welche links von x1 liegt.
Beispiel
- Gegeben:
- Erwartungswert μ = 12,000 mm
- Standardabweichung σ = 0,06 mm
- untere Grenze x1 = 11,96 mm
- obere Grenze x2 = 12,04 mm
- Gesucht:
- Wahrscheinlichkeit, dass eine Zufallsvariable X zwischen einer unteren x1 und einer oberen x2 Grenze liegt
- \(P\left( {{x_1} \le X \le {x_2}} \right)\) einer \({\rm{N}}\left( {\mu ,\sigma } \right)\) -verteilten Zufallsvariablen X berechnen
- Ausführung:
- Syntax: Normal[μ, σ , x2] - Normal[μ, σ , x1]
- Geogebra Algebra-Ansicht: Normal[12, 0.06, 12.04] - Normal[12, 0.06, 11.96] → (0,7475 - 0,2525 =) 0,495
- Lösung
- Die Wahrscheinlichkeit, daß ein μ = 12,000 mm und σ = 0,06 mm verteilter Zufallswert zwischen x1 = 11,96 mm und x2 = 12,04 mm liegt, beträgt 49,5%
- Grafische Darstellung
- Der Befehl mit der Syntax: Normal[μ, σ, x, false] erzeugt eine Darstellung der Wahrscheinlichkeitsdichtefunktion der Normalverteilung f
- Geogebra Grafik-Ansicht: Normal(12, 0.06, x, false)
- Der Befehlt mit der Syntax: Integral(<Funktion>, <untere Grenze>, <obere Grenze>) berechnet das bestimmte Integral der Funktion f zwischen unterer und oberer Grenze und schattiert die Fläche über die integriert wurde.
- Geogebra Grafik-Ansicht: Integral(f, 11.96, 12.04)
- Der Befehl mit der Syntax: Normal[μ, σ, x, false] erzeugt eine Darstellung der Wahrscheinlichkeitsdichtefunktion der Normalverteilung f
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Satz von Thales
Interaktive Illustration auf GeoGebra.org anzeigen
Bewege den Punkt P entlang vom Halbkreis und beobachte wie sich die beiden Winkel immer zu 90° aufsummieren.
Exponentialfunktion
Interaktive Illustration auf GeoGebra.org anzeigen
- Regler a: Verändere die Basis
- Regler c: Verändere den Faktor
Natürliche Exponentialfunktion
Interaktive Illustration auf GeoGebra.org anzeigen
- Regler \(\lambda\): Entscheidet über Wachstum oder Zerfall
- Regler N0: Entscheidet über Startwert