.
Finanzmathematik
Thorsten Schmidt Mathematisches Institut der Universit¨at Leipzig, Augustusplatz 10/11 D-04109 Leipzig
[email protected]
Version vom 25. August 2004
Inhaltsverzeichnis 1 Einfu ¨hrung
4
1.1 Die ersten Derivate: Optionen . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2 Ein zentraler Begriff: Arbitrage . . . . . . . . . . . . . . . . . . . . . . . .
6
1.3 Das Cox-Ross-Rubinstein Modell . . . . . . . . . . . . . . . . . . . . . . .
6
2 Martingale und die Brownsche Bewegung
10
2.1 Martingale und Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Die Brownsche Bewegung
. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Die Doobschen Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 16 3 Stochastische Integration
18
3.1 Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2 Die Definition des Itˆo-Integrals . . . . . . . . . . . . . . . . . . . . . . . . 18 2 3.3 Die Erweiterung des Itˆo-Integrals auf Hloc . . . . . . . . . . . . . . . . . . 23
3.4 Lokale Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.5 Die Itˆo-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.6 Weitere Itˆo-Formeln
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.7 Ein erster Blick auf das Black-Scholes Modell . . . . . . . . . . . . . . . . 32 3.8 Stochastische Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 33 3.9 Der Ornstein-Uhlenbeck Prozess . . . . . . . . . . . . . . . . . . . . . . . . 37 3.10 L¨osungsmethoden f¨ ur SDEs . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.10.1 Koeffizientenvergleich . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.10.2 Multiplikativer Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . 39
2
INHALTSVERZEICHNIS
3
4 Das Black-Scholes Modell
40
4.1 Das Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.2 Selbstfinanzierende Handelsstrategien . . . . . . . . . . . . . . . . . . . . . 41 4.3 Das Girsanov-Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.4 Repr¨asentation von Brownschen Martingalen. . . . . . . . . . . . . . . . . 44 4.5 Pricing im Black-Sholes Modell . . . . . . . . . . . . . . . . . . . . . . . . 45 4.5.1
Das ¨aquivalente Martingalmaß . . . . . . . . . . . . . . . . . . . . . 45
4.5.2
Pricing von europ¨aischen Optionen . . . . . . . . . . . . . . . . . . 46
4.6 Delta-Gamma Hedging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.7 Die Greeks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.8 Sch¨atzen der Volatilit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.9 Nachschlag: Arbitrage Theorie . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.10 Homogenit¨at der Black-Scholes Formel . . . . . . . . . . . . . . . . . . . . 58 4.11 Chooser Optionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5 Optionspreisbewertung mit partiellen Differentialgleichungen
60
5.2 Die W¨armeleitungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.2.1
Fourier-Transformation von partiellen Dgls . . . . . . . . . . . . . . 62
5.3 Die L¨osung der BS-Differentialgleichung
. . . . . . . . . . . . . . . . . . . 65
5.3.1
Die Transformation auf die W¨armeleitungsgleichung . . . . . . . . . 65
5.3.2
Zur¨ uckf¨ uhren auf einen Erwartungswert
. . . . . . . . . . . . . . . 66
5.4 Ein Modell mit Transaktionskosten . . . . . . . . . . . . . . . . . . . . . . 67 6 Unvollst¨ andige M¨ arkte
70
6.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 6.1.1
Das verallgemeinerte Black-Scholes Modell . . . . . . . . . . . . . . 70
6.2 Pricing in unvollst¨andigen M¨arkten . . . . . . . . . . . . . . . . . . . . . . 72 6.3 Hedging in unvollst¨andigen M¨arkten . . . . . . . . . . . . . . . . . . . . . 75 A Die goldenen Regeln
80
Kapitel 1 Einfu ¨ hrung Mit der Finanzmathematik behandeln wir in dieser Vorlesung ein Gebiet, in dem das Zusammenspiel zwischen Fragestellungen aus der Praxis, eben den Finanzm¨arkten, und tiefliegenden stochastischen Methoden zu ¨außerst fruchtbaren Resultaten f¨ uhrt. Dies wird nicht zuletzt durch die Vergabe der Nobelpreise in den letzten beiden Jahren an Robert Merton und Myron Scholes (2003) sowie Robert Engle (2003) deutlich. Schon in diskreter Zeit kann man eine Vielzahl wichtiger Probleme behandeln und l¨osen, f¨ ur die praktische Anwendung und f¨ ur Methoden die state of the art sind, sind Methoden in kontinuierlicher Zeit unerl¨asslich. Aus diesem Grund stellen wir zun¨achst nur kurz das Modell von Cox, Ross, and Rubinstein (1979) vor, und beginnen anschließend direkt mit dem “stochastic calculus”, der uns im wesentlichen zur Itˆo-Formel f¨ uhren wird. Das sogenannte Black-Scholes Modell, was mehr oder weniger gleichzeitig in Black and Scholes (1973) und Merton (1973) vorgestellt wurde, wird uns immer wieder als Paradebeispiel f¨ ur die Anwendung der vorgestellten Methoden dienen.
1.1
Die ersten Derivate: Optionen
In dieser Vorlesung werden wir uns haupts¨achlich auf Aktienm¨arkte konzentrieren. Es sei an dieser Stelle erw¨ahnt, dass noch eine Vielzahl von M¨arkten existiert, auf denen z.B. ¨ oder gar Klimarisiken gehandelt werden. Bonds, W¨ahrung, Strom, Gold, Getreide, Ol Nat¨ urlich hat jeder Markt seine eigenen Charakteristika, und es gilt, gerade diese mit einem stochastischem Modell m¨oglichst gut nachzubilden. Marktteilnehmer nutzen aus unterschiedlichen Interessen diese M¨arkte, sei es zur Absicherung von Risiken oder um mit Spekulationen Geldgewinne zu machen. F¨ ur die Absicherung von Risiken gibt es eine Reihe von spezialisierten Produkten, die (fast alle) W¨ unsche der Anleger erf¨ ullen. Typischerweise nennt man die prim¨ar gehandelten G¨ uter (wie Aktien oder eine W¨ahrung) underlying. Ein spezielles Produkt, was von diesem underlying abh¨angt, nennt man Derivat. Ein einfaches Derivat ist eine sogenannte Option.
4
1.1 Die ersten Derivate: Optionen
5
Eine Option gibt dem Inhaber das Recht, aber nicht die Pflicht das underlying zu einem festgelegten Preis zu kaufen (Call) oder verkaufen (Put) zu k¨onnen. Eine solche Option ist durch folgende Dinge gekennzeichnet • Der Typ der Option bestimmt, ob es sich um ein Kaufrecht “to call” oder ein Verkaufsrecht “to put” handelt. Weiterhin unterscheidet man zwischen europ¨aischen und amerikanischen Optionen. Doch dazu gleich mehr. • Mit maturity bezeichnet man den Aus¨ ubungszeitpunkt der Option. Handelt es sich um eine europ¨aische Option, kann allein zu diesem Zeitpunkt die Option ausge¨ ubt werden. Bei einer amerikanischen Option ist dies zu jedem Zeitpunkt vor dem Aus¨ ubungszeitpunkt m¨oglich. • Der strike bezeichnet den Aus¨ ubungspreis, d.h. der Preis f¨ ur den das underlying gekauft oder verkauft werden kann. • Nat¨ urlich muss auch das underlying genau spezifiziert sein. Ein solche Option hat nat¨ urlich ihren Preis. Wir betrachten einen europ¨aischen Call und bezeichnen maturity mit T , den Preis des underlyings, hier also den Preis einer Aktie (stock) zum Zeitpunkt T mit ST und den strike mit K. Zum Zeitpunkt T gibt es zwei m¨ogliche Szenarien. Im Fall ST < K ist der Preis der Aktie geringer als der Aus¨ ubungspreis. Eine Aus¨ ubung der Option macht also keinen Sinn, da die Aktie am Markt billiger zu haben ist. Der Wert der Option ist in diesem Falle also Null. Ist andererseits ST > K, so wird die Option ausge¨ ubt. Verkauft man die Aktie direkt wieder, so streicht man einen Gewinn von ST − K ein. Demzufolge ist der Wert der Option an T (ST − K)+ := max(ST − K, 0).
Zu diesem Zeitpunkt ergeben sich zwei ¨außerst interessante Fragestellungen: 1. Wie hoch ist der Wert der Option. Betrachten Sie z.B. die BMW Aktie (WKN: 954731, Kurs am 6.4.2004 war 35 EUR) und eine Option mit einer Laufzeit von einem Jahr und einem strike von 40. Wieviel w¨aren Sie bereit f¨ ur diese Option zu zahlen ? 2. Stellen Sie sich vor, Sie w¨ urden (als Bank oder H¨andler in einer Bank) eine solche Option verkaufen. Sie erhalten heute eine gewisse Pr¨amie, den Preis der Option, m¨ ussen aber in einem Jahr (ST − K)+ “erwirtschaftet” haben. Dieser Betrag kann sehr klein, aber auch wesentlich h¨oher als Ihre Pr¨amie sein! Dies sind zwei fundamentale Probleme der Finanzmathematik. Da es sich bei dem ersten Problem um die Frage nach dem Preis der Option handelt, spricht man auch vom pricing. Im zweiten Fall muss der H¨andler sich gegen zuk¨ unftige Zahlungen absichern, die seine Pr¨amie bei weitem u bersteigen k¨ o nnen, deswegen spricht man hier vom hedging. ¨ Aufgabe 1. Die payoff-Profile der Optionen nennt man auch hockey-sticks. Skizzieren Sie den payoff gegen ST . Typischerweise gibt es je nach Verh¨altnis von ST und K Optionen, die man mit “in the money”, “at the money” und “out of the money” bezeichnet. Zeichnen Sie diese ein.
1.2 Ein zentraler Begriff: Arbitrage
1.2
6
Ein zentraler Begriff: Arbitrage
Da wir uns im wesentlichen auf Aktienm¨arkte konzentrieren wollen, setzen wir in dieser Vorlesung eine konstante (kontinuierliche) Zinsrate r voraus, d.h. eine Investition von 1 ist nach einem Zeitraum τ gerade erτ wert. Ein Bond ist ein Produkt, dass dem K¨aufer zu einem zuk¨ unftigen Zeitpunkt, sagen wir T , einen festen Betrag, etwa 1, garantiert. Bezeichnen wir den heutigen Zeitpunkt mit t, so stellt sich die Frage nach dem Preis des Bonds. Nat¨ urlich scheint e−r(T −t) als Kandidat pr¨adestiniert, aber wie kann man das beweisen ? Einmal angenommen, der Bond w¨are billiger. Ein cleverer Markteilnehmer k¨onnte sich sehr viel Geld leihen (zum Zinssatz r !!) und in den Bond investieren. Mit den Auszahlungen des Bonds kann er seinen Kredit tilgen und hat einen risikolosen Gewinn gemacht. Dieses Schn¨appchen w¨ urde sich nat¨ urlich kein Marktteilnehmer entgehen lassen, und da sich Preise nach Angebot und Nachfrage regeln, w¨ urde der Preis des Bonds steigen ... Ein umgekehrtes Argument gilt nat¨ urlich, wenn der Bond zu teuer ist. Der Markt findet also durch Angebot und Nachfrage zum “fairen” Preis. Um dies mathematisch pr¨aziser formulieren zu k¨onnen, f¨ uhrt man den Begriff Arbitrage ein. Eine Arbitrage-M¨oglichkeit, ist eine M¨oglichkeit, risikolos Gewinne zu erzielen, sozusagen eine Gelddruckmaschine. Wir nehmen nun an, dass gerade solche Arbitrage-Mo ¨glichkeiten in den betrachteten M¨ arkten nicht existieren. Aufgabe 2. Leiten Sie die Put-Call Parit¨at Ct − Pt = St − Ke−r(T −t) mit Hilfe eines Arbitrageargumentes ab. Hierbei bezeichnen Ct den Preis des Calls, Pt den Preis des Puts und St den Preis des underlyings (jeweils zur Zeit t).
1.3
Das Cox-Ross-Rubinstein Modell
In diesem Abschnitt diskutieren wir ein Einperiodenmodell mit den Zeitpunkten 0 (heute) und 1. Weiterhin seien f¨ ur den Aktienpreis an 1 nur zwei M¨oglichkeiten zugelassen, die + − wir mit S1 und S1 bezeichnen. Allerdings nehmen wir an, dass beide Werte mit positiver Wahrscheinlichkeit angenommen werden. Ziel ist es, den Preis C0 eines Calls auf diese Aktie zu bestimmen. Zun¨achst gibt es auch f¨ ur den Wert des Calls an 1 zwei M¨oglichkeiten, C1+ := (S1+ − K)+ und C1− := (S1− − K)+ . Dem Verk¨aufer des Calls stehen drei Investitionsm¨oglichkeiten zur Verf¨ ugung: die Aktie, der Call und das risikolose Bankkonto. Zum Zeitpunkt 0 habe er ein Call verkauft (wir sagen, er sei einen Call short). Seinen (noch zu bestimmenden) Aktienanteil bezeichen wir mit ∆. Insgesamt starte er mit einem Kapital von 0, d.h. fehlendes Kapital (bzw. u ussiges) muss er sich von der Bank ¨bersch¨ leihen (bzw. dort anlegen). So ergibt sich f¨ ur sein Portfolio (PF) zum Zeitpunkt 0 folgende Situation:
1.3 Das Cox-Ross-Rubinstein Modell
PF:
7
Aktie
Call
Bank
Σ
∆S0
−C0
C0 − ∆S0
0
Zum Zeitpunkt 1 sind zwei Szenarien m¨oglich: Aktie
Call
Bank
S1+
∆S1+
−(S1+
2. S1 = S1−
∆S1−
−(S1− − K)+ =: −C1−
1. S1 =
+
− K) =:
−C1+
e C0 − ∆S0 r e C0 − ∆S0 r
Am Besten f¨ ur den H¨andler w¨are nat¨ urlich, wenn er keinen Verlust machen w¨ urde. Freier Parameter ist ∆. Wir setzen beide Szenarien gleich: ∆S1+ − C1+ + er C0 − ∆S0 = ∆S1− − C1− + er C0 − ∆S0 ⇔ ∆ S1+ − S1− = C1+ − C1− C1+ − C1− ∆= + , S1 − S1−
⇔
(1.1)
wobei die letzte Umformung S1+ 6= S1− voraussetzt. Der Aktienanteil ∆ ergibt sich also aus einem Verh¨altnis der m¨oglichen Kursspannen von C1 bzw. S1 . Interessanterweise macht der H¨andler bei Wahl dieses ∆ keinen Verlust, aber auch keinen Gewinn! Seine Position ist risikolos, man sagt er ist perfekt ge-hedge-t. Aufgabe 3. Zeigen Sie, dass jede andere Wahl von ∆ mit einer positiven Wahrscheinlichkeit einen Verlust zur Folge hat. Den Preis des Calls haben wir allerdings immer noch nicht ausgerechnet. Betrachten wir dazu noch einmal genauer das Portfolio aus Aktie und Call: − + + − ∆S + − C + = −C1 S+1 +C−1 S1 , S1 = S1+ 1 1 S1 −S1 ∆S0 − C0 → + − − + ∆S1− − C1− = C1 S1+ −C−1 S1 , S1 = S1− S −S 1
1
Wie erwartet, hat auch dieses Portfolio in beiden F¨allen den gleichen Wert, es ist ebenfalls risikolos. Da wir annehmen, dass unser Markt keine Arbitragem¨oglichkeiten zul¨asst, muss es ¨aquivalent zu einem Bankkonto mit dem gleichen payoff sein, d.h. C1+ S1− − C1− S1+ e (∆S0 − C0 ) = . S1+ − S1− r
Das ist ¨aquivalent zu C0 = ∆S0 − e−r
C1+ S1− − C1− S1+ . S1+ − S1−
1.3 Das Cox-Ross-Rubinstein Modell
8
Diesen Ausdruck m¨ochten wir im folgenden noch eleganter darstellen, und betrachten zun¨achst + − S1− S1+ −r C1 − C1 r + − C0 = e S0 e − + C + + C S1+ − S1− S1 − S1− 1 S1 − S1− 1 − r S1+ − S0 er − −r S0 e − S1 + =e C + + C . S1+ − S1− 1 S1 − S1− 1 Setzen wir q := so ist 1 − q = Q(S1 =
S1+ )
S1+ −S0 er . S1+ −S1−
S0 er − S1− , S1+ − S1−
Ist nun q ∈ (0, 1), so kann man ein W-Maß Q einf¨ uhren, so dass
= q und Q(S1 = S1− ) = 1 − q, und erhalten h + i . C0 = EQ e−r S1 − K
(1.2)
Hierbei bezeichnen wir durch EQ den Erwartungswert unter dem Maß Q. Q bezeichnet man auch als risikoneutrales Maß. Beachten Sie, dass die tats¨achlichen Wahrscheinlichkeiten, mit denen S1+ bzw. S1− angenommen werden, zu keiner Zeit eine Rolle spielten (solange sie nicht gerade verschwinden)! Man kann die Bewertungsregel in (1.2) auch folgendermaßen formulieren: Der Preis des Calls ist der Erwartungswert (unter dem risikoneutralen Maß) seines diskontierten payoffs. Aufgabe 4. Bewerten Sie einen Call f¨ ur K ≥ S1+ .
Aufgabe 5. Wie geht die Annahme, das S1+ und S1− mit jeweils positiver Wahrscheinlichkeit angenommen werden in das Modell ein? Bewerten Sie hierzu einen Call im Falle, dass S1− mit Wahrscheinlichkeit 0 auftritt. Aufgabe 6. Q ist ein “Martingalmaß” , d.h. ein Maß, unter dem diskontierte Preisprozesse Martingale bilden. Zeigen sie hierzu EQ e−r S1 = S0 , und ebenso f¨ ur C.
Aufgabe 7. Das Black-Scholes Modell erh¨alt man aus dem Cox-Ross-Rubinstein Modell durch einen Grenz¨ ubergang. Zun¨achst erweitert man das hier vorgestellte Modell auf mehrere Perioden, sagen wir 1, . . . , k und nutzt f¨ ur S folgende Darstellung: St = S0
t Y i=1
ξi ,
t ∈ {1, . . . , k}.
Hierbei sind die ξi unabh¨angige, identisch verteilte (i.i.d.) Zufallsvariablen (ZV), die zwei m¨ogliche Werte annehmen k¨onnen, so dass1 Q(ξi = u) = q und Q(ξi = d) = 1−q. Nehmen 1
Implizit h¨ angen u, d und q nat¨ urlich von k ab, der besseren Lesbarkeit halber unterdr¨ ucken wir dies aber in unserer Notation.
1.3 Das Cox-Ross-Rubinstein Modell
9
Sie der Einfachheit halber r = 0 an und zeigen Sie, dass der Call-Preis durch folgende Formel gegeben ist: C0 =
k X k i=0
i
+ q i (1 − q)k−i S0 uidk−i − K .
¨ F¨ ur den Ubergang zum kontinuierlichen Modell betrachtet man ein Gitter auf [0, 1], gegeben durch 0, k1 , . . . , 1 und l¨asst k gegen unendlich gehen. Eine geschickte Wahl von u, d sorgt daf¨ ur, dass zum einen q → 12 und zum anderen Sk gegen eine log-normalverteilte L
Zufallsvariable konvergiert, d.h. f¨ ur η ∼ N (µ, σ 2) ist schließlich S1 = exp(η − 12 σ 2 ). Mit dem zentralen Grenzwertsatz erh¨alt man die Black-Scholes Formel C0 = S0 Φ(d1 ) − Ke−r Φ(d2 ).
Bemerkung 1.3.1. Eine andere Wahl der uk und dk f¨ uhrt m¨oglicherweise zu anderen Grenzprozessen. So kann z.B. ein Poissonprozess als Grenzprozess auftauchen, siehe Bingham and Kiesel (1998, Kapitel 4.6.3). Aufgabe 8. Konstruieren Sie einen Cox-Ross-Rubinstein Baum, der gegen einen PoissonProzess konvergiert.
Kapitel 2 Martingale und die Brownsche Bewegung 2.1
Martingale und Stoppzeiten
Ein zuf¨alliges Ph¨anomen, wie z.B. Aktienkurse, die man an verschiedenen Zeitpunkten oder in einem Zeitintervall beobachtet, beschreibt man am besten durch einen stochastischen Prozess. Hierzu betrachten wir einen Wahrscheinlichkeitsraum (Ω, A, P) und definieren darauf einen Stochastischen Prozess als eine Familie von Zufallsvariablen X := {Xt : 0 ≤ t < ∞}, welche Werte im sogenannten Zustandsraum, einem Maßraum (Z, Z) annehmen. Typischerweise ist Z = R oder Z = Rd . F¨ ur ein festes ω nennen wir die Funktion t → Xt (ω) einen Pfad von X. F¨ ur X verwenden wir auch die Notation (Xt )t≥0 . Mit der Interpretation von t als Zeit gelangt man direkt zu Vergangenheit, Gegenwart und Zukunft. Das Konzept der Filtration erm¨oglicht in diesem Rahmen eine elegante Formulierung der zur Zeit t vorhandenen Information: Definition 2.1.1. Eine Filtration {F } ist eine monoton wachsende Folge von Sub-σAlgebren von A, d.h. f¨ ur alle s < t ist Fs ⊆ Ft ⊆ A. Die σ-Algebra Ft repr¨asentiert demnach die Information, die ein Beobachter bis zur Zeit t gesammelt hat. Wird beispielsweise nur der stochastische Prozess X beobachtet, so setzt man FtX := σ(Xs : 0 ≤ s ≤ t)
und erh¨alt die natu ¨rliche Filtration von X.
X heißt adaptiert (an F ), falls Xt Ft -messbar ist f¨ ur alle t ≥ 0. Offensichtlich ist X adaptiert an seine nat¨ urliche Filtration. Um technische Probleme mit “unsch¨onen” Filtrationen zu vermeiden, werden wir stets eine gewisse Regularit¨at fordern (die “usual conditions”): Die Filtration sei rechtsseitig stetig, d.h. f¨ ur alle t ≥ 0 ist Ft = Ft+ := ∩ε>0 Ft+ε und F enth¨alt alle P − Nullmengen von A.
Die zweite Eigenschaft erlaubt uns, f¨ ur den Fall zweier stochastischer Prozesse X und Y , die P -f.s. identisch sind, aus Xt ist adaptiert (an F ) zu folgern, dass Y ebenso adaptiert (an F ) ist. 10
2.1 Martingale und Stoppzeiten
11
Bemerkung 2.1.2. Die obige Definition der nat¨ urlichen Filtration erf¨ ullt diese Bedingung noch nicht, wir k¨onnen dies aber mit einer einfachen Modifikation erreichen. Dazu de¯ die σ-Algebra, die jeweils durch Ft und N0 (die σ-Algebra aller finieren wir mit {F} P-Nullmengen) erzeugt wird. {F¯ } erf¨ ullt nun die “usual conditions“. Im folgenden sei stets diese Modifikation gemeint. Beispiel 2.1.3. Betrachten wir in diskreter Zeit die n-te Partialsumme, d.h. f¨ ur i.i.d. Xi Sn :=
n X
Xi ,
i=1
und Fn := σ(X1 , . . . , Xn ), so ist Sn ein adaptierter Prozess. In stetiger Zeit h¨angt man diesen Prozess an den Zeitpunkten 0, n1 , . . . , 1 auf, und erh¨alt den Partialsummenprozess1 n
S (t) :=
[n t] X
Xi .
i=1
Die nat¨ urliche Filtration erh¨alt hier jeweils an den Zeitpunkten
k n
einen Informationsschub.
Durch die Frage nach dem ersten Zeitpunkt, an dem ein vorgegebener Prozess einen gewissen Wert u ¨berschreitet, gelangt man zu dem Konzept von zuf¨alligen Zeitpunkten, den sogenannten Stoppzeiten. Ebenso k¨onnte man in obigem Beispiel S n (t) nicht an festen Zeitpunkten, sondern an zuf¨alligen Zeitpunkten aufh¨angen, siehe Beispiel 2.1.7. Definition 2.1.4. Eine Zufallsvariable τ heißt Stoppzeit (bezgl. der Filtration {F }), falls τ ∈ [0, ∞] und {τ ≤ t} ∈ Ft . Die σ-Algebra der Information vor τ definieren wir mit Fτ := A ∈ A : A ∩ {τ ≤ t} ∈ Ft f¨ ur alle t ≥ 0 . Man kann nun folgendes zeigen: Satz 2.1.5.
• Eine Stoppzeit τ ist Fτ -messbar.
• F¨ur einen adaptierten Prozess ist Xτ , definiert auf {τ < ∞}, Fτ -messbar. • F¨ur zwei Stoppzeiten τ, σ mit τ ≤ σ P−f.s. folgt Fτ ⊆ Fσ . • F¨ur zwei Stoppzeiten τ, σ sind τ ∧ σ, τ ∨ σ, τ + σ wieder Stoppzeiten. Beispiel 2.1.6.
1. Die Konstante Stoppzeit, τ = const., ist eine Stoppzeit.
2. F¨ ur einen adaptierten Prozess X ist die Ersteintrittszeit τa := inf{s ≥ 0 : Xs ≥ a} eine Stoppzeit. 1
[x] steht f¨ ur den Gauß-Abschnitt von x, d.h. die gr¨oßte ganze Zahl z, mit z < x.
2.2 Die Brownsche Bewegung
12
Beispiel 2.1.7. Setze in Beispiel 2.1.3 Xi ≡ 1, also nicht zuf¨allig. Daf¨ ur sind die Sprungzeitpunkte zuf¨allig: F¨ ur Ei i.i.d, Exponential(λ)-verteilt definieren wir durch X Nt := 1 =
i∈N:{E1 +···+Ei ≤t} ∞ X i=1
1{E1 +···+Ei ≤t} =
#{i : E1 + · · · + Ei ≤ t}
den Poisson-Prozess. Aufgabe 9. Zeigen Sie, dass f¨ ur einen Poisson-Prozess (Nt )t≥0 folgende Aussage gilt: P(Nt = k) = e−λt
(λt)k , k!
d.h. Nt ist Poisson-verteilt zum Parameter λt.
In dem obigen Bild ist ein Poissonprozess dargestellt. Die Spr¨ unge finden jeweils zu den Zeitpunkte E1 , E1 + E2 , E1 + E2 + E3 usw. statt.
2.2
Die Brownsche Bewegung
Der Botanist Robert Brown beobachtete 1828 das irregul¨are Verhalten eines Pollenkorns auf Wasser. Diese Bewegung wird durch einzelne Wassermolek¨ ule hervorgerufen, die das Pollenkorn immer wieder in eine andere Richtung stoßen. Einzug in die Finanzmathematik hielt die Brownsche Bewegung 1900 mit der Doktorarbeit von Louis Bachelier. Ohne ¨ Ubertreibung kann man behaupten, dass die Brownsche Bewegung der wichtigste Prozess in der Finanzmathematik ist. Definition 2.2.1. Eine (Standard-) Brownsche Bewegung ist ein stetiger, adaptierter Prozess (Bt )t≥0 mit den folgenden Eigenschaften: 1. B0 = 0 mit Wahrscheinlichkeit 1. 2. (Bt )t≥0 besitzt unabh¨ angige Zuw¨ achse, d.h. f¨ ur 0 ≤ s < t ist Bt − Bs unabh¨angig von Fs . 3. Bt − Bs ist normal verteilt mit Erwartungswert 0 und Varianz t − s.
2.2 Die Brownsche Bewegung
13
Bemerkung 2.2.2. Die Annahme der Normalverteilung im Punkt s ist nicht unbedingt n¨otig. Mit Hilfe der unabh¨angigen Zuw¨achse und des zentralen Grenzwertsatzes (ZGWS) kann man die Normalit¨at ableiten. Wichtig ist dagegen die Stationarit¨ at, d.h. Xt − Xs hat die gleiche Verteilung mit Xt−s − X0 = Xt−s . Bemerkung 2.2.3. Es gibt verschiedene M¨oglichkeiten, die Existenz der Brownsche Bewegung zu zeigen. Eine davon ist die Approximation mit Hilfe des (nun standardisierten) Partialsummenprozesses [nt] 1 X n Xi S (t) := √ n i=1
f¨ ur Xi i.i.d. mit E(Xi ) = 0 und Var(Xi ) = 1. Mit der Hilfe des Satzes von Donsker erh¨alt L man S n → B. Eine weitere davon ist die Konstruktion durch Hilbert-Raum Methoden, s. Karatzas and Shreve (1988, Kapitel 2.3) oder Steele (2001, Kapitel 3.3). Wir m¨ochten nun einige Eigenschaften der Brownsche Bewegung ableiten. Satz 2.2.4. Die Brownsche Bewegung ist ein Martingal, und ebenso (Bt2 − t)t≥0 . Beweis. Da die Brownsche Bewegung unabh¨angige Zuw¨achse hat, ist f¨ ur 0 ≤ s < t E(Bt | Fs ) =E(Bt − Bs | Fs ) + Bs =E(Bt − Bs ) + Bs =Bs . F¨ ur die zweite Aussage nutzen wir wieder die unabh¨angigen Zuw¨achse E(Bt2 − t | Fs ) = E (Bt − Bs + Bs )2 | Fs − t = E [(Bt − Bs )] + 2E [(Bt − Bs ) | Fs ] + Bs2 − t = t − s + Bs2 − t = Bs2 − s.
Aufgabe 10. Zeigen Sie, dass B Gaußsche fidi’s(= finite dimensional distributions) hat, d.h. f¨ ur alle 0 ≤ t1 < · · · < tn ist der Vektor (Bt1 , . . . , Btn ) normalverteilt. Aus der Standard-Brownschen Bewegung erh¨alt man eine allgemeine Brownsche Bewegung durch ˜t := µt + σBt . B Hierbei sind µ, σ ∈ R. Typischerweise bezeichnet man µ als Drift.
Beispiel 2.2.5. Ein weiteres Martingal, ein sogenanntes exponentielles Martingal, erh¨alt man durch ˜ := exp B ˜ 2 − µ + 1 σ2 t . Et (B) t 2 Beweis. Zun¨achst ist die Laplace-Transformierte einer N (0, 1) verteilten ZV ξ Z x2 1 ϕξ (λ) := E (exp(λξ)) = eλx √ e− 2 dx Z 2π (x−λ)2 λ2 1 √ e− 2 dx =e2 2π λ2
=e2.
2.2 Die Brownsche Bewegung
14
F¨ ur die Laplace-Transformierte einer N (µ, σ 2)−ZV ξ folgt direkt ϕξ (λ) = eλµ+
Nun ist f¨ ur 0 ≤ s < t 2 σ ˜t − (µ + t) Fs E exp B 2
= (2.1)
=
=
λ2 σ 2 2
.
(2.1)
2 ˜t − B ˜s ) | Fs exp B ˜s − µ + σ t E exp(B 2 2 2 σ ˜s − µ + σ t exp µ + (t − s) + B 2 2 2 σ ˜s − µ + s . exp B 2
Bemerkung 2.2.6. Diesen Prozess werden wir sp¨ater noch genauer kennenlernen. Es handelt sich um die geometrische Brownsche Bewegung, die auch die Grundlage des Black-Scholes-Modells bildet. Bemerkung 2.2.7. Die Laplace-Transformierte bestimmt wie die Fouriertransformierte die Verteilung einer ZV eindeutig. Besonders im Zusammenhang mit der geometrischen Brownschen Bewegung erweist sie sich (nat¨ urlich!) als ein n¨ utzliches Hilfsmittel. Aufgabe 11. Bestimmen Sie die Laplace-Transformierte einer χ2 -Verteilung. Aufgabe 12. F¨ ur eine Folge von i.i.d. ZV Xi mit existierender Laplace-Transformierte ist P exp(λ ni=1 Xi ) Mn = ϕX (λ)n wieder ein Martingal. Besonders interessant ist beispielsweise der Fall mit λ0 so, dass ϕx (λ0 ) = 1. Nehmen Sie daf¨ ur an, die Xi seien so verteilt, dass P(X1 = 1) = p und P(X1 = −1) = 1 − p und bestimmen Sie Mn . Die Forderung E(Mt | Fs ) = Ms ist in einem spieltheoretischen Kontext gleichbedeutend mit einem “fairen Spiel”. In Anlehnung an das Konzept der Stoppzeiten k¨onnte man nun nach der g¨ unstigsten Strategie suchen, sozusagen im richtigen Augenblick zu stoppen. Das das nicht m¨oglich ist, ist Aussage des folgenden Optional Sampling Theorem (OST). Theorem 2.2.8. Ist (Xt )t≥0 ein rechtsseitig stetiges Martingal, und sind τ, σ zwei Stoppzeiten, f¨ur die σ ≤ τ ≤ K < ∞ gilt, so ist E(Mτ | Fσ ) = Mσ
f.s.
F¨ur ein Submartingal gilt in der obigen Gleichung ”≤“. Beweis. Wir behandeln nur den zeitlich diskreten Fall.
2.2 Die Brownsche Bewegung
15
Es reicht zu zeigen, dass auf {τ ≥ n, σ = n} gerade E(Mτ | Fn ) = Mn gilt. Dazu sei A ∈ Fn . Dann ist Z
Z
E(Mτ | Fn ) dP =
A∩{τ ≥n,σ=n}
Mτ dP =
A∩{τ ≥n,σ=n}
=
N X
Z
Z
A∩{σ=n}
N X k=n
1{τ =k} Mk dP
Mk dP
k=n A∩{τ =k,σ=n}
=
N X
Z
k=n
E(MN |Fk ) dP
A ∩ {τ = k, σ = n} | {z } ∈Fk
=
N X
Z
MN dP
k=n A∩{τ =k,σ=n}
=
Z
E(MN | Fn ) dP =
A ∩ {τ ≥ n, σ = n} | {z }
Z
Mn dP.
A∩{τ ≥n,σ=n}
∈Fn
Aufgabe 13. Einen anderen Beweis des OST erh¨alt man folgendermaßen. Nutzen Sie f¨ ur die Zerlegung nach {τ = k}, dass {τ = k} P = {τ ≥ k} − {τ ≥ k + 1}. Nach Teleskopieren erhalten Sie einen Ausdruck der Form ak (Mk − Mk−1 ) (Bem: Vergleichen Sie mit dem stochastischen Integral im n¨achsten Kapitel!). Mit dem kleinen Trick, dass {τ ≥ k} Fk−1 -messbar ist (Beweis!), zeigt man, dass die Summe ein Martingal, eine sogenannte Martingaldifferenzfolge, ist. Eine erste Anwendung lernen wir bei Berechnungen zu den Ersteintrittszeiten τa := inf{t ≥ 0 : Bt = a} kennen, wobei wir inf ∅ := ∞ setzen. Satz 2.2.9. Die Ersteintrittszeit τa ist eine f.s. endliche Stoppzeit mit Laplace-Transf. ϕτa (−λ) = E(e−λτa ) = e−|a|
√ 2λ
,
λ ≥ 0.
Beweis. Nehmen wir an, dass a ≥ 0, den anderen Fall erh¨alt man durch Betrachtung von -Bt . Dann ist \ [ {τa ≤ t} = {Bs > a − ε} ε>0,ε∈Q s∈(0,t]∩Q
und da {Bs > a − ε} ∈ Ft , ist τa eine Stoppzeit. Wir m¨ochten das OST auf τa anwenden, aber τa ist nicht notwendigerweise beschr¨ankt. Deswegen betrachten wir τa ∧ n und lassen n gegen unendlich laufen. Nat¨ urlich fehlt uns noch das passende Martingal. Man beachte, dass wir einen Konvergenzsatz anwenden
2.3 Die Doobschen Ungleichungen
16
m¨ ussen, etwa den Satz von Lebesgue. Hierzu bietet sich besonders das Martingal aus Beispiel 2.2.5 an, σ2 Mt = exp σBt − t 2
da es ja bereits nach unten beschr¨ankt ist! Das OST liefert direkt
E(Mτa ∧n ) = E(M0 ) = 1. Die obere Schranke erhalten wir leicht durch σ 2 τa exp σBτa ∧n − ≤ exp(σa.) 2 Auf {τa < ∞} konvergiert Mτa ∧n gegen Mτa und deswegen E 1{τa <∞} Mτa = lim E 1{τ <∞} Mτa ∧n n→∞
= 1,
woraus sofort
σ 2 τa ) = exp(−σa) E 1{τa <∞} exp(− 2
(2.2)
folgt (da ja auf {τa < ∞} Bτa = a gilt). Lassen wir σ gegen 0 gehen (monotone Konvergenz) so fallen die e-Terme in (2.2) weg. Also gilt P(τa < ∞) = 1, die Aussage des Satzes folgt aus (2.2) durch die Wahl von σ =
√
2λ.
Wie wir gesehen haben, sind Schranken von Martingalen sehr n¨ utzlich. Betrachten wir Bt2 − t, so werden sich die folgenden Ungleichung als sehr n¨ utzlich erweisen (und nicht nur dort!).
2.3
Die Doobschen Ungleichungen
Satz 2.3.1. (Maximal Ungleichung) Sei (St )t∈[0,T ] ein stetiges Submartingal, so gilt E(ST+ ) P sup St > ε ≤ . ε t∈[0,T ]
(2.3)
Bemerkung 2.3.2. Ebenso gibt es nat¨ urlich eine Minimalungleichung. F¨ ur die beiden Ungleichungen dieses Kapitels f¨ uhren wir nur die Beweise in diskreter Zeit. Mittels eines Konvergenzsatzes u ¨bertragen sich die Resultate aber direkt in stetige Zeit, siehe Steele (2001, S. 53-54). Die Stetigkeit als Voraussetzung f¨allt in diskreter Zeit nat¨ urlich weg. In diskreter Zeit haben wir in Ungleichung (2.3) auch ein “≥” anstelle des “>”.
2.3 Die Doobschen Ungleichungen
17
Beweis. (In diskreter Zeit) Setze τ = inf{n ≤ N : Sn ≥ ε}, und τ = N falls {. . . } = ∅. Als Ersteintritt ist τ eine Stoppzeit. Weiterhin ist Z Z E(SN ) ≥ E(Sτ ) ≥ ε dP + SN dP {maxn≤N Sn ≥ ε}
{maxn≤N Sn < ε}
= ε P max Sn ≥ ε + n≤N
Z
SN dP.
{maxn≤N Sn < ε}
Dies ist gleichbedeutend mit ε P max Sn ≥ ε n≤N
Z
≤
SN d P
≤
{maxn≤N Sn ≥ ε}
Z
+ SN dP.
Satz 2.3.3. (Doobsche Ungleichung) Sei (St )t∈[0,T ] ein nichtnegatives, stetiges Submartingal mit E(Stp ) < ∞ f¨ur t ∈ [0, T ] und ein p > 1. Dann gilt ! p p p E ≤ E (STp ) < ∞. sup St p − 1 t∈[0,T ] Beweis. (In diskreter Zeit) Setze S ∗ := maxn≤N Sn und S ∗p := (S ∗ )p . Ein einfaches FubiniArgument zeigt Z∞ ∗p E(S ) = P(S ∗p > x) dx 0
y=xp
=
Z∞
py p−1P(S ∗ > y) dy
0
≤
p
Z∞ Z
y p−2SN dP dy,
0 {S ∗ >y}
wobei letzte Ungleichung aus der Maximal-Ungleichung folgt. Dies ist aber ∗p
E(S ) = p
Z
SN
Z∞
y p−21{S ∗ >y} dy dP
Z0 p = SN (S ∗ )p−1 dP. p−1 Mit der H¨older-Ungleichung splitten wir das Integral und erhalten p−1 p p 1/p ∗p p E(S ∗p ) ≤ ] [ESN ] , [ESN p−1 was ¨aquivalent ist zu p p 1/p E (S ∗p )1/p ≤ [ESN ] , p−1 und die Aussage des Satzes folgt.
Kapitel 3 Stochastische Integration 3.1
Einfu ¨ hrung
In einem Finanzmarkt wird ein Investor versuchen, seine Handelsstrategie zu optimieren. Wie sieht so eine Strategie aus? Zu einem Zeitpunkt tk kann der Investor entscheiden, wie viel Geld er beispielsweise in eine Aktie S investieren will. Sagen wir, er kaufe ak Aktien. Zum Zeitpunkt tk+1 sind diese1 ak Sk+1 wert. Er hat einen Gewinn/Verlust von ak (Sk+1 − Sk ) gemacht. Nat¨ urlich kann er auch an tk+1 investieren, sagen wir in ak+1 Aktien, was ihm einen Betrag ak+1 (Sk+2 − Sk+1 ) bescheren wird. Summieren wir seine Gewinne bzw. Verluste, so erhalten wir N X k=0
ak (Sk+1 − Sk ) =:
N X
ak ∆Sk+1 .
(3.1)
k=0
Nat¨ urlich muss ak zum Zeitpunkt tk bekannt sein, also ak Fk -messbar.
Beispiel 3.1.1. Die klassische buy-and-hold Strategie wird dargestellt durch a0 = · · · = aN = 1, und der Investor h¨atte demzufolge an tN einen Betrag von SN − S0 zur Verf¨ ugung (das kann nat¨ urlich negativ sein). Will man nun einen kontinuierlichen Handelsprozess zulassen, so ist man nat¨ urlicherweise an einem Grenzwert von (3.1) f¨ ur eine immer feiner werdende Partition interessiert. Dies wird das stochastische Integral sein.
3.2
Die Definition des Itˆ o-Integrals
Bei unserer Suche nach einer pr¨azisen Definition des stochastischen Integrals werden wir uns stets auf ein endliches Zeitintervall [0, T ] beschr¨anken. F¨ ur einen Integranden (f (ω, s))s∈[0,T ] bezeichnen wir das Integral zun¨achst mit It (f )(ω) und denken dabei insgeheim an Zt f (ω, s)dBs (ω). 0
1
Wir schreiben kurz Sk f¨ ur Stk .
18
3.2 Die Definition des Itˆo-Integrals
19
In diesem Abschnitt werden wir uns auf Integranden aus H2 = H2 [0, T ] konzentrieren, d.h. messbare, adaptierte Prozesse f , f¨ ur die T Z E f 2 (ω, s) ds < ∞ 0
gilt.
Bei genauerem Hinsehen entpuppt sich dieses Integral als Doppelintegral und so ist H2 ein abgeschlossener, linearer Unterraum von L2 (dP × dt). Zun¨achst eine Warnung: Eine Definition im Sinne des Riemann-Integrals ist nicht m¨oglich, da die Pfade der Brownschen Bewegung von unbeschr¨ankter Variation sind. Der Prozess in (3.1) soll nat¨ urlicherweise durch den Integranden f (ω, s) =
N X k=0
ak (ω)1(tk ,tk+1] ◦ s
(3.2)
beschrieben werden. Falls neben t0 < t1 < · · · < tN +1 und ak ∈ Ftk auch E(a2k ) < ∞, nennen wir solche Integranden einfache Prozesse und bezeichnen sie mit H02 . Das Integral bez¨ uglich der Brownschen Bewegung (Bt )t≥0 definieren wir f¨ ur ein solches f mit der Darstellung (3.2) also durch It (f ) :=
N X
ak (Bt∧tk+1 − Bt∧tk )
X
ak (Btk+1 − Btk ) + ap (Bt − Btp ),
k=0 p−1
=
k=0
wobei in letzter Gleichung p so gew¨ahlt ist, dass tp < t ≤ tp+1 . Offensichtlich handelt es sich nicht um “das” Integral von f , sondern um einen ganzen Prozess (It (f ))t∈[0,T ] . Nat¨ urlich werden wir uns nicht mit einfachen Integranden zufrieden geben. Nehmen wir einmal an, man k¨onnte eine kompliziertere Funktion f durch eine Folge von einfachen Integranden (fn )n≥1 approximieren. Das Integral von f sollte dann der Limes der It (fn ) sein. F¨ ur die Erweiterung von It : H02 → L2 (dP) auf H2 ben¨otigen wir die Stetigkeit von I, welche durch folgendes Lemma gegeben wird Lemma 3.2.1. (Itˆo Isometrie auf H02 ) F¨ur f ∈ H02 und t ∈ [0, T ] gilt h Zt i 2 E[It (f ) ] = E f (ω, s) ds . 2
(3.3)
0
Bemerkung 3.2.2. Obige Gleichung kann man auch schreiben als (hier f¨ ur t = T ) kIT (f )kL2 (dP) = kf kL2 (dP×dt) , wobei dt hier das Lebesgue-Maß auf [0, T ] bezeichnet. Deswegen der Name Isometrie.
3.2 Die Definition des Itˆo-Integrals
20
Beweis. Wir berechnen einfach die beiden Normen. Der Einfachheit halber nehmen wir an, dass t auf einem Gitterpunkt, sagen wir tp , liegt. Der andere Fall hat nur eine kompliziertere Notation. Zun¨achst ist " p # p X X 2 E[It (f ) ] = E ak al (Bti+1 − Bti ) · (Btk+1 − Btk ) = E(a2k )(tk+1 − tk ). i,k=0
k=0
Die zweite Norm ergibt tk+1 Zt X Z p p N 2 X X 2 ak 1(tk ,tk+1 ] ◦ s ds = E(ak ) 1 ds = E(a2k )(tk+1 − tk ). E 0
k=0
k=0
tk
k=0
Da I also eine Abbildung ist, die die Abst¨ande in H02 und L2 (dP) erh¨alt, bildet I Cauchyfolgen in H02 auf Cauchyfolgen in L2 (dP) ab. Zun¨achst weisen wir noch einige Eigenschaften des stochastischen Integrals nach. Lemma 3.2.3. F¨ur f ∈ H02 ist (It (f ))t∈[0,T ] ein stetiges Martingal und es gilt 2 i i h Zt h f 2 (s) ds . ≤ 4E E sup It (f ) t∈[0,T ]
0
Beweis. Die Stetigkeit folgt direkt aus der Stetigkeit der Brownschen Bewegung und der Definition von I. Zum Nachweis der Martingaleigenschaft betrachten wir 0 ≤ s ≤ t ≤ T und bezeichnen mit tp den gr¨oßten Index in der Darstellung (3.2), der gerade noch kleiner als s ist. Dann gilt p−1 N X X E It (f ) Fs = ak (Bk+1 − Bk ) + ap E Btp+1 − Btp Fs + E ak (Bk+1 − Bk ) Fs k=0
k=p+1
p−1
=
X k=0
ak (Bk+1 − Bk ) + ap (Bs − Btp ) = Is (f ).
Die Ungleichung folgt nun direkt aus der Doobschen Ungleichung mit p = 2.
Das folgende Lemma sagt nun aus, dass H02 dicht in H2 ist. Damit wird es ein Leichtes sein, das Itˆo-Integral auf H2 zu erweitern. Lemma 3.2.4. F¨ur alle f ∈ H2 existiert eine Folge (fn )n≥1 mit fn ∈ H02 , s.d. kf − fn kL2 (dP×dt) → 0
f¨ur n → ∞.
F¨ ur einen Beweis sei auf Steele (2001, Kap. 6.6) verwiesen. Dennoch geben wir an dieser Stelle die benutzte Approximation, An (f )(ω, t) :=
n −1 2X
i=1
t ti − ti−1
Zti
ti−1
f (ω, s) ds 1(ti ,ti+1 ] (s),
3.2 Die Definition des Itˆo-Integrals
21
an. Hierbei ist ti = 2iTn . Bemerkenswert ist die Tatsache, dass f u ¨ber einen anderen Bereich integriert wird als (ti , ti+1 ]. Dadurch wird jedoch die Adaptiertheit sichergestellt. Man k¨onnte nun meinen, f¨ ur f w¨ahle man eine approximierende Folge fn und definierte It (f ) := limn→∞ It (fn ) f¨ ur jedes t. Als Element in L2 (dP) sind diese aber jeweils nur bis auf eine Nullmenge Zt , t ∈ [0, T ] definiert. Das Problem entsteht nun, dass eine u ¨ berabz¨ahlbare Vereinigung von Nullmengen keine Nullmenge mehr sein muss. Man muss also etwas mehr Vorsicht walten lassen, und aus den It den richtigen Kandidaten ausw¨ahlen. Das wird in folgendem Satz geschehen. Satz 3.2.5. Sei (Bt )t≥0 eine Brownsche Bewegung bez¨uglich der Filtration {F }. Dann existiert eine eindeutige lineare Abbildung J, die f ∈ H auf einen stochastischen Prozess abbildet, so dass 1. (J(f )t )t∈[0,T ] ist ein stetiges Martingal bez¨uglich {F }, 2. f¨ur f ∈ H02 gilt P J(f )t = It (f ) = 1, f¨ur alle t ∈ [0, T ], R t 3. f¨ur t ∈ [0, T ] ist E (J(f )2t ) = E 0 f 2 (ω, s) ds . ullt, Hierbei ist J eindeutig in dem Sinne, dass, falls J 0 ebenfalls diese Bedingungen erf¨ gilt P J(f )t = J 0 (f )t = 1, f¨ ur alle t ∈ [0, T ] und f ∈ H2 . Damit definieren wir das Itˆo-Integral f¨ ur f ∈ H2 und t ∈ [0, T ] als Zt
f (s) dBs := J(f )t .
0
Beweis. Nach Lemma 3.2.4 existiert eine Folge (fn )n≥1 von einfachen Prozessen, so dass ! Zt 2 E f (s) − fn (s) ds −−−→ 0. n→∞
0
Der Grenzprozess soll wieder stetig sein, wir ben¨otigen also gleichm¨aßige Konvergenz. Das ist u ur alle stetigen quadratintegrierbaren Martingale der Fall, siehe Karatzas and ¨ brigens f¨ Shreve (1988, Satz 1.5.23). Wir nutzen die Maximal-Ungleichung und erhalten, dass h i 2 i 1 h P sup It (fn ) − It (fm ) ≥ ε ≤ 2 E IT (fn ) − IT (fm ) ε t∈[0,T ] 1 = 2E ε
ZT 0
fn (s) − fm (s)
2
(3.4) !
ds .
3.2 Die Definition des Itˆo-Integrals
22
Man kann demnach eine geeignete Teilfoge {nk } ausw¨ahlen, so dass f¨ ur alle k ≥ 1 h 1 1i P sup It (fnk+1 ) − It (fnk ) ≥ k ≤ k . 2 2 t∈[0,T ] Mit Hilfe des Borel-Cantelli Lemmas schließt man nun, dass f¨ ur k groß genug sup | It (fnk+1 ) − It (fnk ) |≤
t∈[0,T ]
1 2k
auf einer Menge mit Wahrscheinlichkeit 1. Damit folgt nun, dass {It (fnk )}k∈N eine Cauchyfolge bildet und da es sich um eine gleichm¨aßige Konvergenz handelt, ist der Grenzwert eine stetige Funktion, die wir gerade mit t 7→ J(f )t bezeichnen. Wenden wir wie zur Gleichung (3.4) die Doobsche Ungleichung an, so erhalten wir
E
sup It (fn+p ) − It (fn )
t∈[0,T ]
2
!
ZT
≤ 4E
0
!
[fn+p (s) − fn (s)]2 ds .
(3.5)
Lassen wir p entlang der {nk } gegen unendlich gehen, so erhalten wir E
2 sup J(f )t − It (fn )
t∈[0,T ]
!
! ZT 2 ≤ 4E f (s) − fn (s) ds ,
(3.6)
0
d.h. der Grenzwert (J(f )t )t∈[0,T ] h¨angt nicht von der ausgew¨ahlten Teilfolge ab. Nun zur Martingaleigenschaft. Zun¨achst ist jedes (It (fn )) ein Martingal nach Lemma 3.2.4 und quadratintegrierbar. Dann konvergieren auch die Erwartungswerte, siehe Bauer (1990, Satz 15.1), und so ist f¨ ur 0 ≤ s ≤ t E J(f )t Fs = E lim It (fnk ) Fs = lim E It (fnk ) Fs = lim Is (fnk ) = J(f )s . k→∞
k→∞
k→∞
Ebenso erhalten wir
J(f )2t
E
! Zt 2 2 = lim E It (fnk ) = E f (s) ds k→∞
0
und, aus Gleichung (3.6), E
sup J(f )2t
t∈[0,T ]
!
≤ 4E
ZT 0
!
f 2 (s) ds .
F¨ ur die Eindeutigkeit betrachten wir eine Abbildung J 0 , die Bedingungen 1. bis 3. erf¨ ullt. Dann erhalten wir aus Gleichung (3.6) E
0
sup J(f )t − J (fn )t
t∈[0,T ]
2
!
! ZT 2 f (s) − fn (s) ds . ≤ 4E 0
Da die rechte Seite gegen Null konvergiert, folgt die entsprechende Eindeutigkeit.
2 3.3 Die Erweiterung des Itˆo-Integrals auf Hloc
3.3
23
2 Die Erweiterung des Itˆ o-Integrals auf Hloc
Unsere bisherige RDefinition des Itˆo-Integrals basiert wesentlich auf der Annahme, dass T f ∈ H2 , d.h. E( 0 f (s)2 ds) < ∞. Leider ist dies schon f¨ ur einfache Funktionale der Brownschen Bewegung nicht mehr erf¨ ullt, z. B. f¨ ur f (s) = exp(Bs4 ). Es ist also n¨ utzlich, die Integrabilit¨atsbedingung merklich abzuschw¨achen, was wir mit Hilfe einer Lokalisierung tun werden. Der Preis daf¨ ur wird sein, dass das Itˆo-Integral nur noch ein“lokales” Martingal ist. Zun¨achst betrachten wir das Itˆo-Integral bis zu einer Stoppzeit. Satz 3.3.1. F¨ur ein (f (s))s∈[0,T ] ∈ H2 und eine Stoppzeit τ mit P(τ ≤ T ) = 1 ist Zτ
f (s) dBs =
0
ZT
1{s≤τ } f (s) dBs
P-f.s.
0
Beweis. Auch hier wird sich wieder eine Approximation durch einen geeigneten “einfachen Prozess” als hilfreich erweisen. Zun¨achst betrachten wir nur Stoppzeiten der Form τn =
n X
ti 1Ai ,
i=1
wobei 0 < t1 < · · · < tn = T gelte und die Ai jeweils Elemente von Fti und paarweise disjunkt seien. Außerdem sei P (∪Ai ) = 1. F¨ ur eine solche Stoppzeit gilt ZT
1{s≤τn } f (s) dBs =
0
=
n X
1{s≤ti } f (s) dBs
1 Ai
Zti
fs dBs
i=1
n X i=1
=
1 Ai
ZT
Zτn
0
0
f (s) dBs .
(3.7)
0
Nun kann man τ durch solche einfachen Stoppzeiten approximieren, indem man n
τn :=
2 X (k + 1)T i=0
2
1 kT
2n
≤τ < (k+1)T 2n
setzt. Die τn bilden eine monoton fallende Folge, die mit Wahrscheinlichkeit 1 gegen τ konvergiert. Wir lassen nun in (3.7) auf beiden Seiten n gegen unendlich gehen. F¨ ur dir rechte Seite Rt nutzen wir, dass die Abbildung t → 0 f (s) dBs stetig ist, und so Zτn 0
f (s) dBs →
Zτ 0
f (s) dBs
P-f.s.
2 3.3 Die Erweiterung des Itˆo-Integrals auf Hloc
24
F¨ ur die linke Seite gilt, dass " ZT 2 # ZT ZT 2 E 1{s≤τn } f (s) dBs − 1{s≤τ } f (s) dBs ≤E 1{τ <s≤τn } f (s) dBs , 0
0
0
was gegen Null konvergiert (mit Hilfe des Satzes von Lebesque). Wir erhalten also L2 −Konvergenz, woraus folgt, dass eine Teilfolge P-f.s. konvergiert.
Unser Ziel ist es, die Integranden auf eine m¨oglichst große Klasse auszuweiten. Es wird sich zeigen, dass wir mit2 2 Hloc
:=
ZT
(f (s))st[0,T ] adaptiert und
0
f (s) ds < ∞ P-f.s. 2
f¨ ur alle Anwendungen ausreichend ger¨ ustet sind. Das Konzept der Lokalisierung zeigt sich erstmals in folgender Definition Definition 3.3.2. Eine monoton wachsende Folge von Stoppzeiten (τn )n≥1 heißt lokalisierende Folge von f , falls fn (ω, t) := f (ω, t)1{t≤τn (ω)} ∈ H2 , und P
[
n≥1
{τn = T }
∀n ≥ 1
= 1.
2 und H schlagen. Dieses Konzept wird die Br¨ ucke zwischen Hloc 2 Satz 3.3.3. F¨ur jedes f ∈ Hloc ist die Folge (τn )n≥1 gegeben durch
τn := inf t ∈ [0, T ] :
Zt 0
f (s)ds ≥ n , 2
(3.8)
wobei wir inf ∅ := T setzen, eine lokalisierende Folge. Beweis. Durch die Definition von τn ist (fn ) ∈ H2 . Außerdem ist [
n≥1
{τn = T } =
ZT
2
f (s)ds < ∞
0
2 und da f ∈ Hloc hat die rechte Seite die Wahrscheinlichkeit 1. 2
In der Literatur wird dieser Raum auch oft als L2loc bezeichnet.
2 3.3 Die Erweiterung des Itˆo-Integrals auf Hloc
25
2 F¨ ur die Erweiterung des Integrals auf Hloc werden wir folgendermaßen vorgehen: 2 Zun¨achst w¨ahlen wir zu einem f ∈ Hloc eine lokalisierende Folge von Stoppzeiten und erhalten die entsprechenden fn . Das Itˆo-Integral definieren wir als Limes der Integrale von fn . Genauer gesagt, werden wir wieder zeigen, dass ein eindeutiger, stetiger Prozess (J(f )t )t∈[0,T ] existiert, so dass ! Zt
P J(f )t = lim
fn (s) dBs
n→∞
f¨ ur alle t ∈ [0, T ].
=1
0
Satz 3.3.4. Sei (Bt )t≥0 eine Brownsche Bewegung. Dann exisitiert eine eindeutige lineare 2 Abbildung J von Hloc in den (Vektor-)Raum der stetigen Prozesse auf [0, T ], so dass Rt 1. F¨ur f ∈ H02 gilt P J(f )t = 0 f (s) dBs = 1 f¨ur alle t ∈ [0, T ],
2 , f¨ur die 2. f¨ur eine Folge (fn )n≥1 von Prozessen in Hloc lichkeit gegen 0 konvergiert, gilt
sup |J(f )t |
t∈[0,T ]
P
−→
RT 0
fn (s)2 ds in Wahrschein-
0.
2 Mit Hilfe des obigen Satzes k¨onnen wir nun f¨ ur jedes f ∈ Hloc das Itˆo-Integral definieren, und zwar durch Zt f (s) dBs := J(f )t . 0
Bemerkung 3.3.5. Man beachte, dass nun das stochastische Integral kein Martingal mehr sein muss. Aber dazu sp¨ater mehr. Beweis. Wir definieren J und zeigen dann die Eindeutigkeit. F¨ ur f ∈ H2 definieren wir nat¨ urlich J(f ) durch das bereits bekannte Itˆo-Integral, so dass 1. per Definition gilt. nR o T 2 2 F¨ ur f ∈ Hloc , dass wie in Satz 3.3.3 lokalisiert wird, gilt auf An := f (s)ds < n , 0 dass fn = fn+1 . Da die Vereinigung dieser Mengen die Wahrscheinlichkeit 1 hat, definieren wir, auf An \ An−1 , Zt J(f )t := fn (s) dBs . (3.9) 0
Damit ist J P-f.s. definiert. Da die einzelnen Integrale stetig sind, ist auch J P-f.s. stetig. 2 F¨ ur die Linearit¨at betrachtet man zwei Prozesse f, g aus Hloc mit lokalisierenden Folgen (τn )n≥1 bzw. (νn )n≥1 und a, b ∈ R. Dann ist (τn ∧ νn )n≥1 eine lokalisierende Folge von af + bg und die Linearit¨at von J folgt aus (3.9), eben der Definition. Nun zeigen wir Eigenschaft 2. Zun¨achst gilt P
sup |J(f )t | ≥ ε
t∈[0,T ]
≤P
ZT 0
1 f 2 (s) ds ≥ n
!
+P
sup |J(f )t | ≥ ε,
t∈[0,T ]
ZT 0
! 1 f 2 (s) ds < . n
3.4 Lokale Martingale
26
Schauen wir uns den zweiten RSummanden genauer an. Wir m¨ochten gerne die MaximalT Ungleichung anwenden. Auf { 0 f 2 (s) ds < n1 } ist nat¨ urlich f = f · 1{R T f 2 (s) ds< 1 } . Damit 0 n erh¨alt man ! ! ZT ZT 1 4 P sup |J(f )t | ≥ ε ≤ P f 2 (s) ds ≥ + 2E f 2 (u) · 1{R T f 2 (s) ds< 1 } du 0 n n ε t∈[0,T ] 0
ZT 0
0
f 2 (s) ds ≥
1 n
!
+
4 . n ε2 P
Konvergiert nun (fn )n≥1 stochastisch gegen 0, so folgt also supt∈[0,T ] |J(f )t | −→ 0. Eigenschaft 2. sichert nun die Wohldefiniertheit unserer Definition. In der Tat, f¨ ur eine ˜ zweite Lokalisierung von f , sagen wir durch (˜ τn )n≥1 , ist J(fn )t = J(fn )t auf {t ≤ τn ∧ τ˜n }. Dar¨ uberhinaus gilt auf dieser Menge auch J(f )t = J(fn )t = J(f˜n ). Da die Menge [ [ {τn ∧ τ˜n = T } = {τn = T und τ˜n = T } n≥1
n≥1
die Wahrscheinlichkeit 1 hat, folgt die Wohldefiniertheit. ˜ F¨ ur die Eindeutigkeit nehmen wir an, es existierte eine zweite solche RAbbildung, J. T 2 2 Zun¨achst sei bemerkt, dass f¨ ur f ∈ Hloc mit Lokalisierung (fn ) gerade 0 (f − fn ) ds in Wahrscheinlichkeit gegen 0 konvergiert. Die Eindeutigkeit des Itˆo-Integrals auf H2 und Eigenschaft 1. liefert Jt (f ) − J˜t (f ) = Jt (f ) − Jt (fn ) − J˜t (f ) − J˜t (fn ) ,
˜ )| mit Wahrscheinlichkeit 1 f¨ ur jedes t ∈ [0, T ]. Mit Eigenschaft 2. folgt, dass sup |J(f )−J(f in Wahrscheinlichkeit gegen 0 konvergiert, also die geforderte Eindeutigkeit.
3.4
Lokale Martingale
2 Das Itˆo-Integral f¨ ur Integranden aus Hloc wird im Allgemeinen kein Martingal, sondern nur ein lokales Martingal sein. Wie bisher, sei {F } die im Hintergrund stets pr¨asente Filtration.
Definition 3.4.1. Ein adaptierter Prozess (Mt )t≥0 heißt lokales Martingal, falls es eine wachsende Folge von Stoppzeiten (τn )n≥1 mit der Eigenschaft τn → ∞ P-f.s. und die n Prozesse (n) Mt := Mt∧τn − M0 , t ∈ [0, ∞) sind Martingale f¨ ur jedes n ∈ N.
Ebenso gibt es nat¨ urlich lokale Sub/Supermartingale usw. Unser prim¨ares Interesse an lokalen Martingalen ist begr¨ undet in der folgenden Aussage. 2 ist das Itˆo-Integral ein lokales Martingal. Satz 3.4.2. F¨ur jedes f ∈ Hloc
3.5 Die Itˆo-Formel
27
Beweis. Zu dem stochastischen Prozess Xt :=
Zt
f (s) dBs
0
definieren wir die lokalisierende Folge wie in (3.8). Dann ist nach Definition (Xt∧τn ) ein Martingal und somit X ein lokales Martingal. Nat¨ urlich fragt man sich an dieser Stelle, wann ein lokales Martingal auch ein “echtes” Martingal ist. Dazu der folgende Satz Satz 3.4.3. Ein nichtnegatives lokales Martingal (Xt )t∈[0,T ] mit E(|X0 |) < ∞ ist ein Supermartingal und falls außerdem E(XT ) = E(X0 )
(3.10)
gilt, ist es ein Martingal. Beweis. Wir werden Fatou’s Lemma anwenden. Sei dazu (τn )n≥1 die lokalisierende Folge, dann gilt f¨ ur alle 0 ≤ s ≤ T. E(Xt∧τn |Fs ) = Xs∧τn ,
Mit dem Lemma von Fatou folgt direkt, dass E(Xt |Fs ) ≤ Xs ,
f¨ ur alle 0 ≤ s ≤ T,
(3.11)
also die Supermartingal-Eigenschaft. Bilden wir den Erwartungswert der letzten Gleichung, so folgt E(X0 ) ≥ E(Xs ) ≥ E(Xt ) ≥ E(Xt ),
und unter E(X0 ) = E(XT ) muss gerade Gleichheit in allen F¨allen gelten. Daraus folgt auch die Gleichheit f¨ ur die bedingten Erwartungen in (3.11). Denn, w¨are im gegenteiligen Fall Xs > E(Xt |Fs ) auf einer Menge mit positiver Wahrscheinlichkeit, so w¨are auch E(Xs ) > E(X0 ). Das letzte Argument gilt nat¨ urlich f¨ ur alle Submartingale, die (3.10) erf¨ ullten. Diese Bedingung ist ein essentielles Hilfsmittel, um von lokalen auf “echte” Martingale zu schließen.
3.5
Die Itˆ o-Formel
In diesem Abschnitt lernen wir nun das wesentliche Hilfsmittel der stochastischen Integration kennen, die Itˆo-Formel. Diese Formel bildet die Erweiterung des Fundamentalsatzes der Differential- und Integralrechnung auf stochastische Integral. In der einfachsten Form lautet die Itˆo-formel: Theorem 3.5.1. Sei (Bt )t∈[0,T ] eine Brownsche Bewegung. Dann gilt f¨ur eine Abbildung f : R 7→ R mit stetiger zweiter Ableitung und t ∈ [0, T ] f (Bt ) = f (0) +
Zt 0
1 f 0 (Bs ) dB + 2
Zt 0
f 00 (Bs ) ds.
(3.12)
3.5 Die Itˆo-Formel
28
Besonders interessant ist der zweite Ausdruck, der bei der klassischen Differential- und Integralrechnung nicht auftaucht. Bemerkenswert ist außerdem, dass gerade diese Darstellung eine Zerlegung von f (Bt ) in zwei vollkommen unterschiedliche Teile mit sich bringt. W¨ahrend das dB-Integral Erwartungswert 0 hat, kann man den zweiten Teil sozusagen als Drift interpretieren. Es ist also eine Zerlegung in Fehler und Drift. Wir werden noch allgemeinere Versionen der Itˆo-Formel kennenlernen. Die unterschiedlichen Beweise verfahren im wesentlichen analog zum Beweis dieser einfachen Version. Zentrales Hilfsmittel wird die Taylor-Formel sein. Aber - die Terme zweiter Ordnung werden einen wesentlichen Beitrag leisten (eben den “Drift”). Beweis. Der Beweis wird in vier Schritten erfolgen. (Schritt 1: Lokalisierung) Wie nicht anders zu erwarten, m¨ ussen wir bei geringen Voraussetzungen an f eine gewisse Vorsicht walten lassen. Dazu definieren wir f¨ ur k ≥ 1 τk := inf{t ∈ [0, T ] : |Bt | ≥ k}, und inf ∅ := T . Die τk bilden eine monoton wachsende Folge, die f.s. gegen ∞ strebt. Zeigen wir die Aussage, (3.12), f¨ ur (Bt∧τk ), so erhalten wir aus der Stetigkeit von B und f die Behauptung f¨ ur k → ∞. Damit k¨onnen wir also annehmen, dass f und seine Ableitungen beschr¨ankt durch eine Konstante K sind. (Schritt 2: Taylor und der erste Term) Wir betrachten eine Zerlegung von [0, t], definiert durch ti = it/n, 0 ≤ i ≤ n. Durch Teleskopieren erhalten wir f (Bt ) − f (0) =
n X i=1
f (Bti ) − f (Bti−1 ) .
Wie bereits erw¨ahnt, werden wir die Taylor-Formel bis zur zweiten Ordnung anwenden: n h X 1 2 f (Bt ) − f (0) = f 0 (Bti−1 ) Bti − Bti−1 + f 00 (Bti−1 ) Bti − Bti−1 2 i=1 2 i 1 + f 00 (ξi ) − f 00 (Bti−1 ) Bti − Bti−1 2
=: Cn + Dn + En ,
wobei ξi zwischen Bti und Bti−1 liegt. Nehmen wir uns zun¨achst Cn vor. Cn ist ein stochastisches Integral bezgl. des einfachen Integranden fn (s) :=
n X
f 0 (Bti−1 )1(ti−1 ,ti ] (s).
i=1
Dabei ist nat¨ urlich fn ∈ H02 , da f 0 nach Schritt 1 als beschr¨ankt angenommen werden kann. Weiterhin gilt mit majorisierter Konvergenz E
h Zt 0
(fn (s) − f (Bs )) dBs
i2
!
! Zt h i2 =E fn (s) − f (Bs ) ds −−−→ 0, n→∞
0
3.5 Die Itˆo-Formel also Cn →
R
29
f (Bs ) dBs in L2 .
(Schritt 3: der quadratische Term) Wir wissen bereits, dass der Erwartungswert von (Bti − Bti−1 )2 gerade ti − ti−1 ist. Wenn wir also Dn zentrieren, erhalten wir n
n
h i 1X 1 X 00 2 Dn = f (Bti−1 ) (Bti − Bti−1 ) − (ti − ti−1 ) + f 00 (Bti−1 ) (ti − ti−1 ). 2 i=1 2 i=1 Rt Die zweite Summe konvergiert als normales Riemann-Integral f¨ ur alle ω gegen 0 f 00 (Bs ) ds. ˜ n , so gilt wegen der Unabh¨angigkeit der Summanden Schreiben wir f¨ ur die erste Summe D h n i2 X 1 2 00 2 2 ˜ ) ≤ ||f || E (Bti − Bti−1 ) − (ti − ti−1 ) E(D n ∞ 4 i=1 2 1 00 2 t t2 t2 = ||f ||∞ n 3 2 − 2 2 + 2 4 n n n 2 t = ||f 00 ||2∞ , 2n ˜ n → 0 in L2 . d.h. D (Schritt 4: der Restterm) Da die zweite Ableitung von f stetig ist, k¨onnen wir den Restterm schreiben als |En | ≤
n X i=1
2 h(Bti−1 , Bti ) Bti − Bti−1 ,
wobei h stetig und beschr¨ankt ist (s. Schritt 1), mit h(x, x) = 0. Ganz analog zu Schritt 3 erhalten wir damit n X i=1
h(Bti−1 , Bti ) Bti − Bti−1
2
L2
−→
Zt
h(Bs , Bs )ds = 0.
0
Zusammenfassend haben wir bisher stets die L2 -Konvergenz gezeigt. Damit konvergiert eine Teilfolge fast sicher, f¨ ur jedes t ∈ [0, T ]. Nun w¨ahlen wir eine abz¨ahlbare, dichte Teilmenge T ⊂ [0, T ], auf der demnach mit Wahrscheinlichkeit 1 die Gleichung (3.12) gilt. Da beide Seiten stetig sind, erhalten wir Gleichheit auf ganz [0, T ]. Mit der Itˆo-Formel zur Hand sind wir bereits in der Lage, eine große Zahl von Beispielen durchzurechnen, die uns bereits ein gutes Gef¨ uhl f¨ ur die Anwendungen der stochastischen Integration vermitteln werden. Aufgabe 14. Zeigen Sie, dass Zt
1 1 Bs dBs = Bt2 − t. 2 2
0
Wie wir bereits wissen, ist die rechte Seite ein Martingal. Zeigen Sie mit Satz 3.2.5, dass auch die linke Seite ein Martingal ist.
3.6 Weitere Itˆo-Formeln
30
Aufgabe 15. Bestimmen Sie m(t) := E(exp(λBt )) mit Hilfe der Itˆo-Formel. Bestimmen Sie dazu die Darstellung als stochastisches Integral von Zt = exp(λBt ). Sie erhalten f¨ ur m(t) eine Integralgleichung, 1 m(t) = 1 + λ2 2
Zt
m(s) ds.
0
Leitet man nach t ab, so erh¨alt man eine einfache (nicht-stochastische) Differentialgleichung. Mit obiger Aufgabe gelangt man zu einem interessanten Ergebnis Satz 3.5.2. F¨ur eine deterministische, auf [0, T ] integrierbare Funktion f (t) ist der Prozess (Xt )t∈[0,T ] , definiert durch Zt Xt := f (s) dBs 0
ein Gaußscher Prozess mit Erwartungswert 0 und Varianz
Rt 0
f (s)2 ds.
F¨ ur den Beweis betrachtet man die Laplace-Transformierte von X und geht vor wie in obiger Aufgabe. Aufgabe 16. Berechnen Sie E(Bt4 ).
3.6
Weitere Itˆ o-Formeln
In der Finanzmathematik wird die Funktion f der Preis eines Derivats sein. Da der Preis des Derivats vom underlying abh¨angt, bietet sich eine Darstellung der Form f (t, Xt ) an. Dazu ben¨otigen wir also eine Itˆo-Formel f¨ ur Funktionen mehrerer Ver¨anderlicher. Außerdem m¨ ussen wir bezglich komplizierterer Prozesse als nur der Brownschen Bewegung differenzieren k¨onnen. Dies ist das Ziel dieses Abschnitts. Zun¨achst betrachten wir kompliziertere Prozesse, die aus stochastischen Integralen gewonnen werden. An dieser Stelle sei bemerkt, dass die folgende Definition eines Semimartingals nicht mit der in der Literatur gebr¨auchlichen Definition u ¨bereinstimmt (vergl. z.B. Protter (1992)). Der hier vorgestellte Prozess ist unter bestimmten Voraussetzungen eine g¨ ultige Formulierung f¨ ur “stetiges Semimartingal”. Allerdings ist die hier verwendete Darstellung eines Semimartingals als stochastisches Integral (genauer: lokales Martingal mit Drift) intuitiv und deswegen durchaus n¨ utzlich. Definition 3.6.1. Der Prozess (Xt )t∈[0,T ] heißt Semimartingal, falls X0 F0 -meßbar und Xt = X0 +
Zt 0
µ(s) ds +
Zt
σ(s)dBs ,
0
t ∈ [0, T ].
Hierbei sind (µ(s))s∈[0,T ] und (σ(s))s∈[0,T ] adaptierte, stochastische Prozesse mit ! ! ZT ZT |µ(s)| ds < ∞ = 1 und P σ(s)2 ds < ∞ = 1. P 0
0
(3.13)
3.6 Weitere Itˆo-Formeln
31
Falls µ ≡ 0, ist dieser Prozess ein alter Bekannter, eben gerade das stochastische Integral was wir in Abschnitt 3.3 kennengelernt haben. X ist dann ein lokales Martingal. Ein Semimartingal ist also ein lokales Martingal mit Drift. F¨ ur den Drift ben¨otigen wir nur eine sehr schwache Integrabilit¨atsbedingung, n¨amlich dass er lokal von beschr¨ankter Variation ist. 2 Das Itˆo-Integral l¨asst sich auch in Bezug auf Semimartingale formulieren, und f¨ ur f ∈ Hloc
Zt
f (s) dXs =
0
Zt
f (s)µ(s) ds +
0
Zt
f (s)σ(s) dBs,
0
also ist das Integral wieder ein Semimartingal. Betrachten wir zun¨achst nur Integranden, die von X und t abh¨angen. Die entsprechende Itˆo-Formel findet sich in folgendem Theorem. Theorem 3.6.2. Sei f ∈ C 1,2 (R+ × R) und (X)t∈[0,T ] ein Semimartingal mit Darstellung (3.13). Dann gilt f (t, Xt ) = f (0, 0) +
Zt
∂f (s, Xs ) ds ∂t
0
+
Zt
1 ∂f (s, Xs ) dXs + ∂x 2
0
Zt
∂2f (s, Xs )σ 2 (s) ds ∂x2
0
Nat¨ urlich gibt es auch eine mehrdimensionale Itˆo-Formel, in der korrelierte Brownsche Bewegungen vorkommen, siehe z.B. Karatzas and Shreve (1988, Kapitel 3.3) oder auch Bj¨ork (1998, Th. 3.16 und Bemerkung 3.7.1). F¨ ur eine Erweiterung auf Prozesse mit Spr¨ ungen sei auf Protter (1992) verwiesen. Bemerkenswerterweise ist die Itˆo-Formel f¨ ur Prozesse (nur) mit Spr¨ ungen wesentlich einfacher (aber deswegen auch nicht so weitreichend). Anstelle einer allgemeinen mehrdimensionalen Itˆo-Formel stellen wir einen Spezialfall vor, der u ¨blicherweise mit partieller Integration bezeichnet wird. Satz 3.6.3. F¨ur zwei Semimartinale X, Y mit der Darstellung dX(t) = µt dt + σt dBt und dY (t) = µ0t dt + σt0 dBt gilt Xt Y t = X0 Y 0 +
Zt
Xs dYs +
0
Zt
Ys dXs + < X, Y >t ,
0
wobei die quadratische Kovariation wie folgt definiert ist: < X, Y >t =
Zt 0
σs σs0 ds.
(3.14)
3.7 Ein erster Blick auf das Black-Scholes Modell
32
Bemerkung 3.6.4. Neben der quadratischen Kovariation gibt es nat¨ urlich auch die quadratische Variation, und es gilt < X >t =
Zt
σs2 ds.
0
Damit l¨asst sich auch der quadratische Term in der Itˆo-Formel jeweils als Integral bez¨ uglich der quadratischen Variation formulieren. Quadratische Variationen werden genauer z.B. in Karatzas and Shreve (1988) behandelt. ¨ Der Beweis erfolgt als Ubungsaufgabe. Aufgabe 17. Nutzen Sie (Xt + Yt )2 − Xt2 − Yt2 = Xt Yt , um obigen Satz zu beweisen.
3.7
Ein erster Blick auf das Black-Scholes Modell
Bereits in Beispiel 2.2.5 haben wir die geometrische Brownsche Bewegung kennengelernt. An dieser Stelle betrachten wir diesen Prozess aus einer anderen Perspektive; wir werden diesen Prozess als L¨osung einer stochastischen Differentialgleichung sehen. Dazu suchen wir die L¨osung von St = x0 +
Zt 0
Ss µ ds +
Zt
Ss σ dBs .
(3.15)
0
¨ Hierbei sind x0 , µ, σ ∈ R. Ublicherweise schreibt man f¨ ur obige Gleichung kurz dSt = St µ dt + σ dBt , S0 = x0 .
(3.16)
Was verstehen wir genau unter einer R t L¨osung von R t (3.15) ? Das ist ein stochastischer Prozess ur den die Integrale 0 Ss ds und 0 Ss dWs f¨ ur jedes t ∈ [0, T ] existieren und (St )t∈[0,T ] , f¨ der Gleichung (3.15) mit Wahrscheinlichkeit 1 erf¨ ullt. Zun¨achst suchen wir eine Idee, wie die L¨osung aussehen k¨onnte. Dazu wenden wir eine Transformation, Yt = ln St an und erhalten mit der Itˆo-Formel ln St = ln S0 +
Zt 0
1 1 dSs + Ss 2
Zt 0
−1 2 2 σ Ss ds, Ss2
und, wenn man (3.16) einsetzt, Yt = Y0 +
Zt 0
σ2 µ− ds + 2
Zt
σ dBs .
0
Die L¨osung obiger Gleichung ist sozusagen klar, Yt = Y0 + (µ − σ 2 /2)t + σBt . Deswegen vermuten wir als L¨osung von (3.15) σ2 t + σBt . µ− St = x0 exp 2
3.8 Stochastische Differentialgleichungen
33
Warum diese Vorsicht? Wir waren nicht in allen Schritten pr¨azise. Zun¨achst ist Y nur definiert unter S > 0, und außerdem ist ln keine C 2 [0, T ]-Funktion. Aber da wir nun eine Vorstellung von der L¨osung haben, k¨onnen wir diese u ufen: Sei dazu St = f (t, Bt ) ¨berpr¨ mit σ2 f (t, x) = x0 exp t + σx . µ− 2 Dann k¨onnen wir Itˆo’s Formel anwenden und erhalten St = x0 +
Zt 0
σ2 Ss µ − ds + 2
Zt
1 Ss σ dBs + 2
0
Zt
Ss σ 2 ds,
0
also gerade (3.15). An dieser Stelle bleibt nat¨ urlich noch die Frage nach der Eindeutigkeit ? Ist diese L¨osung die einzige, oder gibt es noch andere ? Mit der Formel der partiellen Integration kann man das zeigen. Sei dazu x0 6= 0. Wir nehmen an, dass (Xt )t∈[0,T ] ebenso eine L¨osung von (3.15) ist. Wir wissen bereits, dass St 6= 0, und untersuchen Xt St−1 . Definiere dazu S0 σ2 Zt := = exp −µ+ t − σBt St 2 σ2 2 t − σBt . = exp (−µ + σ ) − 2
Demnach ist Z also L¨osung von (3.15) mit den Parametern µ0 = (−µ + σ 2 ) und σ 0 = −σ. Mit der Formel f¨ ur die partielle Integration, (3.14), erhalten wir d(Xt Zt ) = Xt dZt + Zt dXt + d < X, Z >t 2 = Xt Zt (−µ + σ ) dt − σ dWt + Zt Xt µ dt + σ dWt − Xt Zt σ 2 dt = 0.
Daher ist Xt Zt = X0 Z0 , also f¨ ur alle t ∈ [0, T ]
x0 = St , P − f.s. Zt Da X und Z stetig sind erhalten wir P Xt = St , ∀t ∈ [0, T ] = 1. In diesem Abschnitt haben wir die Eindeutigkeit der L¨osung zu Fuß gezeigt. Dass man das auch allgemeiner formulieren kann, wird Gegenstand des n¨achsten Abschnitts sein. Xt =
3.8
Stochastische Differentialgleichungen
In diesem Abschnitt betrachten wir die stochastische Differentialgleichung Xt = Z +
Zt 0
µ(s, Xs ) ds +
Zt
Was verstehen wir unter einer L¨osung von (3.17)?
0
σ(s, Xs ) dBs .
(3.17)
3.8 Stochastische Differentialgleichungen
34
Definition 3.8.1. Sei {F } eine Filtration. Weiterhin seien µ, σ : R+ ×R 7→ R Funktionen, Z eine F0 -messbare Zufallsvariable und (Bt )t≥0 eine Brownsche Bewegung (bezgl. F ). Eine Lo ¨sung von (3.17) ist ein adaptierter stochastischer Prozess (Xt )t≥0 , so dass Rt Rt 1. F¨ ur alle t ≥ 0 existieren die Integrale 0 µ(s, Xs ) ds und 0 σ(s, Xs ) dBs und es gelte Zt
|µ(s, Xs)| ds < ∞
und
0
Zt
σ 2 (s, Xs ) ds < ∞,
P − f.s.
0
ullt (3.17), d.h. f¨ ur alle t ≥ 0 ist 2. (Xt )t≥0 erf¨ Xt = Z +
Zt
µ(s, Xs ) ds +
0
Zt
σ(s, Xs ) dBs ,
P − f.s.
0
¨ Bemerkung 3.8.2. Ublicherweise k¨ urzt man Gleichung (3.17) wie folgt ab: dXt = µ(t, Xt ) dt + σ(t, Xt ) dBt ,
X0 = Z.
Die L¨osung einer Differentialgleichung h¨angt offensichtlich von der vorgegebenen Filtration {F } und von dem betrachteten Wahrscheinlichkeitsraum (Ω, P) ab. Deswegen nennt man eine solche L¨osung auch starke L¨ osung. Wie wir sp¨ater noch sehen werden, sind die Bedingungen an µ relativ einschr¨ankend, und man kann dies umgehen, indem man schwache L¨osungen betrachtet. Eine ausf¨ uhrliche Diskussion findet man z.B. in Karatzas and Shreve (1988). In folgendem Theorem werden wir hinreichende Bedingungen an µ und σ kennenlernen, welche die Existenz und Eindeutigkeit der L¨osungen von (3.17) garantieren. Theorem 3.8.3. Sind µ und σ wie in Definition 3.8.1 und dar¨uberhinaus stetig, und existiert eine Konstante K < ∞, so dass 1.
|µ(t, x) − µ(t, y)| + |σ(t, x) − σ(t, y)| ≤ K|x − y|
2.
|µ(t, x)| + |σ(t, x)| ≤ K(1 + |x|)
3.
E(Z 2 ) < ∞
dann hat (3.17) f¨ur jedes T ≥ 0 eine eindeutige L¨osung in dem Intervall [0, T ]. Dar¨uberhinaus gilt f¨ur diese L¨osung (Xt )t∈[0,T ] , dass 2 E sup Xt < ∞. t∈[0,T ]
Die L¨osung ist eindeutig in dem Sinn, dass f¨ ur eine zweite L¨osung (Yt )t∈[0,T ] gerade gilt, dass P Xt = Yt , ∀t ∈ [0, T ] = 1.
3.8 Stochastische Differentialgleichungen
35
Beweis. Ganz analog zum Eindeutigkeitssatz f¨ ur gew¨ohnliche Differentialgleichungen wenden wir den Banachschen Fixpunktsatz an. Dahinter steckt die sogenannte Picard-Lindel¨of Iteration, die eine L¨osung sogar explizit konstruiert. Wir definieren eine Menge 2 M := (Xt )t∈[0,T ] , F − adapt. stetige Prozesse mit E sup |Xt | < ∞ . t∈[0,T ]
Mit der Norm ||X|| = [E(supt∈[0,T ] |Xt |2 )]1/2 ist M ein vollst¨andiger metrischer Raum. F¨ ur die Anwendung des Fixpunktsatzes ben¨otigen wir nun eine kontrahierende Abbildung. Wir definieren die Abbildung A durch A(X)t = Z +
Zt
µ(s, Xs ) ds +
0
Zt
σ(s, Xs ) dBs .
0
F¨ ur X ∈ M garantiert Bedingung 2. dass A(X) wohldefiniert ist. Wir m¨ ussen noch zeigen, dass A(X) ∈ M. Dazu nutzen wir die folgende Lipschitz-Eigenschaft von A, die uns auch f¨ ur die Kontraktion-Eigenschaft n¨ utzlich sein wird. F¨ ur zwei Prozesse X, Y ∈ M nutzen wir (a + b)2 ≤ 2(a2 + b2 ) und erhalten Z t 2 Z t 2 2 2 A(X)t − A(Y )t ≤ 2 [b(s, Xs ) − b(s, Ys )] ds + [σ(s, Xs ) − σ(s, Ys )] dBs . 0
0
Wir wenden die Norm auf M an und nutzen f¨ ur den zweiten Term die Doobsche Ungleichung (Satz 2.3.3) und erhalten 2 E sup |A(X)t − A(Y )t | t∈[0,T ]
ZT Zt 2 2 2 ≤ 2E sup [µ(s, Xs ) − (s, Ys )] ds + 8E [σ(s, Xs ) − σ(s, Xs )] ds t∈[0,T ]
0
0
2 2 2 2 ≤ 2 K T + 4K T E sup |Xt − Yt | t∈[0,T ]
mit Bedingung 1. Demnach ist ||A(X) − A(Y )|| ≤ (2(K 2 T 2 + 4K 2 T ))1/2 ||X − Y ||. Will man das f¨ ur den Schluss A(X) ∈ M ausnutzen, muss man auch ||A(0)|| kennen. Mit (a + b + c)2 ≤ 3(a2 + b2 + c2 ) ist Zt 2 Z t 2 ! |A(0)t |2 ≤ 3 Z 2 + b(s, 0) ds + σ(s, 0) dWs , 0
0
also folgt, indem wir Bedingung 2. anwenden, 2 E sup |A(0)t | ≤ 3 E(Z 2 ) + K 2 T 2 + 4K 2 T < ∞. t∈[0,T ]
Wir schließen, dass A : M 7→ M eine Abbildung ist, die einer Lipschitz-Bedingung mit Lipschitz Konstanten k(T ) := (2(K 2 T 2 + 4K 2 T ))1/2 gen¨ ugt. W¨ahlen wir T so klein,
3.8 Stochastische Differentialgleichungen
36
dass k(T ) < 1 gilt, so ist die Abbildung A sogar eine Kontraktion, hat also nach dem Banachschen Fixpunktsatz genau einen Fixpunkt X in M. Nach der Definition von A ist ein Fixpunkt von A eine L¨osung der stochastischen Differentialgleichung, (3.17). Demnach existiert eine L¨osung, falls T ausreichend klein ist. Andererseits ist jede weitere L¨osung von (3.17), die in M liegt, ein Fixpunkt von A. Da es aber genau einen Fixpunkt von A in M gibt, ist die L¨osung also f¨ ur kleine T eindeutig. Nun k¨onnte es ja noch sein, dass es eine L¨osung gibt, die nicht in M liegt. Wir zeigen, dass das nicht der Fall ist. Sei dazu X ein Semimartingal, dass (3.17) l¨ost. Wir werden eine geeignete Lokalisierung verwenden. Dazu setzen wir τn := inf{t ≥ 0 : |Xt | > n} und definieren f n (t) := E(sups∈[0,t] |Xs∧τn |2 ). Dann ist f n beschr¨ankt und stetig. Außerdem gilt wie oben Z n Z n h s∧τ 2 i h s∧τ i n 2 2 2 f (t) ≤ 3 E(Z ) + E sup K(1 + |Xu |) du + 4E sup K (1 + |Xu |) du s∈[0,t]
s∈[0,t]
0
0
Zt h i 2 2 2 ≤ 3 E(Z ) + 2(K T + 4K ) 1 + E sup |Xu∧τn |2 ds. u∈[0,s]
0
ur positive a, b ∈ R Damit erhalten wir eine Integralungleichung f¨ ur f n , denn es gilt f¨ t Z n f (t) ≤ a + b f n (s) ds. 0
Das folgende Lemma wird uns eine Schranke liefern, die f¨ ur alle n g¨ ultig ist. Lemma 3.8.4. (Gronwall) F¨ur a, b > 0 und eine stetige Funktion f , f¨ur die f (t) ≤ a + b
Zt
f (s) ds
0
f¨ur alle t ∈ [0, T ] gilt, folgt
f (T ) ≤ a 1 + ebT . Rt Beweis. Wir schreiben u(t) = e−bt 0 f (s) ds. Dann gilt 0
−bt
u (t) = e
f (s) − b
Zt 0
f (s) ds
≤ ae−bt .
Integrieren liefert u(T ) ≤ a/b, und einsetzen liefert die Behauptung.
Das Gronwall Lemma liefert demnach f n (T ) ≤ C(T ) < ∞, wobei C(T ) nur von T und nicht von n abh¨angt. Mit dem Lemma von Fatou schließen wir, dass f¨ ur jedes T E sup |Xt |2 < C(T ) < ∞. t∈[0,T ]
Somit ist X ein Element von M und wir haben den Beweis f¨ ur ausreichend kleine T abgeschlossen, sozusagen eine lokale L¨osung gefunden. F¨ ur eine beliebiges T unterteilen wir das Intervall [0, T ] in n Teile, wobei wir n so groß w¨ahlen, dass T /n ausreichend klein in obigen Sinne gilt. Sukzessive erhalten wir eine eindeutige L¨osung auf jedem Teilintervall, die man zu einer L¨osung auf [0, T ] zusammensetzt.
3.9 Der Ornstein-Uhlenbeck Prozess
3.9
37
Der Ornstein-Uhlenbeck Prozess
In diesem Abschnitt werden wir einen vor allem im Zinsbereich ¨außerst wichtigen Prozess kennenlernen. Wie nicht anders zu vermuten, wird er u ¨ber eine stochastische Differentialgleichung definiert, dXt = κ(θ − Xt ) dt + σ dBt ,
X0 = x.
Diese SDE kann man explizit l¨osen. Allerdings gestattet die obige Darstellung einen tiefen Einblick in das Verhalten des Prozesses. Betrachten wir ein κ ∈ (0, 1]. Ist nun Xt unter θ, so tendiert der Prozess nach oben (und zwar um κ(θ − Xt ) plus Rauschen). Ist umgekehrt Xt u uckgezogen. ¨ber θ, so tendiert der Prozess nach unten. Er wird sozusagen immer zu θ zur¨ Man nennt diese Eigenschaft treffend “mean reversion”. Sie kann nat¨ urlich durch das Rauschen (σdBt ) mehr oder weniger deutlich u ¨berlagert werden. Zur L¨osung der SDE werden wir zwei Transformationen nutzen. Zun¨achst verschieben wir den Prozess um θ nach unten, indem wir Yt = Xt − θ setzen. Dann gilt dYt = −κYt dt + σ dBt ,
Y0 = x − θ.
Als zweite Transformation setzen wir Zt = exp(κt)Yt und erhalten dZt = κeκt Yt dt − eκt κYt dt + eκt σ dBt = eκt σ dBt mit Z0 = x − θ. Die L¨osung dieser SDE ist Zt = x − θ + σ
Zt
eκs dBs ,
0
und wir erhalten −κt
Xt = θ + e
Zt −κt x − θ + σe eκs dBs . 0
Nach Satz 3.5.2 ist der letzte Term ein Gaußscher Prozess, insgesamt ist also X ebenso ein Gaußscher Prozess. Gaußsche Prozesse sind durch R t ihre Erwartungswert- und Kovarianzfunktion eindeutig bestimmt. Setzen wir Gt := 0 exp(κs) dBs , so hat G f¨ ur alle t den Erwartungswert 0 und die Kovarianzfunktion Zs∧t Cov(Gs , Gt ) = e2κu du. 0
Interessanterweise ist das auch die Kovarianzfunktion von Bτ (t) = BR t exp(2κu) du , 0
Rt also einer Brownschen Bewegung mit Zeittransformation τ (t) := 0 exp(2κu) du. Nat¨ urlich ist auch B(τ (t)) ein Gaußprozess, und somit sind beide Prozesse gleich in Verteilung (haben die gleichen fidi’s).
3.10 L¨osungsmethoden f¨ur SDEs
38
Aufgabe 18. Die allgemeine, lineare SDE bezgl. einer Brownschen Bewegung ist dXt = M(t)X(t) + m(t) dt + S(t)X(t) + s(t) dBt .
(3.18)
Zeigen Sie, dass mit
Zt := exp
h Zt
M(u) du +
0
Zt 0
1 S(u) dWu − 2
Zt
S(u)2 du
0
i
die eindeutige L¨osung von (3.18) gerade durch den folgenden Prozess gegeben ist:
Xt = Z t X0 +
3.10
Zt 0
1 m(u) − S(u)s(u) du + Zu
Zt 0
s(u) dWu . Zu
L¨ osungsmethoden fu ¨ r SDEs
Im Verlauf der Vorlesung werden wir noch einigen stochastischen Differentialgleichungen begegnen, es ist also n¨ utzlich ein paar L¨osungsmethoden zur Hand zu haben.
3.10.1
Koeffizientenvergleich
Nat¨ urlich wird die Itˆo-Formel der Wegweiser zur L¨osung sein. F¨ ur eine Gleichung wie dXt = µXt dt + σXt dBt nutzen wir den Ansatz Xt = f (t, Bt ) und erhalten also mit der Itˆo-Formel ∂f ∂f 1 ∂2f dXt = dt. dBt + + ∂x ∂t 2 ∂x2
(3.19)
(3.20)
Vergleichen wir die dt- und dBt -Koeffizienten in (3.19) und (3.20) miteinander, so erhalten wir zwei gew¨ohnliche partielle Differentialgleichungen, ∂f ∂f 1 ∂2f = µf + = σf. ∂t 2 ∂x2 ∂x Die zweite Gleichung k¨onnen wir leicht l¨osen und erhalten f (t, x) = exp σx + g(t)
mit einer beliebigen Funktion g. Nutzen wir dies als Ansatz f¨ ur die linke Differentialgleichung, so erhalten wir σ2 g0 = µ − , 2 und insgesamt also die explizite L¨osung der geometrischen Brownschen Bewegung, wie bereits bekannt. Leider wird dieser Ansatz nicht immer zur L¨osung f¨ uhren, da sich nicht alle L¨osungen in der Form Xt = f (t, Bt ) darstellen lassen. In vorigem Abschnitt haben wir gesehen, dass ein geschickte Transformation auch zum Ziel f¨ uhren kann. Hat man keine Idee von einer Transformation, so gelangt man vielleicht mit einem geschickten Ansatz zum Ziel, wie in folgender Methode.
3.10 L¨osungsmethoden f¨ur SDEs
3.10.2
39
Multiplikativer Ansatz
Bei SDEs der Form dXt = c(t)Xt dt + d(t) dBt bietet sich ein multiplikativer Ansatz an:
Xt = a(t) x0 +
Zt 0
b(s) dBs .
Damit erh¨alt man Zt dXt = a (t) x0 b(s) dBs dt + a(t)b(t) dBt 0
0
=
0
a (t) Xt dt + a(t)b(t) dBt . a(t)
Man muss also die Gleichungen a0 =c a
und ab = d
l¨osen. Aufgabe 19. L¨osen Sie die SDE dXt = −
Xt dt + dBt , 1−t
X0 = 0.
Zeigen Sie, dass die L¨osung ein zentrierter Gaußprozess mit Kovarianzfunktion s ∧ t − st.
Bemerkung 3.10.1. Die ist auch die Kovarianzfunktion der Brownsche Bru ¨cke, definiert durch ˜t := Bt − tB1 , B t ∈ [0, 1],
ein Prozess, der in der Statistik stochastischer Prozesse eine herausragende Rolle spielt. Wir haben auf diese Weise zwei Darstellungen der Brownschen Br¨ ucke erhalten, die un˜ terschiedlicher nicht sein k¨onnten (z.B. ist B nicht adaptiert an die nat¨ urliche Filtration von B, der obige Prozess X aber schon).
Kapitel 4 Das Black-Scholes Modell In diesem Abschnitt werden wir eine Methode zur Optionspreisbewertung im Modell von Black and Scholes (1973) kennenlernen. Dabei bestehen enge Zusammenh¨ange mit der Vorgehensweise in Abschnitt 1.3 (Cox-Ross-Rubinstein Modell), allerdings werden wir die Methodik etwas verfeinern. Bemerkenswert ist, dass es eine Reihe von Methoden gibt, um die ber¨ uhmte Formel von Black und Scholes herzuleiten. Der in diesem Abschnitt gew¨ahlte Zugang wird u ¨blicherweise als Martingalmethode bezeichnet. Sp¨ater werden wir diese Formel noch einmal mit partiellen Differentialgleichungen herleiten.
4.1
Das Modell
Wir betrachten einen Markt mit einer einzigen Aktie (S)t≥0 , die durch eine geometrische Brownsche Bewegung modelliert werde: dSt = St (µdt + σdBt ). Wie wir bereits wissen, hat diese SDE eine eindeutige explizite L¨osung σ2 St = S0 exp µ− t + σdBt , 2
wobei wir annehmen, dass S0 eine positive Konstante ist. Daran l¨asst sich ablesen, dass St log-normalverteilt ist, was gerade bedeutet, dass ln St normal verteilt ist. Des weiteren hat S die folgenden drei Eigenschaften 1. stetige Pfade 2. unabh¨angige Renditen, d.h. die Rendite
St −Su Su
ist unabh¨angig von σ(Sv : 0 ≤ v ≤ u)
3. station¨are Renditen, d.h. die Verteilungen von
St −Su Su
und
St−u −S0 S0
sind gleich
Man beachte, dass im Vergleich dazu die Brownsche Bewegung unabh¨angige und station¨are Zuw¨achse hat. Wichtig ist hier, dass man dieses Konzept auf die Renditen u ¨bertr¨agt. Neben der Aktie exisitiert noch ein risikoloses Investment (Bankkonto), welches risikolos mit dem konstanten Zinssatz r verzinst. Wir bezeichnen das Bankkonto mit S 0 und so gilt dSt0 = St0 rdt, wobei wir S00 = 1 setzen. 40
4.2 Selbstfinanzierende Handelsstrategien 0 Ht−1 St0 + Ht−1 St
41 0 Ht0 St+1 + Ht St+1
Ht0 St0 + Ht St t
t+1
Abbildung 4.1: Eine selbstfinanzierende Handelsstrategie investiert den an t zur Verf¨ ugung stehenden Betrag in voller H¨ohe. Oben befindet sich der Betrag, der aus dem Investment an t − 1 hervorgeht, und unten der neu investierte Betrag.
4.2
Selbstfinanzierende Handelsstrategien
Eine Handelsstrategie erlaubt in unserem Markt das Investment in das Bankkonto sowie in die Aktie. Eine Handelsstrategie ist also ein Prozess φ = (φt )0≤t≤T = (Ht0 , Ht )0≤t≤T , mit Werten in R2 . Nat¨ urlich muss dieser Prozess adaptiert sein. In einem Modell, das Spr¨ unge zul¨asst, m¨ usste man von φ sogar die Vorhersehbarkeit fordern. Zu der Filtration noch ein W¨ortchen: der betrachtete Markt enth¨alt nur ein zuf¨alliges Asset und vern¨ unftigerweise betrachtet man ausschließlich die Filtration {F }, die von S erzeugt wird. Dies ist die gerade nat¨ urliche Filtration von B (mit usual conditions, s. S. 9). F¨ ur eine Handelsstrategie φ bezeichnet Ht0 den Betrag, der risikolos investiert ist und Ht die Anzahl der gekauften Aktien. F¨ ur beide seien auch negative Werte zugelassen. Damit hat φ zur Zeit t den Wert Vt (φ) = Ht0 St0 + Ht St . Eine selbst finanzierte Handelsstrategie (siehe Bild 4.1) in diskreter Zeit gen¨ ugt der Bedingung 0 St0 + Ht−1 St = Ht0St0 + Ht St . (4.1) Ht−1 F¨ ur die Wertver¨anderung der Handelsstrategie bedeutet dies ∆V (φ)
= (4.1)
0 0 Ht0 St0 + Ht St − Ht−1 St−1 − Ht−1 St−1
=
0 0 Ht−1 (St0 − St−1 ) + Ht−1 (St − St−1 )
=
0 Ht−1 ∆St0 + Ht−1 ∆St .
F¨ ur eine selbst-finanzierende Handelsstrategie φ in stetiger Zeit fordern wir analog dVt (φ) = Ht0 dSt0 + Ht dSt . Dies fassen wir in der folgenden Definition zusammen:
(4.2)
4.3 Das Girsanov-Theorem
42
Definition 4.2.1. Eine Handelsstrategie φ = (Ht0 , Ht )0≤t≤T heißt selbst-finanzierend, falls RT RT 1. 0 |Ht0 | dt + 0 Ht2 dt < ∞ P-f.s., Rt Rt ur alle t ∈ [0, T ]. 2. Ht0 St0 + Ht St = H00 S00 + H0 S0 + 0 Hu0 dSu0 + 0 Hu dSu , P-f.s. f¨
Mit S˜t := e−rt St bezeichnen wir den diskontierten Aktienwert. Folgender Satz wird sich als zentraler Dreh- und Angelpunkt erweisen. Satz 4.2.2. Eine Handelsstrategie φ, die Bedingung 1. aus Definition 4.2.1 erf¨ullt, ist selbst-finanzierend genau dann, wenn V˜t (φ) = V0 (φ) +
Zt
Hu dS˜u
P − f.s.
(4.3)
0
f¨ur alle t ∈ [0, T ], wobei wir V˜t (φ) := e−rt Vt (φ) setzen. Beweis. F¨ ur eine selbst-finanzierende Strategie φ erhalten wir mit der Itˆo-Formel dV˜t (φ) = −r V˜t (φ)dt + e−rt dVt (φ). Damit ist dV˜t (φ) = −re−rt Ht0 ert + Ht St dt + e−rt Ht0d ert + e−rt Ht dSt = Ht −re−rt St dt + e−rt dSt = Ht dS˜t , also Gleichung (4.3). Umgekehrt erh¨alt man ¨ahnlich aus (4.3), dass die Strategie selbstfinanzierend ist. Aufgabe: Zeigen Sie die R¨ uck-Richtung im Satz 4.2.2. Die interessante Beobachtung des obigen Satzes ist, dass sich die diskontierte Handelsstrategie als stochastisches Integral bez¨ uglich dem diskontierten Aktienprozess ausdr¨ ucken ˜ ˜ l¨asst. W¨are also S ein lokales Martingal, so auch V . Diese Idee m¨ochten wir weiter ausbauen. Die Frage ist: Kann man, wie im CRR-Modell, zu einem Maß Q wechseln, unter dem S˜t ein Martingal ist? Dazu ben¨otigen wir einige technische Hilfsmittel.
4.3
Das Girsanov-Theorem
Der oft im Hintergrund verbliebene Wahrscheinlichkeitsraum (Ω, A, P) wird nun unseren Ausgangspunkt bilden. Wir sind auf der Suche nach einem weiteren Maß Q, welches von P abgeleitet wird. Ein Maß Q auf (Ω, A) heißt absolut stetig bez¨ uglich P, falls ∀A ∈ A :
P(A) = 0
⇒
Q(A) = 0.
Mit Hilfe des Radon-Nikodym-Theorems zeigt man folgende Aussage:
4.3 Das Girsanov-Theorem
43
Theorem 4.3.1. Q ist absolut stetig bez¨uglich P genau dann, wenn eine nicht-negative Zufallsvariable Z existiert, so dass ∀A ∈ A Z Q(A) = Z(ω)dP(ω). A
Z nennt man auch Dichte von Q bez¨uglich P und schreibt Z =
dQ . dP
Wenn Q und P jeweils absolut stetig bez¨ uglich einander sind, so nennt man sie ¨aquivalent. Hat man nun ein Maß P und ein Maß Q mit der Beziehung dQ = Z dP , so fragt man sich zuerst, wie sich Erwartungswerte unter Q berechnen lassen. Die folgende Bayes-Regel stellt den fundamentalen Zusammenhang sogar f¨ ur bedingte Erwartungswerte her. Theorem 4.3.2. Ist Q absolutstetig bez¨uglich P , hat also die P -Dichte Z, und definiert man LT := EP (Z|FT ) bez¨uglich einer Filtration F , so gilt f¨ur eine FT -messbare Zufallsvariable ST Q P E ST Lt Ft = E ST LT Ft .
Beweis. Sei A ∈ Ft . Dann ist Z Z Q E ST Lt Ft dP = EQ ST Ft EP Z Ft dP A
=
= = =
A Z
A Z
A Z
A Z A
Q
E
Z ST Ft Z dP = EQ ST Ft dQ A
ST dQ
ST Z dP =
Z
ST EP (Z|FT ) dP
A
P E (ST LT Ft ) dP.
Damit ist die Gleichheit der bedingten Erwartungswerte gezeigt. Die zugrundeliegende R Beobachtung ist eigentlich, dass die Ausdr¨ ucke gleich A ST dQ sind.
Ist (Lt )t∈[0,T ] sogar ein positiver Prozess, so stellt man die Aussage der Bayes-Regel meist dar als L T E Q ST Ft = EP ST (4.4) Ft . Lt Sind P und Q ¨aquivalent (wir schreiben dann Q ∼ P ), so ist die Dichte Z mit Wahrscheinlichkeit 1 positiv.
4.4 Repr¨asentation von Brownschen Martingalen.
44
Ist {F } die nat¨ urliche Filtration einer Brownschen Bewegung (B)t∈[0,T ] auf (Ω, A, P), so gilt folgende Aussage Theorem 4.3.3. (Girsanov) F¨ur einen F -adaptierten Prozess (θ)t∈[0,T ] , f¨ur den das InRT tegral 0 θs2 ds < ∞ P-f.s. und der Prozess (Lt )t∈[0,T ] , definiert durch Lt = exp
−
Zt 0
1 θs dBs − 2
Zt
θs2
ds
0
(4.5)
ein Martingal (bezgl. P) ist, definieren wir ein Maß Q durch Z Q(A) = LT dP. A
Rt Dann ist der Prozess Bt + 0 θs ds
t∈[0,T ]
eine Brownsche Bewegung unter Q.
Bemerkung 4.3.4. Die Bedingung
1 ZT 2 E exp θs ds <∞ 2 0
ist hinreichend daf¨ ur, dass (L) ein Martingal ist. Ist F die nat¨ urliche Filtration der Brownschen Bewegung und sind P und Q ¨aquivalent, so folgt sogar, dass die Dichte zwingend die Gestalt (4.5) haben muss, wie wir im n¨achsten Abschnitt sehen werden. Den Beweis werden wir zu einem sp¨ateren Zeitpunkt f¨ uhren. Aufgabe 20. Sei (Bt )t≥0 eine Brownsche Bewegung auf (Ω, A, P ). Dann definiert 1 LT := exp − θBT − θ2 T 2
eine Dichte und wir setzen dQ := LT dP . Zeigen Sie mit der Bayes-Regel, dass f¨ ur t > s ˜ und Bt := Bt + θt 1 2 ˜ Q ˜ ˜ E exp(λBt ) Bs = exp λ(Bs + λ (t − s) . 2
˜ ist also unter Q ein Martingal, ein Gaußprozess und hat die KovarianzDer Prozess B ˜ eine Brownsche Bewegung. funktion s ∧ t. Damit ist B
4.4
Repr¨ asentation von Brownschen Martingalen.
Sei wieder F die nat¨ urliche Filtration einer Brownschen Bewegung (Bt )t∈[0,T ] . F¨ ur f ∈ H2 Rt ist ( 0 fs dBs )t∈[0,T ] ein quadrat-integrierbares Martingal. Das folgende Theorem zeigt, dass sich alle quadrat-integrierbare Martingale in dieser Form darstellen lassen (nat¨ urlich nur, wenn F die nat¨ urliche Filtration von B ist).
4.5 Pricing im Black-Sholes Modell
45
Theorem 4.4.1. Sei (M)t∈[0,T ] ein quadrat-integrierbares Martingal bez¨uglich F . Dann existiert ein adaptierter Prozess (ft )t∈[0,T ] , so dass f ∈ H2 gilt und ∀t ∈ [0, T ] ist Mt = M0 +
Zt
fs dBs
P − f.s.
0
Bemerkung 4.4.2. Ist Mt nicht quadrat-integrierbar, so gilt trotzdem obige Darstellung, 2 allerdings mit f ∈ Hloc . Auch diesen Beweis werden wir zu einem sp¨ateren Zeitpunkt f¨ uhren. Satz 4.4.3. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und Q ¨aquivalent zu P . Weiterhin sei (Bt )t∈[0,T ] eine Brownsche Bewegung und A die von B erzeugte σ-Algebra. Dann hat die Dichte Z := dQ/dP notwendigerweise die Gestalt (4.5). Beweis. Die Dichte Z ist mit Wahrscheinlichkeit 1 eine positive Zufallsvariable, da sonst die beiden Maße nicht ¨aquivalent w¨aren. Weiterhin ist Lt := EP (Z|Ft ) ein Martingal (bezgl. der nat¨ urlichen Filtration von B, {F }) mit E(Lt ) = 1 f¨ ur alle t ∈ [0, T ]. Wir erhalten aus Theorem 4.4.1 die Darstellung Lt = 1 +
Zt
fs dBs
0
Rt 2 mit f ∈ Hloc . Setzen wir f˜t := ft /Lt , so folgt Lt = 1 + 0 Ls f˜s dBs , selbstverst¨andlich mit 2 (Lt f˜t )t∈[0,T ] ∈ Hloc . Weiterhin folgt aus (4.5) mit der Itˆo-Formel 1 1 dLt = Lt − θt dBt − θt2 dt + Lt θt2 dt 2 2 = −Lt θt dBt , mit L0 = 1. Damit sind ist die Darstellung durch f˜ mit dieser gleichwertig und die Behauptung folgt.
4.5 4.5.1
Pricing im Black-Sholes Modell Das ¨ aquivalente Martingalmaß
Wir sind auf der Suche nach einem Maß Q unter dem S˜t = e−rt St ein Martingal ist. Dazu nutzen wir dS˜t = −r S˜t dt + e−rt dSt = S˜t ((µ − r)dt + σdBt ) µ−r ˜ = St σ dt + dBt . σ
4.5 Pricing im Black-Sholes Modell ˜t := Bt + Setzen wir also B
µ−r t, σ
46
so ist ˜t . dS˜t = S˜t σdB
Mit dem Girsanov Theorem 4.3.3 und θt = µ−r erhalten wir also, dass unter dem Maß Q, σ definiert durch T Z ZT 1 dQ = exp − θs dBs − θs2 ds dP 2 0
0
˜t eine Brownsche Bewegung ist, und folglich ist S˜ ein Martingal. Damit der Prozess B haben wir ein großes Teilziel erreicht, denn Q ist ¨aquivalent zu P und alle diskontierten Preisprozesse sind unter Q Martingale. Im Black-Scholes Modell ist Q wegen Bemerkung 4.4.3 sogar eindeutig! Bemerkung 4.5.1. Eine SDE ¨andert sich unter dem Maßwechsel nicht, allerdings ¨andern die Prozesse ihre Eigenschaften! Die folgende Aussage werden wir in kurzer Zeit nutzen. 2 und Aufgabe 21. Sei (ft )t∈[0,T ] ein adaptierter stochastischer Prozess, so dass f ∈ Hloc
Mt :=
Zt
fu dBu .
0
Rt Zeigen Sie, dass aus E(supt∈[0,T ] Mt2 ) < ∞ folgt, dass E( 0 fu2 du) < ∞, also f ∈ H2 . Hinweis: Betrachten Sie die u ¨ bliche Lokalisierung und zeigen Sie, dass E(MT2 ∧τn )
TZ∧τn 2 =E fu du . 0
4.5.2
Pricing von europ¨ aischen Optionen
Eine europ¨ aische Option ist das Recht, zu einem zuk¨ unftigen Zeitpunkt T ein Finanzprodukt zu einem fixen Preis K zu kaufen (Call) oder zu verkaufen (Put). Der Aus¨ ubungspreis K ist nat¨ urlich bei Kauf der Option festgelegt. In unserem Fall ist das Finanzprodukt eine Aktie mit Kurs (St )t≥0 . Zur Zeit T hat dieses Recht einen Wert h ≥ 0, der sogenannte Payoff, und es gilt h = (ST − K)+ f¨ ur einen Call, bzw. h = (K − ST )+ f¨ ur einen Put. Wir suchen zu einer Option eine Handelsstrategie, die den Payoff der Option repliziert, d.h. VT (φ) = h. F¨ ur den Beweis werden wir Theorem 4.4.1 nutzen, also nur eine gewisse Klasse von Handelsstrategien zulassen k¨onnen. Definition 4.5.2. Eine Handelsstrategie φ = (Ht0 , Ht )t∈[0,T ] heißt zul¨assig, falls sie selbstfinanzierend ist, V˜t (φ) ≥ 0 f¨ ur alle t ∈ [0, T ] und 2 Q ˜ E sup Vt < ∞. t∈[0,T ]
4.5 Pricing im Black-Sholes Modell
47
Wir erhalten das fundemantale Theorem 4.5.3. Im Black-Scholes Modell kann man jede Option mit FT -messbaren Payoff h ≥ 0 replizieren und der Wert des replizierenden Portfolios ist gerade Q −r(T −t) (4.6) Vt (φ) = E e h Ft .
Aus Arbitragegr¨ unden muss der Wert der Option zur Zeit t gerade gleich dem Wert der replizierenden Handelsstrategie sein. F¨ ur einen Call erhalten wir + Q −r(T −t) C(t, T ) = E e ST − K F t . Den Wert des Erwartungswertes werden wir in K¨ urze explizit berechnen.
Beweis. F¨ ur den Beweis nutzen wir das Theorem 4.4.1 u ¨ber die Repr¨asentation von Brownschen Martingalen. Leider liefert dieses Theorem nur die Existenz einer replizierenden Strategie, nicht aber ihre genaue Form oder ihren Wert. Da wir aber wissen, dass selbstfinanzierende Handelsstrategien Martingale unter Q bilden, werden wir den Wert trotzdem als Erwartungswert ausdr¨ ucken k¨onnen. Wir nehmen zun¨achst an, dass eine zul¨assige Handelsstrategie φ = (H 0 , H) existiert, die die Option repliziert. Deswegen soll nat¨ urlich VT (φ) = h gelten. F¨ ur den diskontierten Wert gilt Gleichung (4.3), also V˜t (φ) = V0 (φ) +
Zt
Hu dS˜u
= V0 (φ) +
Zt
˜u . Hu σ S˜u dB
0
(4.7)
0
Da φ eine zul¨assige Handelsstrategie ist gilt, schließen wir mit der Aussage aus Aufgabe 21, dass das stochastische Integral sogar ein Martingal ist, und erhalten V˜t = EQ V˜T Ft .
Das ist nat¨ urlich gleichbedeutend mit Gleichung (4.6). Jede zul¨assige Handelsstrategie muss also diese Form haben.
Nun zur Existenz. Wir suchen demnach zwei Prozesse H0 und H, die eine zul¨assige Handelsstrategie definieren und 0 0 Q −r(T −t) Ht St + Ht St = Vt (φ) = E e h Ft . Wir setzen
Q
Mt := E
−rT
e
h Ft .
4.5 Pricing im Black-Sholes Modell
48
Dann ist M unter Q ein Martingal bez¨ uglich der Filtration F . F ist aber auch die ˜ nat¨ urliche Filtration von B. Theorem 4.4.1 liefert die Existenz eines Prozesses (ft )t∈[0,T ] mit f ∈ H2 und Zt ˜s Mt = M0 + fs dB ∀t ∈ [0, T ] P − f.s. 0
Vergleichen wir mit (4.7), so sehen wir leicht, dass mit Ht :=
ft , σ S˜t
t ∈ [0, T ]
und konsequenterweise Ht0 := Mt − Ht S˜t eine geeignete Handelsstrategie gefunden ist. In der Tat, V˜t ist ein Martingal, und rt Q −r(T −t) Vt (φ) = e Mt = E e h Ft . Q
Das zeigt direkt, dass Vt (φ) ≥ 0, VT (φ) = h und schließlich E
supt∈[0,T ] V˜t
2
< ∞.
Nun ist es an der Zeit, konkrete Produkte zu betrachten. Zuerst berechnen wir den Preis eines europ¨aischen Calls, d.h. + Q −r(T −t) C(t, T ) := E e ST − K F t . (4.8) Wir nutzen wieder die unabh¨angigen Zuw¨achse der Brownschen Bewegung, indem wir die explizite Darstellung der geometrischen Brownschen Bewegung anwenden, i h h + i Q −r(T −t) −r(T −t) Q E e ST − K F t = e E (ST − K)1{S >K} Ft T i i h h −r(T −t) Q =e E ST 1{ST >K} Ft − K Q ST > K Ft =: e−r(T −t) [(1) − (2)] .
Wenden wir uns zun¨achst dem zweiten Ausdruck zu. σ2 (2) = Q St exp r − (T − t) + σ BT − Bt > K Ft 2 2 σ Ke−r(T −t) = Q − (T − t) + σ(BT − Bt ) > ln Ft . 2 St
Der Ausdruck auf der linken Seite von ”<¨ıst unabh¨angig von Ft , w¨ahrend die rechte Seite messbar ist, was uns zu einem unbedingten Erwartungswert f¨ uhrt. F¨ ur eine standardnormalverteilte ZV ξ ist x−a x−a P(a + b ξ > x) = P ξ > =P ξ≤− b b x−a =Φ − b
4.5 Pricing im Black-Sholes Modell
49
Damit erhalten wir (2) = Φ −
ln Ke
=: Φ (d2 )
−r(T −t)
St
+
σ2 (T 2
√ σ T −t
− t)
!
Nun zum ersten Ausdruck. Wieder ist f¨ ur ξ ∼ N (0, 1) a+bξ
E e
1{a+bξ>x} =
Z∞
z2 1 ea+bz · √ e− 2 dz 2π
Z
2 z 2 −2bz+b2 1 + b2 +a 2 √ e− dz 2π
x−a b
=
x−a b
=e
b2 +a 2
b2 x−a x−a +a P ξ+b> Φ − =e2 +b . b b
F¨ ur den ersten Ausdruck erhalten wir damit 2 Q (r− σ2 )(T −t)+σ(BT −Bt ) 1{ln ST >ln K } | Ft e (1) = St E St St 2 σ2 σ (T − t) + r− = St · exp (T − t) · Φ(d1 ) 2 2 mit
2
√ √ ln K/St − (r − σ2 )(T − t) √ d1 = − + σ T − t = d2 + σ T − t. σ T −t Wir fassen zusammen:
Theorem 4.5.4. (Black-Scholes Formel) Der Preis eines europ¨aischen Calls zur Zeit t mit Aus¨ubungspreis K und Maturity T ist im Black-Scholes Modell gegeben durch C(t, T ) = St Φ(d1 ) − Ke−r(T −t) Φ(d2 ),
(4.9)
St ln Ke−r(T 1 √ −t) √ d1 = + σ T −t 2 σ T −t √ d2 = d1 − σ T − t.
Den Preis des Call haben wir etwas abgek¨ urzt als C(t, T ) dargestellt. Eigentlich ist er aber eine Funktion von fu ¨nf Argumenten, denn nicht (t, T ) sondern einzig die Restlaufzeit T −t geht in die Formel ein, so dass C(t, T ) = C(T − t, σ, K, r, St ). Je nach Situation werden wir die gerade g¨ unstige Notation verwenden.
4.5 Pricing im Black-Sholes Modell
50
Preis d.Calls 40
30
20 T-t=1 T-t=0.5
10
T=t 70
80
90
100
110
120
130
Aktienkurs
Abbildung 4.2: Preise eines Calls im Black-Scholes Modell. Dabei ist S0 = 100, σ = 0.2, r = 0.1.
Aufgabe 22. Berechnen Sie den Preis einer Digital-Option, d.h. einer Option, die 1 an T zahlt, falls ST > K und Null sonst. Aufgabe 23. Berechnen Sie den Black-Scholes Preis unter Verwendung folgender Gleichung E(ξ) =
Z∞
P(ξ > x) dx,
f¨ ur eine positive ZV ξ.
0
aus Gleichung (4.8). Im Prinzip bedeutet das, dass man den Call auf Digital-Optionen zur¨ uckf¨ uhrt. In Abbildung 4.2 sieht man Call-Preise, die nach obiger Formel berechnet wurden. Der Call ist immer teurer, als sein innerer Wert (St − K)+ . Wie machen sich wohl ver¨ schiedene Anderungen der Parameter bemerkbar? Ein H¨andler muss sich nat¨ urlich auf eine Ver¨anderung, sei es im Aktienkurs oder etwa in einem der anderen Parameter, reagieren und seine Hedgestrategie anpassen. Wie sieht diese Strategie aus? Aus dem Repr¨asentations-Theorem erhalten wir leider nur die Existenz. Hier ist also noch etwas Arbeit gefragt. Zur Berechnung der Hedgestrategie st¨ utzen wir uns auf Gleichung (4.7), Vt (φ) = V0 +
Zt
Ht dS˜t .
0
Es wird sich als n¨ utzlich erweisen, den Call in Abh¨angigkeit zum Aktienkurs zu schreiben, also als C(t, St ). Wir wissen bereits, dass diese Handelsstrategie replizierend ist, zu jeder ˜ St ). Wir m¨ Zeit gilt also Vt (φ) = C(t, ussen den Call-Preis in Beziehung zu S˜t bringen und setzen e−rt C(t, St ) = F (t, S˜t ) mit F (t, x) = e−rt C(t, ert x).
4.5 Pricing im Black-Sholes Modell
51
Mit der Itˆo-Formel folgt, dass 2 ˜ St ) = ∂ F (t, S˜t ) dt + ∂ F (t, S˜t ) dS˜t + 1 ∂ F (t, S˜t )σ 2 S˜2 dt. dVt = dC(t, t ∂t ∂x 2 ∂x2
Hierbei ist Vt unter Q ein Martingal. Ebenso S˜t . Damit m¨ ussen sich alle Terme mit dt in obiger Gleichung zu 0 addieren, also dVt = Nun ist1
∂ F (t, S˜t ) dS˜t . ∂x
∂ ∂ F (t, x) = e−rt ert C(t, ert x) ∂x ∂S
was gleichbedeutend ist mit ∂ ∂ F (t, S˜t ) = C(t, St ). ∂x ∂S Diese partielle Ableitung des Call-Preises wird Delta genannt, ∆t :=
∂ C(t, St ) = Φ(d1 ). ∂S
(4.10)
In der gew¨ahlten selbstfinanzierenden Handelsstrategie ist demnach der Aktienanteil Ht gleich ∆t ; zu jedem Zeitpunkt h¨alt die H¨andlerin ∆t Aktien. Der verbleibende Betrag ist nat¨ urlich in das Bankkonto investiert, und errechnet sich zu Ht0 St0 = Vt − Ht St
= Ct − ∆t St = −Ke−r(T −t) Φ(d2 ).
Unsere Argumentation bis zur Gleichung (4.10) hing gar nicht vom entsprechenden Produkt ab. Dies kann man analog f¨ ur jede europ¨aische Option mit Payoff f (ST ) zeigen und erh¨alt Theorem 4.5.5. F¨ur ein europ¨aische Option mit Payoff f (ST ) ≥ 0 an T mit Preis Q −r(T −t) f (ST ) St = x F (t, x) = E e ist die replizierende Handelsstrategie gegeben durch
∂ F (t, x) ∂x h i Ht0 = e−rt F (t, St ) − Ht St . Ht =
Aufgabe 24. Beweisen Sie Gleichung (4.10),
∂ C(t, St ) = Φ(d1 ). ∂S Doch Vorsicht: d1 ist eine Funktion von St ! 1
Wir k¨ urzen die partielle Ableitung nach St durch ∂/∂S ab.
4.5 Pricing im Black-Sholes Modell
52
Preis d.Calls 40
30
20 T-t=1 unt. Schr.
10
T=t 70
80
90
100
110
120
130
Aktienkurs
Abbildung 4.3: Preise eines Calls im Black-Scholes Modell. Die gestrichelte Linie ist gerade S − Ke−r(T −t) .
Aufgabe 25. Stellen Sie ∆ in Abh¨angigkeit von St und σ dar (Plot). Wie muss eine H¨andlerin reagieren, wenn der Aktienkurs f¨allt/steigt bzw. die Volatilit¨at sich ¨andert. Aufgabe 26. Die K¨auferin eines Calls spekuliert auf steigende Aktienkurse, die K¨auferin eines Puts auf fallende. Wie muss eine Option gestaltet sein, damit die K¨auferin von einer steigenden Volatilit¨at profitiert ? Mit der Put-Call Parit¨at aus Aufgabe 2 Ct − Pt = St − Ke−r(T −t) erhalten wir sofort f¨ ur den Preis eines europ¨aischen Puts P (t, T ) = Ke−r(T −t) Φ(−d2 ) − St Φ(−d1 ). Da ein Optionspreis immer positiv sein muss, kann man aus der Put-Call Parit¨at eine untere Schranke f¨ ur den Call-Preis ableiten Ct ≥ St − Ke−r(T −t) .
(4.11)
Dies wirft ein interessantes Licht auf Grafik 4.2. Die Call-Preise zu unterschiedlichen Restlaufzeiten haben eine unterschiedliche Asymptote. In Grafik 4.3 ist diese mit eingezeichnet. Eine obere Schranke zu finden, ist nicht gerade schwer: Ct ≤ St . Allerdings hat diese nicht die gleiche G¨ ute. F¨ ur den Put erhalten wir Pt ≥ 0 und Pt ≤ Ke−r(T −t) . ¨ Aufgabe 27. Bestimmen Sie die Ubergangsdichte von St nach ST , d.h. die Funktion φ(St , ST ) mit der sich der Call-Preis schreiben l¨asst als Z∞ + C(t, T ) = x − K φ(St , x) dx 0
4.5 Pricing im Black-Sholes Modell
53
Delta 1
0.8
0.6
ITM
0.4
ATM OTM 0.2
0.5
1
1.5
T-t 2
Abbildung 4.4: Das Delta in Abh¨angigkeit von der Restlaufzeit f¨ ur out-of-the-money (OTM), at-the-money (ATM) und in-the-money (ITM) Optionen (S0 = 100, σ = 0.2, r = 0.1).
In der Einf¨ uhrung hatten wir Optionen bereits unterteilt in in-the-money, at-the-money und out-of-the-money. Betrachten wir einen out-of-the-money Call. Dieser ist zum einen ¨ g¨ unstiger, zum anderen reagiert er st¨arker auf Anderungen im underlying. Nat¨ urlich h¨angt das noch von der Restlaufzeit ab. Ist der Aus¨ ubungszeitpunkt noch in weiter Ferne, so sind die Bewegungen in der Option nicht so stark wie ganz kurz vor dem Aus¨ ubungszeitpunkt. Deutlich wird das in Grafik 4.4. F¨ ur eine kurze Restlaufzeit ist das Delta stark unterschiedlich, w¨ahrend f¨ ur eine lange Restlaufzeit das Delta relativ unabh¨angig vom Verh¨altnis strike zu Aktienkurs ist. Man kann noch weitere Eigenschaften des Deltas ablesen. F¨ ur große Restlaufzeiten geht Delta gegen 1. Dies liegt am positiven, mittleren Trend der Aktie (unter Q ist der Drift gerade r). Damit steigt die Wahrscheinlichkeit, dass die Aktie ins Geld kommt, je l¨anger die Restlaufzeit der Option ist. Bemerkenswert ist auch das Verhalten des Deltas f¨ ur τ gegen 0. Je nachdem, ob die Option im / am / aus dem Geld ist, konvergiert das Delta gegen 1, 0.5, 0. Der ¨okonomische Hintergrund liegt auf der Hand. Um die Abh¨angigkeit vom underlying zu quantifizieren, f¨ uhrt man eine neue Kenngr¨oße, den Hebel, ein: ∂C S . ∂S C Eine Aktie hat nat¨ urlich den Hebel 1, aber ein Option hat einen gr¨oßeren Hebel, siehe Bild 4.5. M¨ochte man ein m¨oglichst risikoreiches Engagement eingehen, so nutzt man demnach Optionen, die weit aus dem Geld sind. Der Hebel, im Unterschied zur partiellen ¨ Ableitung, das Verh¨altnis zwischen prozentualer Anderung des Calls und prozentualer ¨ Anderung des underlyings an.
4.6 Delta-Gamma Hedging
54
1 T-t 0.8 0.6 0.4 0.2
30
Hebel
20
10
0 60 80 100 120 Aktienkurs
Abbildung 4.5: Der Hebel f¨ ur einen Black-Scholes Call. Die Abflachung am linken Rand entsteht durch numerische Rundungsfehler (S0 = 100, σ = 0.2, r = 0.1).
4.6
Delta-Gamma Hedging
Halten wir uns die bisherige Vorgehensweise noch einmal vor Augen: Mit Hilfe des ItˆoKalk¨ uls haben wir eine replizierende Handelsstrategie gefunden, die uns zu einem eindeutigen Optionspreis gef¨ uhrt hat. Bei der Umsetzung in die Praxis erweisen sich einige Annahmen als nicht durchf¨ uhrbar. Eine davon ist die Maxime, in stetiger Zeit zu handeln. In der Tat, damit der Call-Preis exakt repliziert werden kann muss zu jeder Zeit der hedge angepasst werden. Geschieht das nicht, muss die Vorgehensweise etwas revidiert werden. Wie sind wir zur Itˆo-Formel gelangt ? Die Taylor-Formel war der Dreh- und Angelpunkt. Wendet man die Taylor Formel in diskreter Zeit an, so erh¨alt man C(t, St+h ) = C(t, St ) +
∂ 1 ∂2 C(t, St ) · (St+h − St )2 + . . . C(t, St ) · (St+h − St ) + ∂x 2 ∂x2
Schließlich ist C eine stetige Funktion von S. Der Itˆo-Kalk¨ ul sagt nun, dass f¨ ur h → 0 der Faktor am zweiten Summanden gegen dSt konvergiert, und der Faktor am dritten Summanden gegen d < S >t = σ 2 St2 dt. In der Realit¨at ist aber h → 0 nicht realisierbar. Man kann aber eine bessere Approximation auch dadurch erreichen, dass man in der Taylorentwicklung h¨ohere Terme mit einbezieht. Das ist genau der Ansatz des DeltaGamma hedgings. Das Gamma f¨ ur einen Call ist definiert durch d2 1
∂ 1 e− 2 √ √ C(t, St ) = φ(d1 ) . = Γt = Γ(T − t, St , r, σ, K) := ∂x St σ T − t St σ T − t
4.7 Die Greeks
55
Im Gegensatz zum Black-Scholes hedging, in dem nur das Delta z¨ahlt, w¨ahlt man im Delta-Gamma hedging das Portfolio so, dass Delta und Gamma gleich Null sind. Zur Erinnerung: In dem hedge-Portfolio befinden sich zur Zeit t ein Call (short) und ∆t ≡ ∆ Aktien (long). Da das Portfolio ja den Call replizieren soll, kann man nur an ∆ ”drehen”, und das ist ja bereits festgelegt. Man muss ein weiteres Produkt hinzuf¨ ugen, um auch das Gamma zu kontrollieren. Hierzu betrachtet man eine weitere Option (etwa einen Call mit anderem strike oder maturity), welche am Markt gehandelt wird mit Delta ∆O und Gamma ΓO und kauft zus¨atzlich b Teile. Dadurch ¨andert sich nat¨ urlich das Delta des Portfolios. Um das Portfolio dennoch Delta-Neutral zu halten, muss man noch Aktien kaufen oder verkaufen. Das hedge-Portfolio hat bekanntlich ein Delta von Null und ein Gamma von Γt ≡ Γ. F¨ ur das Portfolio mit a Aktien, einem Call short und b der zus¨atzlichen Option erhalten wir ∆P = a − ∆ + b∆O ΓP = 0 − Γ + bΓO . Damit dieses Portfolio Delta- und Gamma-neutral ist, w¨ahlt man b=
Γ ΓO
a=∆−
Γ ∆O . ΓO
Nat¨ urlich gilt diese Argumentation f¨ ur ein allgemeineres Portfolio. Ist es Delta-Neutral und hat ein Gamma Γ, so kauft man b Optionen verkauft Γ∆O /ΓO Aktien, so ist es auch Gamma-neutral. Aufgabe 28. F¨ uhren Sie eine Simulation im Black-Scholes Modell durch. Simulieren Sie den Verlauf der Aktie mit S0 = 100, r = 0.02, µ = 0.10 und σ = 0.3 u ¨ber 200 Handelstage. Betrachten Sie dazu einen Call mit maturity T = 1[y] und strike von 80 (100, 120). Simulieren Sie einen Delta-hedge, der jede Woche (also alle f¨ unf Tage) angepasst wird, einen Delta-hedge, der t¨aglich angepasst wird und die entsprechenden Delta-Gamma hedges. Berechnen Sie die f¨ ur den hedge anfallenden Kosten.
4.7
Die Greeks
Wie wir bereits gesehen haben, spielen die partiellen Ableitungen des Optionspreises eine tragende Rolle. Man nennt sie einfach die Greeks. Dabei gibt es Ableitung bezgl. jedes Parameters, und auch die zweite Ableitung nach dem underlying. Mit τ = T − t ist2 ∂ C(t, St ) = Φ(d1 ) ∂St ∂2 φ(d1 ) √ Γt = C(t, St ) = 2 ∂St S0 σ τ ∂ C(t, St ) = −e−rτ Φ(d2 ) κt = ∂K √ ∂ C(t, St ) = S0 τ φ(d1 ) Vt = ∂σ
∆t =
2
(Delta, Gamma, Kappa, Vega, Rho, Theta). Hierbei ist φ die Dichte einer Standardnormalverteilung.
4.8 Sch¨atzen der Volatilit¨at
56
1 T-t
0.8
0.6 0.4 0.2 1 0.75 Delta
0.5 0.25 0 60
80 100 120 Aktienkurs
Abbildung 4.6: Das Delta f¨ ur einen Call im Black-Scholes Modell (S0 = 100, σ = 0.2, r = 0.1).
und weiterhin noch Rho und Theta: ∂ C(t, St ) = τ Ke−rτ Φ(d2 ) ∂r ∂ S0 σ Θt = C(t, St ) = √ φ(d1 ) + Kre−rτ Φ(d2 ). ∂τ 2 τ ρt =
In Grafik 4.6 sieht man das Delta eines Calls f¨ ur unterschiedliche strikes und Restlaufzeiten. Zur Erinnerung: Das Delta gibt gerade die Anzahl der Aktien f¨ ur den hedge des ¨ Calls an. F¨ ur l¨angere Restlaufzeiten ist Delta nicht so sensitiv gegen¨ uber Anderungen im underlying wie f¨ ur kurze Restlaufzeiten. In einem solchen Fall entscheidet sich relativ kurzfristig, ob die Option mit einem positiven Payoff endet, oder verf¨allt. Dies ist f¨ ur den hedge geradezu kritisch. Hier muss die H¨andlerin am meisten aufpassen, und unter Umst¨anden in einem kurzen Zeitraum eine große Zahl von Aktien nachkaufen. Aus diesen Gr¨ unden nennt man Tage, an denen viele Optionen verfallen auch ”Hexensabbat”. Nat¨ urlich kann man dies noch einmal sehr gut an der Darstellung des Gammas nachempfinden. Hierzu sei auf Grafik 4.7 verwiesen.
4.8
Sch¨ atzen der Volatilit¨ at
F¨ ur die Anwendung der Black-Scholes Formel ist es notwendig, σ zu bestimmen. Alle anderen Parameter sind bekannt. Die Tatsache, dass die Volatilit¨at in M¨arkten zuf¨allig fluktuiert macht diese Aufgabe nicht einfacher. Wir stellen zwei g¨angige Vorgehensweisen vor.
4.8 Sch¨atzen der Volatilit¨at
57 1
T-t
0.8
0.6 0.4 0.2 0.06
0.04 Gamma
0.02
0 60 80 100 120 Aktienkurs
Abbildung 4.7: Das Gamma f¨ ur einen Call im Black-Scholes Modell (S0 = 100, σ = 0.2, r = 0.1).
1. Sch¨ atzen mit Hilfe von historischen Daten. In diesem Fall gehen wir davon aus, dass die beobachteten Daten Shi , i = 0, . . . , n einem Black-Scholes Modell gen¨ ugen. h ist der Abstand der Daten, also z.B. 1 Tag, 1 Woche oder 1 Monat. Will man den Parameter σ sch¨atzen, so bietet sich eine geeignete Transformation an. So sind Xi := ln(Shi) − ln(Sh(i−1) ) 2 2 unabh¨angige, identisch verteilte Daten. Dar¨ uberhinaus ist Xi ∼ N (µ−σ /2)h, σ h . Die Varianz der Xi sch¨atzt man mit der Stichprobenvarianz n
s2n
2 1 X ¯ , := Xi − X n − 1 i=1
¯ das arithmetische Mittel der Xi bezeichnet. Die Volatilit¨at erh¨alt man wobei X demnach durch v r u n 2 1 2 u 1 1 X ¯ . σn = sn = t Xi − X h h n − 1 i=1
2. Implizite Voltilit¨ at. Dieses Konzept nutzt im Markt vorhandene Optionspreise und berechnet daraus sozusagen die Einsch¨atzung des Marktes u unftige Vo¨ber zuk¨ latilit¨at. Dieses Konzept hat auch den Vorteil, dass nicht zwingend voraussgesetzt wird, dass das Black-Scholes Modell zutrifft. Allerdings haftet ihm eine ”Der Markt wirds schon richten”-Mentalit¨at an. Angenommen ein Call mit strike K und Restlaufzeit τ wird zum Preis C ∗ im Markt gehandelt. Wir schreiben C BS (τ, σ, K, r, St ) f¨ ur die Black-Scholes Formel mit den
4.9 Nachschlag: Arbitrage Theorie
58
entsprechenden Parametern. Die Implizite Volatilit¨at σ ∗ ist die L¨osung der Gleichung C BS (τ, σ ∗ , K, r, St ) = C ∗ . Da die Black-Scholes Formel monoton wachsend in σ ist, existiert eine eindeutige L¨osung dieser Gleichung. Allerdings muss man f¨ ur die Berechnung numerische Verfahren anwenden.
4.9
Nachschlag: Arbitrage Theorie
Bisher haben wir uns haupts¨achlich auf die Bewertung einer Option konzentriert. Ein zentraler Punkt war dabei as ¨aquivalente Martingalmaß, Q. In diesem Abschnitt werden wir einen allgemeinen Zusammenhang zwischen Q und Arbitrage aufdecken. Definition 4.9.1. Eine Arbitrage-Strategie ist eine nach unten beschr¨ankte Handelsstrategie φ, mit V0 (φ) ≤ 0
VT (φ) ≥ 0, wobei P(VT (φ) > 0) > 0
und
wobei beiden Aussagen P−f.s. gelten. Eine Arbitragem¨oglichkeit ist also die Gelegenheit aus nichts einen positiven Gewinn zu schlagen. Wir das folgende Fundamentaltheorem der Optionspreisbewertung: Satz 4.9.2. Existiert ein ¨aquivalentes Martingalmaß, so ist der Markt frei von Arbitrage. Beweis. Zun¨achst ist V˜t unter Q ein lokales Martingal. Ein solcher Prozess ist auch ein Supermartingal (siehe Gleichung (3.11)). Ist φ eine Arbitrage-Strategie, so ist V˜T (φ) ≥ 0. Aus der Supermartingal-Eigenschaft folgt aber EQ (V˜T (φ)) ≤ EQ (V˜0 (φ)) = EQ (V0 (φ)) ≤ 0. Damit ist V˜T (φ) = 0, also auch VT (φ) = 0 (Q-f.s. und damit auch P-f.s.), ein Widerspruch zu P(VT (φ) > 0) > 0. L¨aßt man ein allgemeineres Modell f¨ ur einen Aktienmarkt zu, wird man das Fundamentaltheorem nicht mehr so einfach darstellen lassen. For allem wird die Definition einer Arbitrage-Strategie entsprechend angepasst werden m¨ ussen.
4.10
Homogenit¨ at der Black-Scholes Formel
Ein bisschen wunderlich ist es schon, dass in der Black-Scholes Formel ∆ = Φ(d1 ) gilt. Der Hintergrund daf¨ ur ist, dass diese Formel im folgenden Sinne homogen ist3 C(lS, lK) = lC(S, K). 3
Man bezeichnet eine Funktion f (x, y) als homogen von der Ordnung n, falls ln f (x, y) = f (lx, ly).
4.11 Chooser Optionen
59
Dies folgt u ¨brigens direkt aus der Darstellung + ST Q −r(T −t) C(St , K) = E e St − K Ft , St denn im Black-Scholes Modell ist ST /St unabh¨angig von St . Nun kann man Euler’s Theorem anwenden: Theorem 4.10.1. F¨ur eine homogene Funktion f (x, y) gilt f (x, y) = x
∂f ∂f +y . ∂x ∂y
Beweis. Der Beweis ist denkbar einfach. Wir setzen x˜ = lx und y˜ = ly und differenzieren lf (x, y) = f (lx, ly) nach l: f (x, y) =
4.11
∂f ∂f ∂f ∂ x˜ ∂f ∂ y˜ + =x +y . ∂ x˜ ∂l ∂ y˜ ∂l ∂x ∂y
Chooser Optionen
Nat¨ urlich gibt es neben Calls und Puts noch eine Reihe an weiteren, sogenannten exotischen Option. Ein kleines Beispiel sei an dieser Stelle gestattet. Eine Chooser Option ist eine Option mit einem Aus¨ ubungszeitpunkt T2 und Aus¨ ubungspreis K. Jedoch ist zu Beginn noch nicht klar, ob es ein Call oder ein Put ist. Zur Zeit T1 < T2 muss sich die K¨auferin aber entscheiden, ob sie einen Call m¨ochte oder einen Put. Nat¨ urlich w¨ahlt sie gerade das Produkt, was am meisten Wert ist, also kann man die Chooser Option als ein Derivat mit Payoff (an T1 ) VCh (T1 ) = max CT1 (ST1 , T2 ), PT2 (ST1 , T2 )
betrachten, wobei Call und Put jeweils Maturity T2 haben. CT1 (S, T ) ist hierbei der Preis ur den Put. Mit der Put-Call Parit¨at eines Calls an T1 mit Maturity T > T1 , entsprechend f¨ ist der Wert an T1 gerade VCh (T1 ) = max CT1 (ST1 , T2 ), CT1 (ST1 , T2 ) − ST1 + Ke−r(T2 −T1 ) = CT1 (ST1 , T2 ) + max Ke−r(T2 −T1 ) − ST1 , 0 .
Demnach hat die Chooser Option den gleichen Wert wie ein Portfolio aus einem Call mit Maturity T2 und Strike K und einem Put mit Maturity T1 und Strike Ke−r(T2 −T1 ) . Beide Produkte k¨onnen wir bereits bewerten und erhalten demnach f¨ ur den Preis der Chooser-Option VCh = St Φ(d1 ) − Ke−r(T2 −t) Φ(d2 ) + Ke−r(T2 −T1 ) e−r(T1 −t) Φ(−d˜2 ) − St Φ(−d˜1 ) = St Φ(d1 ) − Φ(−d˜1 ) − Ke−r(T2 −t) Φ(d2 ) − Φ(−d˜2 )
mit den entsprechenden d1 , d2 , d˜1 , d˜2. Aufgabe 29. Vergleichen Sie eine Chooser-Option mit T1 = 0.5, T2 = 1 mit einem Call / Put mit Laufzeit T = 1. Fertigen Sie entsprechende Plots an. Wie wirken sich die einzelnen Parameter auf den Preis aus? Geben Sie, wenn m¨oglich, eine ¨okonomische Erkl¨arung.
Kapitel 5 Optionspreisbewertung mit partiellen Differentialgleichungen In diesem Abschnitt werden wir einen neuen Zugang zur Black-Scholes Formel kennenlernen. Der bisher vorgestellte Zugang wird auch als “Martingale Approach” bezeichnet und wurde erst in den 80ern entwickelt. Dahingegen leiten Black und Scholes in ihrem Zugang eine partielle Differentialgleichung f¨ ur den Optionspreis ab. Wie wir bereits gesehen haben, bedeutet Bewertung von Optionen die Berechnung des Erwartungswertes Vt = EQ e−r(T −t) h(ST ) Ft . Im Black-Scholes Modell folgt aus den unabh¨angigen Zuw¨achsen der Brownschen Bewegung, dass Q r(T −t) Vt = F (t, St ) = E e h(ST ) St .
Betrachten wir etwas allgemeiner folgendes Modell f¨ ur den Aktienkurs: dSt = µ(St )dt + σ(St )dBt , so erh¨alt man mit der Itˆo-Formel ∂F 1 ∂2F 2 ∂F ∂F + µ+ σdBt , dVt = σ dt + 2 ∂t ∂S 2 ∂S ∂S Bekanntlich ist (unter
∂F σ ∂S
(5.1)
F (T, ST ) = h(ST ).
(5.2)
∈ H2 ) V ein Martingal, falls ∂F ∂F 1 ∂2F 2 + µ+ σ = 0. ∂t ∂S 2 ∂x2
(5.3)
Dies ist eine a¨ußerst interessante Beobachtung. Zum einen ist (5.3) eine partielle Differentialgleichung, zum anderen spielt ein Differentialoperator eine tragende Rolle beim Generieren von Martingalen der Form (F (St ))t≥0 . Ist F nicht von t abh¨angig, so f¨allt außerdem die partielle Ableitung nach der Zeit weg. Im Black-Scholes Modell hatten wir zwei Ausgangspunkte, die uns zum Optionspreis f¨ uhrten. Zum einen hatten wir die Forderung, dass diskontierte Preise Martingale sein 60
5.2 Die W¨armeleitungsgleichung
61
m¨ ussen (unter Q). Zum anderen hatten wir ein risikoloses Portfolio abgeleitet. Das risikolose Portfolio Π besteht aus ∆t Aktien und (−1) Call. Wir setzen auch hier ∆t = ∂F/∂S. Mit Gleichung (5.2) folgt f¨ ur die Dynamik des Portfolios dΠt = ∆t dSt − dCt ∂F ∂F ∂F 1 ∂2F ∂F 2 (µ(St )dt + σ(St )dBt ) − + µ(St ) + σ(St )dBt = σ(S ) dt − t ∂S ∂t ∂S 2 ∂S 2 ∂S 1 ∂2F ∂F 2 + = σ(St ) dt ∂t 2 ∂S 2 Dieses Portfolio ist also risikolos. Aus Arbitragegr¨ unden muss es dann mit dem Zinssatz r verzinst werden, und es folgt −
1 ∂2F ∂F − σ(St )2 = Πt r dt. 2 ∂t 2 ∂S
Da Πt = ∆t St − Ct , erhalten wir 1 ∂F ∂F ∂2F + rSt + σ(St )2 2 − rF = 0. ∂t ∂S 2 ∂S Zentral bei dieser Argumentation ist nat¨ urlich, dass sich der Optionspreis in der Form F (t, St ) darstellen l¨asst, mit F ∈ C 1,2 (R). Wir fassen zusammen Theorem 5.1.1. Der Aktienkurs folge dem Modell (5.1). L¨aßt sich der Preis einer europ¨aischen Option mit payoff h(ST ) an T durch eine Funktion u(t, x) mit u ∈ C 1,2 (R) und beschr¨ankten Ableitungen darstellen (wobei x der aktuelle Aktienkurs ist), so gilt ∂u ∂u 1 ∂2u + rx + σ(x)2 2 − ru = 0, ∂t ∂x 2 ∂x
u(T, x) = h(x).
(5.4)
F¨ ur das Black-Scholes Modell ist nat¨ urlich σ(x) = σx.
5.2
Die W¨ armeleitungsgleichung
Wir werden die Black-Scholes Gleichung (5.4) auf eine bekannte partielle Differentialgleichung transformieren, die W¨ armeleitungsgleichung ut = κuxx ,
u(0, x) = f (x).
(5.5)
Hierbei ist u(t, x) eine Funktion in zwei Variablen und ut , ux bezeichnen jeweils die partiellen Ableitungen, und uxx die zweite partielle Ableitung nach x. Wie findet man eine L¨osung dieser partiellen Differentialgleichung ? Wir werden einen Ansatz vorstellen, zwei weitere findet man in Steele (2001).
5.2 Die W¨armeleitungsgleichung
5.2.1
62
Fourier-Transformation von partiellen Dgls
Die Fourier-Transformierte einer Zufallsvariablen hat uns bereits vorz¨ ugliche Dienste geleistet. In diesem Rahmen wird sie sich auf eine andere Art und Weise als außerordentlich n¨ utzlich erweisen: Sie transformiert die partielle Differentialgleichung (5.5) in eine gew¨ohnliche Differentialgleichung! Diese werden wir l¨osen k¨onnen, und anschließend Fouriertransformation wieder r¨ uckg¨angig machen. F¨ ur eine Funktion f ∈ L1 (R) definieren wir die Fouriertransformierte als Z 1 ˆ e−iλx f (x) dx. f (λ) := √ 2π
(5.6)
R
Bisher haben wir also immer Fouriertransformierte einer Dichte betrachtet. An dieser Stelle wird die Fouriertransformierte also etwas anders eingesetzt. Die Fouriertransformierte ist ein stetiger, und sogar linearer Operator. F¨ ur unsere Funktion u(t, x) ist uˆ(t, λ) die Transformierte bezgl. x. Wir wenden die Fouriertransformation auf beide Seiten von (5.5) an. Die linke Seite wird zu Z 1 √ e−iλx ut (t, x) dx = uˆt (t, λ). 2π F¨ ur die rechte Seite nutzen wir partielle Integration und erhalten Z 1 √ e−iλx uxx (t, x) dx = −λ2 uˆ(t, x). 2π Eine interessante Beobachtung ergibt sich an dieser Stelle. Die Fouriertransformierte f¨ uhrt Ableitungen in Multiplikationen u ¨ber. Diesen wesentlichen Punkt werden wir uns zunutze machen. Wir m¨ ussen allerdings voraussetzen, dass u schneller gegen Null geht als eiλx gegen unendlich. Man nennt solche Funktionen schnell verschwindende Funktionen, siehe z.B. Werner (2000). Ist dies erf¨ ullt, so erhalten wir uˆt (t, λ) = −κλ2 uˆ(t, λ),
ˆ uˆ(0, λ) = f(λ).
F¨ ur festgehaltenes λ k¨onnen wir diese einfache Differentialgleichung l¨osen und erhalten 2
uˆ(t, λ) = c(λ)e−κλ t , mit einer Konstanten c, die nat¨ urlich von λ abh¨angt. Diese bestimmt sich aus der Randˆ bedingung zu c(λ) = f(λ) und wir erhalten also als L¨osung 2 uˆ(t, λ) = fˆ(λ)e−κλ t .
(5.7)
Nun m¨ ussen wir die Fouriertransformierte invertieren. Dazu nutzen wir folgenden Satz Satz 5.2.1. Ist f eine schnell fallende Funktion, so ist ˆ fˆ(x) = f (−x).
5.2 Die W¨armeleitungsgleichung
63
Man erh¨alt also die inverse Fouriertransformierte durch Z 1 √ eiλx fˆ(λ) dλ. f (x) = 2π An dieser Stelle sieht man auch, dass es f¨ ur unsere Zwecke reine Konvention bleibt, ob wir nun eine Fouriertransformierte der Form e−... oder e... betrachten. Wir haben uns dabei jeweils an die u ¨ blichen Gewohnheiten gehalten, weswegen in (5.6) ein Minus im Exponenten auftaucht. F¨ ur einen Beweis des Satzes sei auf Werner (2000) verwiesen. Der ist nicht allzu lang, aber eine einfache Anwendung partieller Integration reicht nicht. Mit diesem R¨ ustzeug gewappnet, invertieren wir nun (5.7) und erhalten Z 1 2 eiλx fˆ(λ)e−κλ t dλ u(t, x) = √ 2π Z Z 1 2 = f (y) e−iλy eiλx−κλ t dλ dy. 2π Wir berechnen das innere Integral Z
2 i(x−y) Z i h λ2 − 2λ i(x−y) h + 2κt 2κt (x − y)2 i 2 − exp iλ(x − y) − κλ t dλ = exp − dλ 1/κt 4κt 2 r i(x−y) Z i h λ − 2κt 2π − (x−y)2 1 4κt √ e dλ, = exp − 2κt 2 2π
Der Ausdruck im Integral ist die Dichte einer Normalverteilung. Damit erhalten wir Z h (x − y)2 i 1 f (y) exp − u(t, x) = √ dy. 4κt 2 πκt Bisher waren wir nicht so ganz genau mit unseren Voraussetzungen, nun haben wir aber einen konkreten L¨osungskandidaten und u ufen, ob wir die richtige und einzige ¨berpr¨ L¨osung gefunden haben. Offensichtlich ist u eine Transformation von f . Wir definieren den sogenannten W¨armeleitungskern x2 1 e− 4κt . k(κ, t, x) := √ 2 πκt
Das ist nat¨ urlich einfach die Dichte einer N (0, 2κt)-Verteilung. Damit kann man die L¨osung elegant schreiben als Z u(t, x) = (Kt f )(x) = f (y) k(κ, t, x − y) dy. R
Wir erhalten folgendes Theorem Theorem 5.2.2. F¨ur eine stetige Funktion f : R 7→ R, f¨ur die |f (x)| ≤ A exp(B|x|ρ )
5.2 Die W¨armeleitungsgleichung
64
mit A, B ∈ R und ρ < 2 gilt, ist u, definiert durch u(t, x) = (Kt f )(x) eine Funktion aus C 1,2 (0, ∞ × R) und ut = κ uxx ,
f¨ur alle t > 0 und x ∈ R.
Außerdem kann man u stetig auf [0, ∞) × R fortsetzen, so dass u(0, x) = f (x),
f¨ur alle x ∈ R.
Beweis. In diesem Beweis werden wir noch etwas u ¨ber die Fouriertransformierte lernen. Bekanntlicherweise ist die Fouriertransformierte der Summe zweier unabh¨angiger Variablen das Produkt der Fouriertransformierten. Die Verteilung der Summe zweier unabh¨angiger Zufallsvariablen nennt man auch Faltung. Die Fouriertransformierte f¨ uhrt also die Faltung in ein Produkt u utzliche Beobachtung heraus¨ ber. Dies wird sich als eine n¨ stellen. Sie ist auch leicht zu zeigen. Wir setzen f¨ ur die Faltung Z Z (u ∗ v)(x) := u(x − y) v(y) dy = u(x) v(x − y) dy. Dann ist
Z Z 1 −iλx u[ ∗ v(λ) = √ e u(x − y) v(y) dy dx 2π Z Z h i 1 =√ e−iλ(x−y) u(x − y) dx e−iλy v(y) dy 2π √ = 2π uˆ(λ) · vˆ(λ).
(5.8)
Wertet man das innere Integral in (5.8) aus, so h¨angt das Ergebnis nicht von y ab, und so erh¨alt man die letzte Gleichung. Unsere L¨osung (Kt f ) sieht sehr nach einer Faltung aus. Die Vermutung liegt nahe, dass k(κ, t, x) selbst die W¨armeleitungsgleichung l¨ost. Wir betrachten die Ableitungen von ln k und erhalten kt (κ, t, x) 1 x2 =− + k(κ, t, x) 2t 4κt2
und
kx (κ, t, x) x =− . k(κ, t, x) 2κt
Wenn wir kx = −x/(2κt)k partiell nach x ableiten, erhalten wir h x2 i 1 + 2 2 k(κ, t, x), kxx (κ, t, x) = − 2κt 4κ t und, in der Tat, es folgt kt = κkxx . Damit ist auch die Faltung eine L¨osung der W¨armeleitungsgleichung, solange wir Differential und Integral vertauschen k¨onnen. Dazu muss man eine obere Schranke finden und den Satz von Lebesgue anwenden. F¨ ur die Fortsetzung von u auf [0, ∞] × R beachte man, dass √ u(t, x) = E f (x + 2κtξ) ,
mit ξ ∼ N (0, 1). Jetzt m¨ ussen wir t → 0 betrachten. Hier findet man die integrierbare Majorante leicht: √ |f (x + 2κtξ)| ≤ A exp B(|x| + |ξ|)ρ , und die rechte Seite hat endlichen Erwartungswert. Damit ist √ limE f (x + 2κtξ) = f (x) = u(0, x). t→0
Die Eindeutigkeit der L¨osung werden wir an dieser Stelle nicht behandeln. Zur Eindeutigkeit der L¨osung der Black-Scholes Gleichung werden wir aber sp¨ater ein Resultat zitieren.
5.3 Die L¨osung der BS-Differentialgleichung
5.3
65
Die L¨ osung der BS-Differentialgleichung
In diesem Abschnitt werden wir die Differentialgleichungen (5.4) l¨osen, und zwar nur f¨ ur das Black-Scholes Modell. Wir betrachten also σ(x) = σx. Wie nicht anders zu erwarten, werden uns geeignete Transformationen n¨ utzliche Dienste leisten. Wir haben es mit einer sogenannten R¨ uckw¨artsgleichung zu tun. Dies liegt daran, dass die Randbedingung n(T, x) = (x − K)+ an t = T erf¨ ullt sein muss und nicht etwa an t = 0. Eine einfache Zeittransformation τ := T − t bietet sich geradezu an. Doch vorher werfen wir noch einen genaueren Blick auf die Struktur der Gleichung. ut + a u + bx ux + cx2 uxx = 0. 2
Mit jeder Ableitung nach x kommt ein Faktor x hinzu, wie z.B. bei ex . Hier bietet sich die Transformation y = ln x an. Wir f¨ uhren gleichzeitig auch τ = T − t durch, und betrachten v(τ, y) = u(t, x). Die partiellen Ableitungen berechnen sich zu ∂v ∂τ · = vτ · (−1) ∂τ ∂t ∂v ∂y 1 ux = · = vy · ∂y ∂x x 2 2 1 ∂ 2 v ∂y ∂v ∂ 2 y 1 uxx = 2 + = vyy − vy 2 . 2 ∂y ∂x ∂y ∂x x x ut =
Damit erhalten wir aus Gleichung (5.4) −vτ − rv + (r −
σ2 1 )vy + σ 2 vyy = 0, 2 2
v(0, y) = h(ey ).
(5.9)
Diese Gleichung hat schon einmal konstante Koeffizienten. Auch das Auftauchen des Aus2 ¨ druckes r − σ2 deckt sich mit unseren bisherigen Erfahrungen. Ahnlich wie zur L¨osung der W¨armeleitungsgleichung selbst k¨onnen wir diese Gleichung mittels Fouriertransformation auf eine gew¨ohnliche Gleichung zur¨ uckf¨ uhren und dann mittels inverser Fouriertransformierter l¨osen. Wir k¨onnen sie aber durch eine geschickte Transformation direkt auf die W¨armeleitungsgleichung zur¨ uckf¨ uhren.
5.3.1
Die Transformation auf die W¨ armeleitungsgleichung
Betrachten wir eine Funktion w(τ, y), die wτ = κwyy erf¨ ullt. Wir nehmen an, dass w aus der Funktion v(τ, y) durch folgende Transformation entsteht: w(τ, y) = eατ +βy v(τ, y).
5.3 Die L¨osung der BS-Differentialgleichung
66
F¨ ur die partiellen Ableitungen gilt wτ = αeατ +βy v + eατ +βy vτ , wy = βeατ +βy v + eατ +βy vy , wyy = β 2 eατ +βy v + 2βeατ +βy vy + eατ +βy vyy . Aus wτ = κwyy erhalten wir unmittelbar vτ = (β 2 κ − α)v + 2βκvy + κvyy ,
v(0, y) = e−βy w(0, y).
Vergleichen wir mit (5.9), so erhalten wir κ = σ 2 /2 σ2 2 β = r− /σ 2 2 2 r − σ2 2 α = κβ + r = + r. 2σ 2 Da w die W¨aremeleitungsgleichung l¨ost, sagen wir mit Anfangsbedingung w(0, y) = f (y), hat w die Form Z (z−y)2 1 e− 4κτ dz. w(τ, y) = f (z) √ 2 πκτ Die Anfangsbedingung v(0, y) = h(ey ) bedeutet f¨ ur w, dass βy
y
w(0, y) = e h(e ) = exp
hr −
σ2
σ2 2
i < h(ey ).
Setzen wir α, κ und β ein, so erhalten wir v(τ, y) = exp − ατ − βy w(τ, y) 2 2 2 Z h h r − σ2 i (z−y)2 r − σ2 r − σ2 i 1 − z 2 2σ 2 τ dz. √ e = exp − τ − rτ − y exp z h(e ) 2σ 2 σ2 σ2 2πσ 2 τ
5.3.2
Zuru ¨ ckfu ¨ hren auf einen Erwartungswert
¨ Uber eine quadratische Erg¨anzung berechnen wir das Integral. Dazu ist 2 σ2 σ2 2 σ2 z 2 − 2z y + (r − )τ + y + (r − )τ r− 2 2 2 (z − y) =− z− 2 2 2 σ 2σ τ 2σ τ 2 y σ τ σ 2 2 + 2 r− + 2 r− . σ 2 2σ 2 Damit erhalten wir
v(τ, y) = e−rτ
Z
h(ez ) √
1 2πσ 2 τ
h exp −
z − (y + (r − 2σ 2 τ
σ2 )τ ) 2
2
i
dz.
5.4 Ein Modell mit Transaktionskosten
67
Das Integral ist ein Erwartungswert bez¨ uglich einer normalverteilten Zufallsvariable mit 2 2 Erwartungswert x + (r − σ /2)/2/σ und Varianz σ 2 τ , es l¨aßt sich demnach schreiben als h √ i σ2 −rτ v(τ, y) = e E h exp y + (r − )τ + σ τ ξ , 2 wobei ξ eine ist. Da ln ST bedingt Ft normalverteilt ist, N (0, 1)-verteilte Zufallsvariable 2 2 genauer N ln St + (r − σ /2)τ, σ τ -verteilt, erhalten wir eine uns bereits bekannte Darstellung des Call-Preises u(t, x) = e−r(T −t) E h(ST ) St = x . Genau diesen Erwartungswert haben wir auf Seite 48/49 berechnet, und folglich erhalten wir f¨ ur v(t, x) gerade die Black-Scholes Formel. Zur Eindeutigkeit der L¨osung zitieren wir aus Steele (2001) folgende Aussage: Theorem 5.3.1. Sie f eine Funktion, die die Black-Scholes Gleichung erf¨ullt mit Randbedingung f (T, x) = 0 f¨ur x > 0 und f ∈ C 1,2 ((0, T ) × (0, ∞)) ∪ C([0, T ] × (0, ∞)). Existieren A, B ∈ R, so dass
|f (t, x)| ≤ A exp B ln (1 + |x|) , 2
(t, x) ∈ [0, T ] × [0, ∞)
so ist f ≡ 0 auf [0, T ] × [0, ∞).
Hat man also eine zweite L¨osung, die die Randbedingung erf¨ ullt, so sind diese beiden L¨osungen identisch.
5.4
Ein Modell mit Transaktionskosten
Wir behandeln ein Modell mit Transaktionskosten, die proportional zum Betrag der durchgef¨ uhrten Transaktion sind. Dieses Modell wurde in Leland (1995) eingef¨ uhrt. Dazu nehmen wir an, dass Transaktionen nur zu Zeitpunkten t0 , . . . .tn mit tk = k∆t durchgef¨ uhrt werden. Außerdem seien die Transaktionskosten in diesem Modell f¨ ur einen Kauf/Verkauf von α Aktien zu einem Preis von S c |α|S. 2 Betrachten wir eine H¨andlerin, die einen Call verkauft hat. Der Wert ihres Portfolios Π setzt sich wie folgt zusammen (siehe Seite 41) Πt = Ht St + Ht0 St0 . Was ist die Ver¨anderung des Portfolios von tk nach tk+1 . Wir schreiben kurz Πk f¨ ur Πtk (und ebenso bei S und H) und erhalten c 0 Πk+1 = Πk + Hk ∆Sk+1 + Hk0 ∆Sk+1 er∆t − |∆Hk+1 |Sk+1. 2
5.4 Ein Modell mit Transaktionskosten
68
Bezeichne V (St , t) den Wert der Option zur Zeit t. Mit der Itˆo-Formel erhalten wir in erster N¨aherung ∂V ∂V σ2 ∂2 V ∆V = ∆S + + St2 2 ∆t. ∂S ∂t 2 ∂S W¨ahlen wir Hk = ∂V /∂S, so ist das Portfolio kurzfristig risikolos (zumindest in erster N¨aherung). Wir setzen ∆Π = ∆V und erhalten ∂V
+
∂t
σ2 2 ∂2 V c 0 Stk 2 ∆t = Hk0 ∆Sk+1 − |∆Hk+1|Sk+1 . 2 ∂S 2
Betrachten wir den letzten Term und setzen Hk = ∂V /∂S ein. Wenden wir die TaylorFormel an, so ist der f¨ uhrende Term in Hk+1 − Hk gerade ∂2V (tk , Sk )σSk dBk+1 . ∂S 2
(5.10)
Wir m¨ ussen aber | · | betrachten. F¨ ur eine normalverteilte Zufallsvariable ξ ist E|ξ| = 2
Z∞ 0
∞ x2 x2 1 2 2 √ xe− 2 dx = √ − e− 2 = √ = 0 2π 2π 2π
r
2 . π
Da wir ja |∆Bk+1 | zu betrachten haben, l¨aßt sich zeigen, dass |∆Bt | ∼ E(|∆Bt |), also ∂2V r 2 √ |∆Hk+1 | ∼ σSk 2 (tk , Sk ) ∆t. ∂S π
Damit erhalten wir f¨ ur die Transaktionskosten
r 2∆t k 2 ∂ 2 V c |∆Hk+1|Sk+1 ∼ σSk 2 (tk , Sk ) . 2 2 ∂S π
0 . Dann ist Batrachten wir Hk0 ∆Sk+1
∂V 0 Hk0 ∆Sk+1 = Hk0 Sk0 (er∆t − 1) ≈ Hk0 Sk0 r∆t = Vk − r∆t. ∂S
Insgesamt ergibt sich
r σ2 2 ∂2 V ∂V c 2 ∂ 2 V 2∆t + Sk 2 ∆t = Vk − . r∆t − σSk 2 ∂t 2 ∂S ∂S 2 ∂S π
∂V
Das ist ¨aquivalent zu (setze t = tk )
∂V ∂V σ 2 St2 k +r + 1+ ∂t ∂S 2 σ
r
2 ∂ 2 V ∂ 2 V sign − V r = 0. π∆t ∂S 2 ∂S 2
(5.11)
Bei genauem Hinsehen entpuppt sich dies als Black-Scholes Gleichung mit ver¨anderter Volatilit¨at r ∂ 2 V c 2 2 2 · sign σ ˜ =σ 1+ . σ π∆t ∂S 2
5.4 Ein Modell mit Transaktionskosten
69
Es scheint nicht sehr intuitiv, dass σ ˜ < σ. Dabei weiß man, dass im Black-Scholes Modell Γ > 0 gilt. Postuliert man das gleiche Verhalten im Fall mit Transaktionskosten, so erh¨alt man auch σ ˜ > σ. Der tracking error ist der Fehler, der dadurch entsteht, dass man die Transaktionskosten außer acht l¨aßt. Wie wir gesehen haben, ist das gleichbedeutend damit, dass man mit einer falschen Volatilit¨at rechnet. Man setzt e := V (S, t, σ˜ ) − V (S, t, σ). Definiert man die Leland-Zahl Le :=
r
2 c √ , π σ ∆t
so erh¨alt man f¨ ur kleines Le die Approximation e≈
∂V ∂V c √ (˜ σ − σ) = . ∂σ ∂σ σ 2π∆t
Das Vega kennen wir bereits und erhalten d2 1
cSt e− 2 e≈ σ2π
r
T −t . ∆t
Kapitel 6 Unvollst¨ andige M¨ arkte 6.1
Einleitung
Im bisher betrachteten Black-Scholes Modell war die treibende (zuf¨allige) Kraft im Hintergrund stets die Brownsche Bewegung. Der Aktienkurs war sozusagen eine Transformation. F¨ ur das Hedging musste man sich also nur um diesen einen Risiko-Faktor k¨ ummern und man erhielt ein risikoloses Portfolio. Wendet man dieses Modell in der Praxis an, so wird man auf einige Widerspr¨ uche stoßen. Wie bereits erw¨ahnt, f¨angt das bei der konstanten Volatilit¨at an. Um ein realistischeres Modell zu erhalten, wird man die Volatilit¨at stochastisch w¨ahlen. Dazu muss man eine zweite “treibende Kraft”, etwa eine zweite Brownsche Bewegung einf¨ uhren. Klar ist, dass mit einem gehandelten Asset (Aktie) auch nur ein Risiko wegzuhedgen ist. Der Delta-Hedge wird nicht mehr risikolos sein. Dies hat wesentliche Konsequenzen. Es wird keinen eindeutigen No-Arbitrage Preis geben, sondern eine Preisspanne. Auch wird man mit dem Hedge ein gewisses Risiko eingehen m¨ ussen. Jeder Investor wird seine eigene Vorstellung davon haben, welches und vor allem wie viel Risiko er bereit ist, einzugehen. Das h¨angt nat¨ urlich auch von seinem bisherigen Engagement, also seinem Portfolio ab. Ist dies bereits sehr risikoreich, so wird er mit einem neuen Engagement vielleicht eher auf Nummer sicher gehen. Im folgenden Kapitel werden wir Methoden und Hilfsmittel kennenlernen, um mit dieser schwierigeren Situation umzugehen.
6.1.1
Das verallgemeinerte Black-Scholes Modell
Ein realistischer Markt hat nat¨ urlich mehr als eine Aktie. Betrachten wir also n unabh¨angig Brownsche Bewegungen B1 , . . . , Bn , so nennt man Bt = (B1 (t), . . . , Bn (t))0 eine Standard-Brownsche Bewegung in Rn . Das verallgemeinerte Black-Scholes Modell enth¨alt d ≤ n Aktien, modelliert durch ! n X σij (t)dBi (t) , dSi (t) = Si (t) µi (t)dt + j=1
70
6.1 Einleitung
71
mit konstantem Si (0), i = 1, . . . , d. Die Prozesse (µi (t))t≥0 und (σij (t))t≥0 , i = 1, . . . , d, j = 1, . . . , n seien stetig und adaptiert an Ft . Ft ist die nat¨ urliche Filtration von (Wt )t≥0 , nat¨ urlich leicht erweitert, damit die usual conditions erf¨ ullt sind (siehe Seite 10). Man beachte, dass f¨ ur d < n mehr Risiken im Markt vorhanden sind, als Aktien. Es wird sich dann um einen unvollst¨andigen Markt handeln. Zus¨atzlich haben wir nat¨ urlich ein Bankkonto, dS0 (t) = r(t)S0 (t)dt,
S0 (0) = 1,
wobei (r(t))t≥0 ebenfalls stetig und adaptiert bez¨ ugl. F sei. Dar¨ uber hinaus nehmen wir an, dass ZT (|r(t)) + ||µ(t)|| + ||σ(t)||2)dt < ∞ P − f.s. 0
Wann ist dieser Markt Arbitrage-frei? Theorem 6.1.1. Die Volatilit¨atsmatrix habe vollen Rang. Dann existiert im verallgemeinerten Black-Scholes Modell genau dann ein ¨aquivalentes Martingalmaß, wenn ein Prozess (Λt )t≥0 mit Werten in Rd existiert mit ZT
||λt||dt < ∞,
0
so dass Dann ist
µ(t) − r(t)1d = σ(t)λt .
dQ = exp −
ZT
λ0t dB(t) −
0
1 2
ZT 0
||λt ||2 dt .
Der Preis nutzt ein allgemeineres Girsanov-Theorem, im Prinzip also nichts Neues. Nach wie vor ist λ der market price of risk, diesmal eben Rd -wertig. Ist d = n, so kann man σ invertieren, und erh¨alt λ(t) = (σ 0 (t))
−1
(µ(t) − r(t)1d ) .
Definition 6.1.2. Ein Markt heißt vollst¨ andig, falls zu jedem bedingten Anspruch Xt , t ≥ 0 (also eine Ft -messbare, integrierbare ZV) ein replizierendes Portfolio existiert. Existiert ein eindeutiges Q, so k¨onnen wir mit dem Repr¨asentationstheorem diese Strategie bestimmen, der Markt ist also vollst¨andig. Bemerkung 6.1.3. Nicht jedes Modell mit n < d ist gleich unvollst¨andig, z.B. n = 2, d = 1, dSt = St (µ(t)dt + σ1 dB1 (t) + σ2 dB2 (t)) . 2 B2 (t) wieder eine Brownsche Bewegung, das Modell ist also ¨aquivalent zu Hier ist σ1 B1 (t)+σ σ1 +σ2 dem Modell mit n = d = 1.
6.2 Pricing in unvollst¨andigen M¨arkten
72
Ein typisches Beispiel f¨ ur ein unvollst¨andiges Modell erh¨alt man durch dSt = St (µdt + σ(t)dB1 (t)) p dσ(t) = k (θ − σ(t)) dt + σ(t)dB2 (t).
(6.1)
Dies ist ein Modell mit stochastischer Volatilit¨at, das sogenannte Heston (1993)-Modell. Vergleiche (6.1) mit dem Modell auf Seite 37. Die Wurzel sorgt daf¨ ur, dass σ(t) ≥ 0. ¨ Ubungsaufgabe: L¨ose (6.1)!
6.2
Pricing in unvollst¨ andigen M¨ arkten
In diesem Abschnitt wird eine H¨andlerin risikoreiche Positionen eingehen m¨ ussen. Wir brauchen also ein Mittel, mit dem wir beschreiben k¨onnen, welches Risiko sie pr¨aferiert. Definition 6.2.1. Eine Nutzen-Funktion ist eine Funktion U : (0, ∞) 7→ R, die stetig differenzierbar ist, streng monoton wachsend und f¨ ur die gilt lim U 0 (x) = 0 und lim U 0 (x) = ∞.
x→∞
x→0
Beispiel 6.2.2. Wir sprechen von logarithmischem Nutzen, wenn U(x) = log x. Andere Beispiele sind U(x) = 1 − e−αx , xα , U(x) = α xα − 1 U(x) = , α
α>0 α ∈ (−∞, 1), α 6= 0 α < 1,
wobei die letzte Nutzen-Funktion f¨ ur α → 0 gegen log x konvergiert. Die Nutzen-Funktion beschreibt, wie sehr ein Geldbetrag x gef¨allt. Ist man bereits sehr reich, so k¨ ummert einen 1000 EUR wenig, besitzt man aber nur 500 EUR, so ist das ja eine Verdreifachung! Dies wird durch U 0 (x) → 0 f¨ ur x → 0 und U 0 (x) → ∞ f¨ ur x → 0 beschrieben. Die Tatsache, dass U streng monoton wachsend ist, heißt dass man immer erfreut u ¨ber ein bisschen mehr Geld ist. Die Investorin hat die M¨oglichkeit nach einer Handelsstrategie φ in S0,...,Sd zu investieren. Angenommen, sie betrachtet einen festen Zeithorizont T , so m¨ochte sie ihren Nutzen maximieren. Mit einem Startkapital x kann sie dabei h¨ochstens P ˆ U (x) = sup E U Vφ,x (T ) φ∈Φ
erreichen. Wir betrachten dabei nur zul¨assige Handelsstrategien, und bezeichnen diese Menge mit Φ. Die Investorin versucht also, den erwarteten (unter P, dem realen Maß) Nutzen zu optimieren. Wie gelangt man nun zu einem fairen Preis einer Option oder allgemeiner: einem bedingten Anspruch XT ? Stellen wir uns vor, zwei Personen handeln diesen Preis aus. A verkauft,
6.2 Pricing in unvollst¨andigen M¨arkten
73
B kauft. B ist hierbei unsere Investorin mit einem Portfolio im Wert von x, und A eine H¨andlerin. Kauft B f¨ ur einen Betrag δ Optionen zum Preis p, so hat sie einen neuen maximalen Nutzen δ W (x, δ, p) = sup E U Vφ,x−δ (T ) + XT p φ∈Φ
W¨are dieser gr¨oßer als Uˆ (x), so h¨atte A eigentlich einen besseren Preis heraushandeln k¨onnen, ist der hingegen kleiner als Uˆ so ist B sicher nicht bereit, diese Option zu kaufen. In der Mitte entsteht ein Gleichgewicht, welches den fairen Preis bestimmt. Wir halten fest
Definition 6.2.3. Angenommen W (x, δ, p) ist f¨ ur jedes (x, p) in δ differenzierbar an δ = 0 und es gibt eine eindeutige L¨osung pˆ(x) der Gleichung ∂W (x, 0, p) = 0, ∂δ so nennt man pˆ(x) den fairen Preis der Option zur Zeit t = 0. (Bemerkung) Diesen Ansatz den Preis zu bestimmen, nennt man in der Literatur “marginal rate of substitution argument”. Nat¨ urlich muss man u ufen, ob diese Preisbestimmung nicht dem No-Arbitrage¨berpr¨ Prinzip widerspricht. Angenommen, es gibt einen eindeutigen No-Arbitrage-Preis p0 , bestimmt durch eine replizierende Handelsstrategie. Angenommen die Option werde f¨ ur den Preis p angeboten. Beim Kauf von
δ p
Optionen ist δ W (x, δ, p) = sup E U Vφ,x−δ (T ) + XT p φ∈Φ
(6.2)
der maximale zu erlangende Nutzen. Verkaufen wir die selbstfinanzierende Handelsstrategie, so erhalten wir den Betrag pδ · p0 , und k¨onnen diesen optimal investieren. An t = T heben sich Payoff der Option und Wert der replizierende Handelsstrategien auf. Wir erhalten einen maximalen Nutzen von sup E U Vφ,x−δ+ δ ·p0 (T ) . φ∈Φ
p
Beachte: Dieser ist gr¨oßer als (6.2)! Denn eine Strategie φ k¨onnte sein, die selbstfinanzierende Handelsstrategie f¨ ur pδ zu kaufen und x − δ optimal zu investieren, was direkt zu (6.2) f¨ uhrt. Andererseits ist die Strategie φ, die das replizierende Portfolio verkauft, in (6.2) auch zul¨assig. Wir erhalten W (x, δ, p) = sup E U Vφ,x+δ( pp0 −1) (T ) φ∈Φ p0 ˆ −1 =U x+δ p
6.2 Pricing in unvollst¨andigen M¨arkten und
∂ ˆ U ∂δ
74
p p0 0 ˆ 0 (x), −1 |δ=0 = −1 U x+δ p p
vorausgesetzt, dass Uˆ differenzierbar ist. Der obige Ausdruck ist Null genau dann, wenn p0 = p ist. Das neu eingef¨ uhrte Konzept enth¨alt also den No-Arbitrage-Preis als Spezialfall. Im folgenden machen wir zur Vereinfachung zwei Annahmen: ˆ Annahme: Des weiteren existiere eine Handelsstrategie φ∗ , so dass U sei differenzierbar. Uˆ (x) = E U Vφ∗ ,x (T ) . Damit erhalten wir eine allgemeine pricing Formel.
Theorem 6.2.4. (Davis) Angenommen Uˆ 0 (x) > 0∀x ∈ (0, ∞). Dann ist der faire Preis pˆ(x) gegeben durch E U 0 Vφ∗ ,x (T ) · XT pˆ = . Uˆ 0 (x) Beweis. Wir betrachten eine optimale Strategie φ1 , so dass ˆ U (x − δ) = E U Vφ1 ,x−δ (T ) . Man kann zeigen, dass
∂ ∂ δ = W (x, δ, p) E U Vφ1 ,x−δ (T ) + XT . ∂δ ∂δ p δ=0 δ=0
Wir nutzen die Taylor-Entwicklung von U und erhalten δ δ 0 = E U Vφ1 ,x−δ (T ) + E U Vφ1 ,x−δ (T ) XT + o(δ). E U Vφ1 ,x−δ (T ) + XT p p Damit erhalten wir f¨ ur die erste Ableitung unter Vernachl¨assigung der o(δ)-Terme δ ∂ |δ=0 E U Vφ1 ,x−δ (T ) + XT ∂δ p ∂ 1 = E U Vφ1 ,x−δ (T ) |δ=0 + E U 0 Vφ1 ,x (T ) XT ∂δ p F¨ ur den fairen Preis folgt 1 0 0 ˆ −U (x) + E U Vφ1 ,x (T ) XT = 0, p also die Bahauptung.
6.3 Hedging in unvollst¨andigen M¨arkten
6.3
75
Hedging in unvollst¨ andigen M¨ arkten
Setze r ≥ 0. In diesem Abschnitt betrachten wir eine H¨andlerin, die eine Option mit dem Payoff XT verkauft hat. Durch den Verkauf der Option kann sie einen Erl¨os c verbuchen. Zum Hedge verfolgt sie eine Strategie φ, die zum Zeitpunkt T den Betrag Gφ(T ) =
ZT 0
T
H t · d St =
d Z X
Hti d Sti
i=1 0
erwirtschaftet hat. Um die optimale Hedging-Strategie zu finden, l¨ost man im sogenannten Varianz-minimierenden hedging folgendes Optimierungsproblem: 2 min E XT − c − Gφ (T ) φ
Betrachten wir zun¨achst ein einfacheres Modell. Der Markt habe zwei Aktien, der H¨andlerin sei aber die zweite Aktie nicht zug¨anglich. Die Aktien werden modelliert durch zwei unabh¨angige Brownsche Bewegungen B1 , B2 und dS1 (t) = S1 (t) (µ1 (t)dt + o11 (t)dB1 (t)) , dS2 (t) = S2 (t) (µ2 (t)dt + o21 (t)dB1 (t) + o22 (t)dB2 (t)) . µi (t) und oij (t) seien deterministische Funktionen: Weiterhin sei XT ∈ α2 und Φ := {φ : RT φ vorhersehbar, 0 φ2 S12 dt < ∞} Bemerkung 6.3.1. B1 und
o21 B1 +o22 B2 o21 +o22
sind jetzt korrellierte Brownsche Bewegungen!
Sind φ1 , φ2 aus Φ, so ist auch φ1 + φ2 ∈ Φ. Wir erhalten Gφ1 +φ2 = Gφ1 + Gφ2 . Damit haben wir einen linearen Raum und suchen das Element φ∗ daraus, f¨ ur den der Abstand XT − c − Gφ∗ minimal wird. Diese Differenz muss senkrecht zu allen Gφ sein, also E XT − c − Gφ∗ (T ) Gφ (T ) = 0 ∀ φ ∈ Φ. (6.3)
Nehmen wir zun¨achst an, dass µ1 = 0. Eine etwas verallgemeinerte Version des Repr¨asentationstheorems liefert die Existenz von φ1 und φ2 mit XT = E(XT ) +
ZT
φ1 (u)dS1(u) +
ZT
φ1 (u)dS1(u) + N(T ).
0
=: E(XT ) +
ZT
φ2 (u)dB2 (u)
(6.4)
0
(6.5)
0
Interessanterweise sind N(T ) und das Integral
RT 0
φ1 d S1 unabh¨angig, also orthogorrnal.
6.3 Hedging in unvollst¨andigen M¨arkten
76
Damit erhalten wir f¨ ur die selbstfinanzierende Handelsstrategie φ1 , eingesetzt in (6.3), E XT − c − Gφ1 (T ) Gφ (T ) ZT =E E(XT ) − c + N(T ) φ(u)d S1 (u) 0
= E(XT ) − c E
ZT 0
ZT φd S1 + E(N(T ))E φ dS1 = 0. 0
da ja N und S1 unabh¨angig waren. Damit ist φ1 gerade die optimale Strategie. Etwas allgemeiner erh¨alt man die folgende Aussage: Theorem 6.3.2. Betrachte das stestige,lokale Martingal Mt = (Mt1 , . . . , Mt1 ), was adaptiert bez¨ugl. F = o Bt = (Bt1 , . . . , Btd ) ist. Die Cross-Variantion < M (i) , M (i) >t sei (i) absolut stetig i − t. Dann existiert X = (Xt ), so dass Mti =
d Z X
t
Xsi,k dBsk
und
k=1 0
< M i , M i >t =
d Z X
t
Xsi,k Xsi,k ds.
k=1 0
In dem Fall µ1 6= 0 wenn also S 1 kein Martingal ist, wird es schwieriger, eine Zerlegung wie (6.4) zu finden. Wir werden eine Zerlegung angeben, in welcher zumindest der Martingal-Teil unabh¨angig von N(T ) ist. Diese Zerlegung nennt man die F¨ ollmer-Schweizer Zerlegung Rt Wir schreiben Mi (t) := 0 σi (t)dsi (t). Dies sind die Martingalteile der betrachteten Aktien.
ˆ heißt minimales Martingalmaß, falls jedes Definition 6.3.3. Ein Martingalmaß Q quadratintegrierbare R-Martingal, welches orthogonal zu jedem M1 , . . . , Md ist, wieder ˆ ist. ein Martingal unter Q
¨ Wie wir bereits wissen, ¨andert sich bei dem Ubergang zu einem Martingalmaß der Drift. Dies geschieht bei einem Minimalen Martingalmaß ausschließlich in den Martingalkomponenten der Aktien, bzw. jedes davon unabh¨angige Martingal bleibt beim Maßwechsel unver¨andert. VersuchenR wir im obigen Beispiel ein minimales Martingalmaß zu finden. Sicherlich ist t M1 (t) = 0 S1 (a)σ11 (a)dB1 (u). Jedes Martingal orthogonal zu M1 ist deswegen ein stochastisches Martingal bez¨ uglich B2 . Das Girsenov-Theorem sagt, dass jede Dichte in diesem Modell die Gestalt L(t) = exp
−
Zt 0
γ1 (u)dB1(u) −
Zt 0
1 γ2 (u)dB2(u) − 2
Zt 0
2
2
(γ1 (u) + γ2 (u) du
6.3 Hedging in unvollst¨andigen M¨arkten
77
ˆ zu einem Martingal wird (r = 0!) w¨ahlen wir γ1 = µ1 /σ11 . B2 darf hat. Damit S1 unter Q seinen Drift nicht a¨ndern, also schließen wir γ2 = 0. Analog findet man das Minimale Martingalmaß f¨ ur das allgemeinere Modell: Theorem 6.3.4. Im verallgemeinerten Black-Scholes Modell gelten folgende Aussagen: ˆ ist eindeutig bestimmt. 1. Das minimale Martingalmaß Q ˆ existiert genau dann, wenn 2. Q Zt Zt ˆ := exp − α(u)dMu − 1 α(u)2 · σ 2 (u)dt , 0 ≤ t ≤ T L(t) 2 0
0
ˆ = L(T ˆ )dP. ein quadratintegrierbares Martingal ist. Dann ist dQ
3. Das minimale Martingalmaß erh¨alt Orthogonalit¨at in folgendem Sinn: F¨ur jedes quadratintegrierbare Martingal N mit < N, Mi >= 0 unter P gilt < N, Si >= 0 ˆ unter Q. Fahren wir fort mit unserem Beispiel. Wir suchen die F¨ollmer-Schweizer Zerlegung. Wir ˆ ein Martingal ist, es gilt also folgende Zerlegung: wissen, dass V (t) = Eˆ (XT |St ) unter Q ˆ T) + V (t) = E(X
Zt
ϕ(u)dS ˆ 1 (u) +
0
Zt
ψ(u)dB2(u),
0
woraus nat¨ urlich f¨ ur t = T die Zerlegung von XT folgt: ˆ T) + XT = E(X
ZT
ϕ(u)dS ˆ 1 (u) +
0
ZT
ψ(u)dB2(u).
0
Mit φˆ finden wir die optimale Strategie. Theorem 6.3.5. Wir definieren den stochastischen Prozess G∗ durch b1 (t) ∗ ∗ ˆ d G (t) = φ(t) + V (t) − c − G (t) dS1 (t) σ11 (t)2 S1 (t) ∗ =: F G (t) dS1 (t). Dann ist G∗ der Gewinnprozess der optimalen Strategie, d.h. φ∗ = F G∗ (t) . Beweis. Wir haben zu zeigen, dass ˆ ∗ E VT − c − Gφ (T ) Gφ (T ) = 0.
6.3 Hedging in unvollst¨andigen M¨arkten
78
F¨ ur T = 0 ist dies trivialerweise erf¨ ullt. Die Vermutung liegt nahe, dass obige Gleichung sogar f¨ ur alle 0 ≤ t ≤ T gilt. In der Tat, betrachten wir ˆ H(t, φ) := Vt − c − Gφ∗ (t) Gφ (t), so erhalten wir mit der Formel der partiellen Integration dH(t, φ) = Gφ (t) · dVˆt − Gφ (t)dGφ∗ (t) + Vˆt − c − Gφ∗ (t) dGφ (t) + d < Vˆ − c − Gφ∗ , Gφ > t. Wir haben dVˆt = φˆ dS1 (t) + φ(t) dB2 (t) dGφ∗ (t) = φ∗ (t) dS1 (t) dGφ (t) = φ(t) dS1 (t) 2 ˆ d < Vˆ − c − Gφ∗ , Gφ > = φ(t)φ(t) (t)S1 (t) dt, − φ∗ (t)φ(t) σ11
also
ˆ dH(t, φ) = Gφ (t) φ(t)S1 (t)µ1 (t) + φ(t) dB2 (t) − Gφ (t)φ∗ (t) dS1 (t) ˆ + Vt − c − Gφ∗ (t) φ(t) dS1 (t) 1 ∗ 2 (t)S12 (t) dt + φt − φ φ(t)σ11 ∗ ˆ = Gφ (t)φ8t)S 1 (t)µ1 (t) − Gφ (t)φ (t)S1 (t)µ1 (t) ∗ 2 2 + Vˆt − c − Gφ∗ (t) φ(t)S1 (t)µ1 (t) + φˆ − φ φ(t)σ11 (t)S1 dt + . . . dW
Da wir Erwartungswerte betrachten, interessiert uns haupts¨achlich der . . . dt-Term, also ∗ ∗ 2 2 Gφ (φˆ − φ )S1 µ1 + Vˆt − c − Gφ∗ φS1 µ1 + (φˆ − φ )φσ11 S1 dt. Dieser muss gleich Null sein: ∗ ∗ 2 ˆ ˆ φ S1 µ1 (Vt − c − Gφ∗ ) + (φ − φ )σ11 S1 = 0 ⇔ weiterhin ist
µ1 φ∗ = φˆ − 2 (Vˆt − c − Gφ∗ ) σ11 S1
µ2 (t) Gφ (φˆ − φ∗ )S1 µ1 = Gφ 21 (Vˆt − c − Gφ∗ ) σ11 (t)
6.3 Hedging in unvollst¨andigen M¨arkten
79
also Zt µ21 (t) ˆ E H(t, φ) = E Gφ 2 (Vt − c − Gφ∗ ) du σ11 (t) 0
=
Zt 0
µ21 (u) E H(u, φ) du. 2 σ11 (u)
Setzen wir f (u) = E H(u, t) , so folgt df =
µ21 (u) f (u)du, 2 σ11 (u)
wegen f (0) = 0 dann auch f (u) ≡ 0.
Anhang A Die goldenen Regeln In seinem Skriptum zur Stochastik III an der Universit¨at Gießen stellte Herr Prof. Dr. Stute die “Goldenen Regeln” vor. Sie sind das allt¨agliche Handwerkszeug f¨ ur den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. ¨ Es ist durchaus eine lohnenswerte Ubung, die Aussagen zu beweisen oder die Beweise noch einmal nachzuarbeiten ! Sei (Ω, A, P) der zugrundeliegende Wahrscheinlichkeitsraum. Wir bezeichnen mit L1 (Ω, A, P) die Menge aller P-integrierbaren Funktionen ξ : Ω 7→ R. Definition A.1.6. Sei ξ ∈ L1 (Ω, A, P) und B ⊂ A. Eine Zufallsvariable z ∈ L1 (Ω, A, P) heisst bedingte Erwartung (von ξ gegeben B) genau dann, wenn (i) z ist B-messbar (ii) f¨ ur alle B ∈ B gilt
Z
z dP =
B
Z
ξ dP.
B
Wir setzen E(ξ|B) := {z : z erf¨ ullt (i) und (ii) von A.1.6}. Es ist u ur jedes z auch E(ξ|B) zu schreiben. Immerhin gilt f¨ ur z1 , z2 ∈ E(ξ|B), ¨ blich auch f¨ dass z1 = z2 P-f.s. Die bedingte Wahrscheinlichkeit ist definiert durch P(A|B) := E(1A |B). Einige Beispiele m¨ogen das Konzept erl¨autern. (i) Ist B = {∅, Ω}, so ist E(ξ|B) = E(ξ). (ii) Wird B durch paarweise disjunkte Ai ∈ A, erzeugt, so gilt R ∞ X ξ dP E ξ|B = 1 Ai Ai , P(Ai ) i=1 wobei man den Bruch gleich Null setzt, wenn P(Ai ) = 0. Der nun folgende erste Satz von Goldenen Regeln bildet die Grundausstattung. Vor allem Punkt (i) haben wir bereits wiederholt in der Vorlesung eingesetzt. (wo?) 80
A.0
Die goldenen Regeln
81
(1. Goldene Regel) Sei ξ, ξ1, ξ2 ∈ L1 (Ω, A, P) und a, b ∈ R. Dann gilt R R (i) E(ξ|B) dP = ξ dP f¨ ur alle B ∈ B B B (ii) E E(ξ|B) = E(ξ) (iii)
ξ = a P-f.s. ⇒ E(ξ|B) = a P-f.s.
(iv)
0 ≤ ξ P-f.s. ⇒ 0 ≤ E(ξ|B) P-f.s.
(v)
E(a1 ξ1 + a2 ξ2 |B) = aE(ξ1 |B) + bE(ξ2 |B) P-f.s.
(vi)
ξ1 ≤ ξ2 P-f.s. ⇒ E(ξ1 |B) ≤ E(ξ2 |B) P-f.s.
(vii)
ξ ist B-messbar ⇒ E(ξ|B) = ξ.
(2. Goldene Regel) Sei ξ ∈ L1 (Ω, A, P) und η B-messbar (!), so dass η · ξ ∈ L1 (Ω, A, P). Dann gilt E η · ξ|B = η E ξ|B P-f.s.. Diese Regel erlaubt es, messbare Faktoren aus dem bedingten Erwartungswert herauszuziehen. In der dritten Goldenen Regel behandeln wir zwei unterschiedliche σ-Algebren. (3. Goldenen Regel) F¨ ur ξ ∈ L1 (Ω, A, P) und B1 ⊂ B2 ⊂ A gilt h i h i E E(ξ|B1 )|B2 = E(ξ|B1 ) = E E(ξ|B2 )|B1 P-f.s.. Was hat man in diesem neuen Kontext unter Unabh¨angigkeit zu verstehen ? Zun¨achst k¨onnen σ-Algebren unabh¨angig voneinander sein. Definition A.1.7. B1 und B2 heißen (P-)unabh¨angig genau dann, wenn P(B1 ∩ B2 ) = P(B1 ) P(B2 )
f¨ ur alle Bi ∈ Bi , i = 1, 2.
F¨ ur ξi Bi -messbar erhalten wir sofort E(ξ1 ξ2 ) = E(ξ1 )E(ξ2 ). Was aber sind unabh¨angige Zufallsvariablen? Dies kann man auf σ-Algebren zur¨ uckf¨ uhren. Dazu definiert man die von ξ generierte σ-Algebra durch n o −1 σ(ξ) := ξ (D) : D ⊂ B(R) , wobei B(R) die Borel σ-Algebra auf R bezeichnet. Damit erhalten wir
(4. Goldene Regel) Sei ξ ∈ L1 (Ω, A, P) und σ(ξ) unabh¨angig von B. Dann ist E(ξ|B) = E(ξ)
P-f.s..
Wenn man den bedingten Erwartungswert als Erwartungswert auf Basis von gewissen Informationen (z.B. wenn B = Ft ist) interpretiert, so bedeutet die 4. Goldene Regel, dass unter Unabh¨angigkeit diese Information keinen Zusatznutzen bringt, der bedingte Erwartungswert ist gleich dem unbedingten Erwartungswert.
A.0
Die goldenen Regeln
Wir schreiben
82
E(ξ|η) := E ξ σ(η)
f¨ ur die bedingte Erwartung bezu ¨glich η.
In diesem Fall hat die bedingte Erwartung eine besonders sch¨one Gestalt. Lemma A.1.8. Es existiert eine messbare Funktion f : R 7→ R, so dass E(ξ|η) = f (η). Diese Funktion f nennt man die Faktorisierung von ξ bezgl. η. Mann schreibt dann f (x) =: E(ξ|η = x). In der Statistik nennt man die Funktion f auch die Regressionsfunktion. Man kann dann die bedingte Dichte ausrechnen. Sei f (x, y) die gemeinsame Dichte von (ξ, η) und f die Dichte von η. Dann gilt auf {x : f (x) > 0} R Z y f (x, y) dy E(ξ|η = x) = =: y f (y|x) dy. f (x) Die bedingte Dichte f (y|η = x) ist also gerade f (x, y)/f (x). In der Finanzmathematik erweist sich die n¨achste Regel als ¨außerst n¨ utzlich. (5. Goldene Regel) ξ und η seien unabh¨angig und T : R2 7→ R so dass T (ξ, η) ∈ L1 (Ω, A, P). Dann haben wir f.s. (bezgl. der Verteilung von η), dass h i h i E T (ξ, η)|η = x = E T (ξ, x) . F¨ ur den bedingten Erwartungswert E(T (ξ, η)|η) m¨ ussen wir also den unbedingten Erwartungswert rechts ausrechnen und dann wieder f¨ ur x η einsetzen. Ein Beispiel: ist T (x, y) = xy, so schließt man, dass E(ξη|η) = ηE(ξ), was wir nat¨ urlich schon von der 2. Goldenen Regel wissen. Betrachten wir eine diskrete Filtration {Fn }n∈T und diesbez¨ uglich diskrete Stoppzeiten, so definieren wir die σ-Algebra der bis τ anfallenden Information durch Fτ := {A ∈ A : A ∩ {τ ≤ n} ∈ Fn f¨ ur alle n ∈ T }. uglich der diskreten (6. Goldene Regel) Ist ξ ∈ L1 (Ω, A, P) und τ eine Stoppzeit bez¨ Filtration {Fn }n∈T , so gilt E(ξ|Fτ ) = E(ξ|Fn )
P-f.s. auf
{τ = n}.
A.0
Die goldenen Regeln
83
Das Konzept der Unabh¨angigkeit kann man im Rahmen mit bedingten Erwartungen neu fassen. Definition A.1.9. Sei F ⊂ A eine σ-Algebra. A1 , . . . , An heißen bedingt unabh¨angig bezgl. F genau dann, wenn P
n \
i=1
Ai |F =
n Y i=1
P(Ai |F )
P-f.s..
Sind weiterhin F1 , F1 , F3 ⊂ A σ-Algebren, so nennen wir F1 und F2 unabh¨angig bedingt F3 , falls f¨ ur alle F1 ∈ F1 , F2 ∈ F2 P(F1 ∩ F2 |F3) = P(F1 |F3 ) P(F2|F3 ). (7. Goldene Regel) F1 und F2 sind unabh¨angig bedingt F3 genau dann, wenn f¨ ur jedes 1 ξ ∈ L (Ω, F2 , P) i h E ξ|σ(F2 ∪ F3 ) = E(ξ|F3) P-f.s. .
Literatur Bauer, H. (1990). Maß- und Integrationstheorie. Walter de Gruyter, Berlin. Bingham, N. H. and R. Kiesel (1998). Risk-Neutral Valuation. Springer Verlag. Berlin Heidelberg New York. Bj¨ork, T. (1998). Arbitrage Theory in Continuous Time. Oxford University Press. Black, F. and M. Scholes (1973). The pricing of options and corporate liabilities. Journal of Political Economy 81, 637–653. Cox, J. C., S. A. Ross, and M. Rubinstein (1979). Option pricing: A simplified approach. Journal of Financial Econometrics 7, 229–265. Heston, S. (1993). A closed-form solution for options with stochastic volatility and applications to bond and currency options. Review of Financial Studies 6, 327–343. Karatzas, I. and S. E. Shreve (1988). Brownian Motion and Stochastic Calculus. Springer Verlag. Berlin Heidelberg New York. Leland, H. E. (1995). Option pricing and replication with transaction costs. Journal of Finance 40, 1283–1301. Merton, R. (1973). Theory of rational option pricing. Bell J. of Econ. and Manamgement Sciences 4, 141–183. Protter, P. (1992). Stochastic Integration and Differential Equations. Springer Verlag. Berlin Heidelberg New York. Steele, M. (2001). Stochastic Calculus and Financial Applications. Springer Verlag. Berlin Heidelberg New York. Werner, D. (2000). Funktionalanalysis. Springer Verlag. Berlin Heidelberg New York.
84