[Wall Street Ajae] Anspruch und Wirklichkeit von Quant-Investing – Teil 1: Halbherzigkeit ist pures Gift

월가아재의 과학적 투자
주식 투자마케팅/광고초보 재테크AI/미래기술

Transcript

00:00:00Aber egal, ob wir nun auf die letzten 10,
00:00:0320 oder 30 Jahre zurückblicken –
00:00:04wie viele profitable Muster gab es wohl in diesem Zeitraum?
00:00:09Die Antwort lautet: unendlich viele. Das lässt sich sogar beweisen.
00:00:12Hallo zusammen, hier ist Wall Street Guy.
00:00:21Heute beschäftigen wir uns mit dem Thema Quant-Investing.
00:00:24In den Kommentaren auf YouTube und per E-Mail
00:00:26wurde ich oft gebeten, etwas über Quant-Trading zu erklären.
00:00:29Eigentlich hatte ich im Rahmen meiner Ziele und des Kanals
00:00:33nicht vor, Algorithmic Trading oder Quant-Trading
00:00:36in naher Zukunft zu behandeln.
00:00:38Da jedoch etwa 15 % unserer Abonnenten
00:00:40angaben, selbst Quant-Trading zu betreiben,
00:00:44und ich derzeit einige besorgniserregende Entwicklungen sehe,
00:00:48habe ich mich entschlossen, dieses Video zu drehen.
00:00:50Zuerst schauen wir uns die Klassifizierung und Prinzipien an,
00:00:53um einen allgemeinen Überblick zu bekommen.
00:00:56Danach besprechen wir 10 Dinge, die man beim Quant-Trading beachten muss.
00:00:59Wenn Sie diese 10 Punkte beherzigen, können Sie verhindern,
00:01:04dass Sie wertvolle Zeit verschwenden
00:01:06oder aufgrund fehlerhafter Backtesting-Methoden
00:01:09falsche Entscheidungen treffen,
00:01:11die zu massiven Verlusten führen könnten.
00:01:15Obwohl das eigentlich zum absoluten Basiswissen gehört,
00:01:18scheinen selbst teure Kurse auf dem Markt
00:01:21diese Aspekte nicht detailliert genug zu behandeln.
00:01:24Oft werden Backtesting und Quant-Investing in solchen Kursen
00:01:27sogar eher beschönigt dargestellt.
00:01:31Wenn Sie sich diese 10 Punkte merken, werden Sie –
00:01:35egal welche Infos oder Dienste Sie nutzen –
00:01:39besser geschützt und deutlich sicherer unterwegs sein.
00:01:43Bevor wir anfangen: Vor ein paar Tagen habe ich
00:01:47einen kurzen Post in einem etwas gereizten Ton verfasst.
00:01:49Da habe ich wohl einen Fehler gemacht.
00:01:51Ich schrieb, dass das Viral Marketing und die übertriebene Werbung
00:01:54für Quant-Investing allmählich das Maß überschreiten.
00:01:55Daraufhin gab es in den Kommentaren böswillige Angriffe
00:01:59gegen bestimmte Personen oder Firmen.
00:02:02Ich habe den Post gelöscht, um niemanden zu diskreditieren.
00:02:06Im Grunde handelt es sich ja nicht um illegale Trading-Räume
00:02:09oder betrügerische Anbieter, also ist es kein Verbrechen.
00:02:12Vielleicht habe ich mich da zu sehr eingemischt.
00:02:16Aber bei offensichtlich illegalen Konten oder Diensten
00:02:19wissen die Nutzer meist, dass es nicht rechtens ist,
00:02:22und tragen durch ihre Gier eine gewisse Mitschuld.
00:02:25Die aktuelle Debatte um das Thema Quant-Investing hingegen
00:02:28könnte ganz normale Menschen treffen, die einfach nur versuchen,
00:02:33durch ehrliche Arbeit und kluge Vorsorge voranzukommen,
00:02:35und sich deshalb für diesen Bereich entscheiden.
00:02:37Dort sehe ich die Gefahr, dass sie zu Schaden kommen.
00:02:40Quant-Investing wird oft mit den Schlagworten Wissenschaft und Statistik beworben,
00:02:46was die Leute glauben lässt, alles sei fundiert, obwohl es oft unwissenschaftlich ist.
00:02:51Illegale Gruppen erkennt man meist sofort als solche,
00:02:55daher kann man sie leicht meiden.
00:02:56Hier aber könnten gutgläubige Menschen zu Opfern werden.
00:03:01oder: “In den letzten 10 Jahren gab es 20 % Zinseszins,
00:03:04Or saying that this strategy has been proven by decades of data,
00:03:08Or that it has generated a 20% compound return over the last 10 years,
00:03:11also wird es auch in Zukunft so weitergehen” –
00:03:14solche Aussagen sind vielleicht nicht immer böse gemeint,
00:03:18aber viele Anfänger am Aktienmarkt
00:03:20könnten das missverstehen und falsche Schlüsse ziehen.
00:03:23Sie verschwenden dann viel Zeit mit Backtesting
00:03:25und können am Ende sogar finanzielle Verluste erleiden.
00:03:27Wenn man blindlings an Backtesting-Ergebnisse glaubt,
00:03:32wäre das in den USA laut SEC-Vorschriften sogar illegal,
00:03:35wenn ein Fonds so gegenüber Kunden werben würde.
00:03:38Ich wünsche mir, dass diejenigen, die über Quant-Investing sprechen,
00:03:41die Verantwortung für das Geld anderer ernster nehmen.
00:03:45Ich weiß nicht, wie lange ich noch YouTube machen werde,
00:03:47aber ich erzähle das nicht, um als der “Gute” dazustehen.
00:03:51Ich habe selbst mit Mitte 20 schwere finanzielle Zeiten durchgemacht
00:03:52und weiß genau, wie sich das anfühlt.
00:03:56Da ich oft über Mentaltraining bei Verlusten spreche
00:03:58und meine eigenen Erfahrungen und Geschichten aus meinen 20ern teile,
00:04:01bekomme ich wohl deshalb so viele Anfragen zu diesem Thema.
00:04:05Jede Woche erreichen mich mehrere E-Mails von Abonnenten,
00:04:09die teilweise sechsstellige Beträge verloren haben.
00:04:14Deshalb sollten YouTuber in den Bereichen Finanzen, Aktien
00:04:16oder Immobilien ab und zu ihre eigenen Inhalte kritisch hinterfragen.
00:04:20Auch ich habe bei meinem Projekt “80 Tage Weltreise durch Investments”
00:04:24das Gefühl bekommen, dass es sich zu sehr wie Anlageberatung anfühlt.
00:04:26Nach diesem Bärenmarkt möchte ich mich wieder mehr auf meine Wurzeln besinnen.
00:04:29In diesem Sinne habe ich dieses Video erstellt.
00:04:33Ich möchte niemanden persönlich oder geschäftlich angreifen.
00:04:37Vielen Leuten im Quant-Marketing sind bestimmte Dinge
00:04:40vielleicht selbst gar nicht so bewusst.
00:04:43Es geht darum, diese Probleme gemeinsam zu erkennen
00:04:46und die Situation zu verbessern.
00:04:49Bitte postet daher keine Kommentare darüber,
00:04:51gegen wen sich dieses Video angeblich richten könnte.
00:04:55Nach dieser langen Einleitung
00:04:57schauen wir uns nun die verschiedenen Arten von Quants an.
00:04:58Der Begriff “Quant” ist sehr breit gefasst.
00:05:01Der Einfachheit halber unterteilen wir sie grob
00:05:04nach ihrer zeitlichen Dimension.
00:05:07Zuerst gibt es den Hochfrequenzhandel (HFT).
00:05:10Eine Unterform davon ist der Ultra-HFT.
00:05:12Dabei werden Server direkt bei der Börse platziert (Colocation),
00:05:14es wird auf Maschinensprachenebene programmiert,
00:05:19und man konzentriert sich extrem auf die Hardware.
00:05:20Das ist diese eine Ebene des Tradings.
00:05:22Dann gibt es das klassische Algorithmic Trading,
00:05:24das einen etwas längeren Zeithorizont hat.
00:05:28Hier nutzt man technische Indikatoren oder regelbasierte Systeme.
00:05:29Das machen heutzutage viele Privatanleger,
00:05:33da Backtesting-Plattformen immer zugänglicher werden.
00:05:35Dann folgt die statistische Arbitrage,
00:05:39wie zum Beispiel das Pair Trading.
00:05:41Dabei werden statistische Modelle und Methoden genutzt,
00:05:42um Muster in der Vergangenheit zu finden,
00:05:44unter der Annahme, dass die Kurse
00:05:46immer wieder zum Mittelwert zurückkehren (Mean Reversion).
00:05:48Ein weiterer Bereich ist das Factor Investing.
00:05:50Das ist eher langfristig orientiert und nutzt Faktoren
00:05:52wie Momentum, Value oder Carry.
00:05:54Man identifiziert Preistreiber und versucht,
00:05:59ein “Alpha” (Überrendite) zu generieren.
00:06:01In den letzten Jahren ist zudem
00:06:03das Thema “Quantamental” sehr präsent.
00:06:06Dabei wird die Fundamentalanalyse quantifiziert und automatisiert,
00:06:07oft unter Einbeziehung von Big Data und alternativen Daten,
00:06:10um langfristige Anlageentscheidungen zu treffen.
00:06:12In diesem Zusammenhang weitet sich auch der Einsatz
00:06:16von Machine Learning und Big Data
00:06:18immer mehr auf verschiedene Bereiche aus.
00:06:20Diese Kategorien dienen nur der Orientierung,
00:06:23da die Grenzen oft fließend sind.
00:06:26Manche bezeichnen auch alles zusammen als Algorithmic Trading.
00:06:28Wir werden heute das allgemeine Quant-Trading
00:06:30eher zusammenfassend behandeln.
00:06:31Die Prinzipien des Quant-Tradings sind:
00:06:33Erstens braucht man eine Investmentidee oder eine Hypothese.
00:06:35Dann folgt das Backtesting.
00:06:37Man überprüft die Idee oder die Hypothese
00:06:40anhand historischer Daten.
00:06:42und schaut dann, ob das in der Vergangenheit
00:06:44Applying such investment ideas to historical data,
00:06:47tatsächlich funktioniert hätte.
00:06:50Liefert das Backtesting gute Ergebnisse,
00:06:51geht man zum Live-Trading über
00:06:54und betreibt dabei Risikomanagement.” –
00:06:56So sieht dieser Prozess aus vier Schritten aus.
00:06:57Bis Mitte der 2010er Jahre war Quant-Trading
00:07:00praktisch das exklusive Vorrecht von Institutionen,
00:07:01speziell von Quant-Fonds, die Heerscharen von
00:07:03Naturwissenschaftlern und Mathematikern beschäftigten.
00:07:06Mittlerweile ist es jedoch auch bei anderen Institutionen
00:07:09Standard geworden, etwa bei der Orderausführung.
00:07:13Und seitdem in den USA Dienste wie Quantopian
00:07:16das Backtesting massiv vereinfacht haben,
00:07:18können auch Privatanleger
00:07:21ganz einfach Quant-Methoden nutzen.
00:07:23Dieser Trend zur Demokratisierung hält an.
00:07:25Gleichzeitig wächst aber auch das Unverständnis
00:07:28darüber, was Quant-Investing eigentlich ist.
00:07:30Ein typisches (falsches) Beispiel wäre:
00:07:33Man investiert in Aktien mit einem KBV (PBR) unter 0,9
00:07:35und schaut sich die Performance der letzten 15 Jahre an,
00:07:38was eine jährliche Rendite von 20,2 % ergab.
00:07:40Verändert man das KBV ein wenig,
00:07:42erhält man vielleicht 14 % oder 17,8 %.
00:07:46Da das erste Ergebnis im Backtesting am besten war,
00:07:48entscheidet man sich,
00:07:51genau nach dieser Regel zu investieren.
00:07:53Solche Schlussfolgerungen sehe ich oft.
00:07:56Aber das ist leider ein Paradebeispiel für einen Fehler.
00:07:58Wenn Sie einmal scharf nachdenken,
00:08:01basiert Backtesting auf der Annahme,
00:08:03dass sich Muster der Vergangenheit
00:08:04in der Zukunft wiederholen werden –
00:08:07eine Annahme, für die es keine Garantie gibt.
00:08:09Man sucht lediglich nach Mustern, die damals profitabel waren.
00:08:12Aber wenn wir einen Zeitraum von
00:08:1410, 20 oder 30 Jahren betrachten,
00:08:16wie viele solcher profitablen Muster
00:08:18gibt es wohl in diesen Daten?
00:08:21Halten Sie das Video kurz an und überlegen Sie mal.
00:08:24Die Antwort ist: unendlich viele.
00:08:26Das lässt sich mathematisch beweisen.
00:08:29Da die Parameter vieler Strategien kontinuierlich sind,
00:08:30existieren faktisch unendlich viele profitable Strategien für die Vergangenheit.
00:08:32Die entscheidende Frage ist jedoch:
00:08:34Wie viele davon werden auch in Zukunft profitabel sein?
00:08:36Das ist der heilige Gral des Quant-Tradings.
00:08:38Ein Muster zu finden, das rückblickend funktioniert hat,
00:08:42kann heute mit den richtigen Tools
00:08:46praktisch jeder.
00:08:50Aber etwas zu finden, das sowohl früher gut war
00:08:52als auch in Zukunft gut sein wird,
00:08:55ist extrem schwierig – die sprichwörtliche Nadel im Heuhaufen.
00:08:56In koreanischen Blogs und auf Webseiten
00:09:00ist mir aufgefallen, dass die
00:09:02“Magic Formula” von Joel Greenblatt sehr beliebt ist.
00:09:04Er nutzt darin sehr einfache Filter,
00:09:07wie zum Beispiel die Marktkapitalisierung,
00:09:09um attraktive Aktien auszuwählen.
00:09:12Sein Buch über diese Zauberformel wurde ein Bestseller
00:09:13und ist unter Privatanlegern weit verbreitet.
00:09:15In der Hedgefonds-Welt ist Greenblatt eine Legende.
00:09:17Er entwickelte eine Formel zur Aktienauswahl,
00:09:20indem er einfache Filter wie die Marktkapitalisierung nutzte,
00:09:24und schrieb ein Buch über diese sogenannte “Zauberformel”.
00:09:25Es wurde ein großes Thema und ist unter Privatanlegern sehr bekannt.
00:09:28In der Hedgefonds-Welt ist dieser Mann extrem berühmt.
00:09:31Er begann bereits in den 1980er Jahren mit dem Investieren.
00:09:33In dieser Zeit erzielte er sogar eine
00:09:35höhere Rendite als Warren Buffett.
00:09:37Deshalb erregte die Zauberformel wohl so viel Aufmerksamkeit.
00:09:40Um es vorwegzunehmen:
00:09:42Greenblatt ist kein Quant-Investor,
00:09:44und sein Hedgefonds hat nicht nur nach dieser Formel investiert.
00:09:47Diese guten Renditen stammen nicht allein aus der Zauberformel.
00:09:50Sein Fonds betrieb auch Value-Investing
00:09:52und investierte in Sondersituationen (Special Situations).
00:09:54Dazu gehörten zum Beispiel Spin-offs,
00:09:57also wenn Unternehmensteile abgespalten werden.
00:09:59Er nutzte Preisdiskrepanzen,
00:10:01um sich durch solche Vorteile Profite zu sichern.
00:10:04Er kombinierte also verschiedene Methoden.
00:10:07Ich glaube auch nicht, dass er im Bereich Value-Investing
00:10:10nur eine so einfache Formel verwendet hat.
00:10:12Sicherlich war sie Teil seines Rahmens,
00:10:14aber er hat bestimmt nicht einfach nur mechanisch danach gekauft,
00:10:18um diese Ergebnisse zu erzielen.
00:10:20Wenn man die Zauberformel seit ihrer Veröffentlichung
00:10:22im Jahr 2005 einem Backtest unterzieht,
00:10:26sieht man hier: Grau ist der S&P 500 Index,
00:10:28und Grün ist die Zauberformel.
00:10:29Wie Sie sehen, gab es eine hohe Volatilität,
00:10:32aber sie blieb letztlich hinter dem Markt zurück.
00:10:34Das liegt daran, dass ähnliche Strategien wie
00:10:37systematische Aktien-ETFs aufkamen,
00:10:40und da der Markt effizienter wurde,
00:10:42verschwand dieser Vorteil (Edge) allmählich.
00:10:44Selbst so berühmte Formeln zeigen oft dieses Muster.
00:10:48Es ist sehr leicht, Muster zu finden, die in der Vergangenheit profitabel waren.
00:10:50Man kann darüber sogar ein Buch schreiben.
00:10:53Aber ein Muster zu finden, das auch in der Zukunft
00:10:56gewinnbringend bleibt, erfordert extrem viel Arbeit.
00:11:00Strategien, die mit ein paar Klicks und kurzem Nachdenken
00:11:0320% Rendite pro Jahr versprechen, existieren in der Realität nicht.
00:11:06Ein weiteres Beispiel ist Quantopian.
00:11:08Quantopian war ein Startup, das etwa 2011 gegründet wurde.
00:11:12Es war eine Plattform in den USA, die Backtesting sehr einfach machte.
00:11:16300.000 Nutzer führten dort 12 Millionen Backtests durch
00:11:20und entwickelten unzählige Quant-Strategien.
00:11:24Sogar der Milliardär und Hedgefonds-Trader
00:11:27Steve Cohen investierte in das Unternehmen.
00:11:29Die Top-Quants von Quantopian
00:11:32veröffentlichten sogar wissenschaftliche Arbeiten darüber,
00:11:34nach welchen Kriterien und statistischen Methoden
00:11:37man Strategien auswählen muss,
00:11:40die auch in Zukunft profitabel sein könnten.
00:11:41Sie haben das wirklich intensiv erforscht,
00:11:44um Strategien auszuwählen,
00:11:46mit denen ein neuer Hedgefonds betrieben werden sollte.
00:11:48Das war die Grundidee,
00:11:49doch sie scheiterten kläglich.
00:11:51Letztes Jahr mussten sie schließlich schließen.
00:11:53Warum passiert so etwas?
00:11:55Und wie können Zuschauer, die Quant-Trading betreiben wollen,
00:11:58solche Ergebnisse vermeiden?
00:12:02Man kann es natürlich nie ganz ausschließen.
00:12:03Ich halte das für eine äußerst schwierige Aufgabe.
00:12:07Wenn Sie es dennoch versuchen möchten,
00:12:10sollten Sie sich zumindest diese 10 Punkte einprägen
00:12:12und vorsichtig sein.
00:12:13Ich werde sie nun nacheinander erläutern.
00:12:16Wenn Sie diese 10 Punkte beachten,
00:12:17können Sie Zeitverschwendung durch fehlerhafte Backtests
00:12:22und unnötige Verluste vermeiden.
00:12:24Ein guter Backtest garantiert natürlich noch keine Gewinne.
00:12:27Der erste Punkt ist: Man muss den Daten misstrauen.
00:12:31Manche nutzen Daten von Google oder Yahoo,
00:12:34aber diese Daten sind oft sehr, sehr fehlerhaft.
00:12:37Wer Quant-Trading von Grund auf lernen will,
00:12:41wird bei den Daten auf viele Hindernisse stoßen.
00:12:45Gratis-Daten sind oft unsauber und enthalten viele Fehler.
00:12:47Bei der Datenbereinigung
00:12:50(Data Cleaning)
00:12:51denken Sie vielleicht, man müsse nur Fehler finden,
00:12:54aber oft fließen auch subjektive Urteile
00:12:57und Verzerrungen mit ein.
00:12:59Lassen Sie mich ein Beispiel geben.
00:13:01Eine Aktie wird zwischen 41 und 43 Dollar gehandelt
00:13:05und schließt dann.
00:13:06Kurz vor Marktschluss
00:13:08macht ein Trader einen Eingabefehler,
00:13:11und eine einzelne Aktie wird zu 28 Dollar ausgeführt.
00:13:14Streng genommen
00:13:16liegt der Tagestiefstpreis damit bei 28 Dollar.
00:13:18Der Trader hat zwar durch seinen Fehler Verlust gemacht,
00:13:21aber als Tiefstpreis müssten eigentlich 28 Dollar stehen.
00:13:24Das ist die faktische Realität.
00:13:25Die Frage ist nun, wie man Tief- und Höchstpreise festlegt.
00:13:28Diesen Wert zu löschen und 41 Dollar als Tief anzugeben,
00:13:31bedeutet ja eigentlich,
00:13:34einen real existierenden Trade zu ignorieren.
00:13:36Wenn man ihn aber nicht löscht,
00:13:38und man testet zum Beispiel eine Strategie,
00:13:40die einen Kauf auslöst, wenn der Kurs
00:13:44innerhalb von 5 Minuten um mehr als 5% fällt,
00:13:45dann würde der Backtest
00:13:47den Kauf bei 28 Dollar registrieren.
00:13:48Das System denkt dann,
00:13:51ich hätte für 28 Dollar gekauft
00:13:53und zum Schlusskurs von 42 Dollar
00:13:55sofort wieder verkauft.
00:13:58Dadurch würde die Rendite der Strategie
00:13:59massiv aufgebläht werden.
00:14:01Bei einer Aktie kann man das vielleicht ignorieren,
00:14:03aber was, wenn der Fehler des Traders
00:14:0610, 100 oder gar 10.000 Aktien betraf?
00:14:09Solche Fälle gibt es tatsächlich.
00:14:11Das passiert immer wieder mal.
00:14:14Es gab sogar Fälle, in denen durch solche Fehler
00:14:17Millionenbeträge verloren gingen.
00:14:20Fehler mit 100 oder 1.000 Aktien
00:14:21kommen häufiger vor, als man denkt.
00:14:23Zwar übernehmen heutzutage oft
00:14:24Algorithmen die Ausführung,
00:14:25was die Sicherheit erhöht,
00:14:27weshalb es seltener vorkommt als früher.
00:14:29Dennoch enthalten Backtest-Daten
00:14:31oft Zeiträume vor der weiten Verbreitung”
00:14:33von Algorithmen für die Orderausführung.
00:14:36Wenn man bis 2011 oder 2005 zurückgeht,
00:14:37findet man solche Fälle regelmäßig.
00:14:39Die Frage ist also, wie man damit umgeht.
00:14:41Ein weiteres Problem sind Produkte,
00:14:43die an verschiedenen Börsen gehandelt werden.
00:14:44In solchen Fällen muss man prüfen,
00:14:45ob die Daten der verschiedenen Börsen
00:14:47korrekt zusammengeführt wurden,
00:14:49also ob Tiefst- und Höchstpreise sowie
00:14:50Handelsvolumen sauber konsolidiert sind.
00:14:52Oder ob man nur Daten
00:14:53von einigen wenigen Börsen nutzt
00:14:56und somit mit unvollständigen Daten
00:14:57einen Backtest durchführt.
00:14:59Das Risiko besteht oft bei günstigen Datenanbietern.
00:15:01Auch bei der Berechnung des MDD (Maximum Drawdown)
00:15:02ist wichtig, ob man Schlusskurse oder Tiefstkurse nutzt.
00:15:04Bei Strategien mit monatlichem Rebalancing
00:15:05werden oft Tagesdaten verwendet,
00:15:07aber nur auf Basis der Schlusskurse.
00:15:09Um den tatsächlichen Drawdown zu berechnen,
00:15:11muss man aber auch die Schwankungen
00:15:13innerhalb des Tages (Intraday) berücksichtigen.
00:15:14Das sind oft übersehene Details.
00:15:15Auch beim Backtesting von Futures,
00:15:17die ein Verfallsdatum haben,
00:15:18muss man klären, wie der Rollover gehandhabt wird.
00:15:20Oft werden für das Backtesting
00:15:21kontinuierliche Zeitreihen aus
00:15:22einzelnen Futures-Kontrakten erstellt.
00:15:24Dabei ist entscheidend,
00:15:26wie man den Übergang beim Verfall berechnet.
00:15:27Es gibt noch viele weitere solcher Probleme.
00:15:29Haben Sie sich über diese Datenprobleme
00:15:31schon einmal Gedanken gemacht?
00:15:33Oder vertrauen Sie einfach blind darauf,
00:15:34dass ein Backtesting-Anbieter das schon richtig macht?
00:15:35Das sollte man unbedingt prüfen,
00:15:37da Datenfehler sehr häufig zu
00:15:38verzerrten Backtest-Ergebnissen führen.
00:15:39Ein weiteres großes Problem bei Daten
00:15:40ist der sogenannte Survivorship Bias (Überlebenden-Verzerrung).
00:15:42Dies ist einer der klassischsten Fehler im Backtesting.
00:15:44Dieses Bild hier stammt,
00:15:47ich glaube, aus dem Ersten oder Zweiten Weltkrieg.
00:15:51Die Luftwaffe wollte ihre Flugzeuge besser panzern.
00:15:53Sie wollten herausfinden,
00:15:57welche Stellen verstärkt werden müssen.
00:15:59Ingenieure untersuchten dafür
00:16:01die Flugzeuge, die aus Kämpfen zurückgekehrt waren,
00:16:04und markierten alle Einschusslöcher.
00:16:06Sie sahen, wo die meisten Treffer einschlugen,
00:16:08und schlussfolgerten,
00:16:10dass man genau diese Stellen
00:16:12mit dickeren Stahlplatten verstärken sollte.
00:16:16Aber das war ein gewaltiger Denkfehler.
00:16:18Denn Flugzeuge, die an anderen Stellen
00:16:20getroffen wurden,
00:16:21wie zum Beispiel am Motor,
00:16:24waren alle abgestürzt und kehrten gar nicht erst zurück.
00:16:26Das Beispiel zeigt, wie gefährlich es ist,
00:16:28Schlussfolgerungen nur aus den vorhandenen Daten zu ziehen.
00:16:29Auf das Investieren übertragen bedeutet Survivorship Bias:
00:16:33Man denkt sich vielleicht heute,
00:16:34dass man in den 80ern Apple und Microsoft hätte kaufen sollen,
00:16:36um heute reich zu sein.
00:16:38Basierend darauf entwickelt man eine Strategie für Tech-Aktien.
00:16:40Doch in den 80er Jahren
00:16:42gab es unzählige andere Tech-Unternehmen,
00:16:42die längst pleite gegangen und vom Markt verschwunden sind.
00:16:44Wenn man nur die “Überlebenden” von heute im Backtest betrachtet,
00:16:46verfälscht das das Ergebnis massiv,
00:16:49da die gescheiterten Firmen im Datensatz fehlen.
00:16:50wie gefährlich es ist, Schlussfolgerungen
00:16:52allein auf Basis vorliegender Daten zu ziehen. Das ist ein klassisches Beispiel,
00:16:54was man beim Investieren als “Survivor Bias” oder Überlebenden-Fehlschluss bezeichnet.
00:16:56Nehmen wir zum Beispiel an,
00:16:57man schaut sich die heutige Situation an und denkt:
00:16:59“Hätte ich in den 80ern Apple und Microsoft gekauft,
00:17:02wäre ich heute steinreich.”
00:17:03Mit diesem Gedanken im Hinterkopf
00:17:05entwickelt man eine Strategie, nur in solche Tech-Aktien zu investieren.
00:17:08Aber in den 80er Jahren gab es
00:17:10über 30 Unternehmen, die damals
00:17:13genauso vielversprechend wie Apple oder Microsoft galten.
00:17:1428 von ihnen sind jedoch einfach verschwunden.
00:17:17Nur diese beiden haben am Ende überlebt.
00:17:19Obwohl nur diese zwei übrig geblieben sind,
00:17:22betrachtet man ausschließlich sie
00:17:23und glaubt, dass man mit so einer Strategie heute groß abräumen würde.
00:17:27Wenn man also nur die heute noch existierenden Firmen
00:17:30als Grundlage für einen Backtest verwendet,
00:17:32dann werden die Renditen zwangsläufig künstlich aufgebläht.
00:17:35Und dieses Problem verschärft sich natürlich,
00:17:38je länger der Zeitraum des Backtests ist.
00:17:40Denn über einen so langen Zeitraum
00:17:41gab es am Anfang sicher viele Firmen,
00:17:43die mittlerweile längst vom Markt verschwunden sind.
00:17:45Überraschend viele Börsenanfänger,
00:17:47wenn sie mit solchen Backtests beginnen,
00:17:48legen zuerst ihr “Aktien-Universum” fest.
00:17:51Sie bestimmen also den Bereich der Aktien,
00:17:54den sie rückwirkend testen wollen,
00:17:55und wählen dafür oft nur heute existierende Unternehmen aus.
00:17:58Innerhalb dieser Gruppe
00:17:59wenden sie dann verschiedene Kriterien an,
00:18:02um herauszufinden, wie man die “guten” Firmen
00:18:05hätte auswählen können.
00:18:07Doch wenn man so vorgeht,
00:18:08werden alle Firmen, die seit Beginn des Testzeitraums
00:18:11bis heute pleitegegangen sind, komplett ignoriert.
00:18:13Man führt den Backtest unter der Annahme durch,
00:18:16dass man damals bereits die hellseherische Fähigkeit besessen hätte, Versager zu meiden.
00:18:18Dadurch fallen die Renditen natürlich viel höher aus als in der Realität.
00:18:21Deshalb sollte man bei einem Backtest,
00:18:23der zum Beispiel 20 Jahre zurückreicht,
00:18:25alle Unternehmen berücksichtigen, die im Jahr 2001 existierten,
00:18:29und genau diesen Bestand
00:18:30als Ausgangsbasis für die Analyse nehmen.
00:18:32Das wollte ich dazu anmerken.
00:18:33Nur so am Rande:
00:18:34Auch bei den sogenannten “Super-Tradern” auf YouTube
00:18:37könnte ein gewisser Survivor Bias mitspielen.
00:18:40Sicherlich gibt es Leute, die es durch echtes Können geschafft haben,
00:18:43aber manche sind vielleicht auch nur ein extrem hohes Risiko eingegangen,
00:18:45indem sie massiv in eine einzige Aktie investiert haben,
00:18:48die dann zufällig durch die Decke ging,
00:18:49wodurch sie zu Multimillionären wurden.
00:18:51Aber es gab vielleicht 30 oder 50 andere,
00:18:53die genau das Gleiche getan haben.
00:18:55Von diesen 50 Leuten mit riskantem Verhalten
00:18:58hat am Ende eben nur einer überlebt,
00:18:59und die Zuschauer bewundern nun genau diesen einen.
00:19:02Dahinter könnte also auch ein Überlebenden-Fehlschluss stecken.
00:19:05Wenn man sich das nun anschaut und denkt:
00:19:06und deshalb extrem riskante Wetten eingeht,
00:19:08If you engage in such incredibly high-risk investments,
00:19:11führt das nicht garantiert zum Erfolg.
00:19:13Man muss schon der eine Glückspilz unter 50 sein, damit das klappt.
00:19:17Allein dieses Bewusstsein für solche Verzerrungen
00:19:20hilft einem schon dabei, viel rationaler und klüger zu investieren.
00:19:22Wenn man Plattformen für Backtesting nutzt,
00:19:24überträgt man die Verantwortung für die Datenqualität
00:19:27und die Berücksichtigung des Survivor Bias
00:19:28komplett an den jeweiligen Anbieter.
00:19:31Man ist da oft etwas naiv.
00:19:32Aber hat dieser Anbieter
00:19:33diese Probleme und die Datengenauigkeit
00:19:35wirklich so penibel geprüft?
00:19:37Hat er aus der Sicht der Nutzer und deren tatsächlicher Rendite
00:19:39wirklich um den realen Erfolg gebangt
00:19:41By committing a large amount of capital,
00:19:43um die Daten absolut sauber aufzubereiten?
00:19:45Das sind Dinge, die man unbedingt kritisch hinterfragen sollte.
00:19:48Der zweite Punkt, bei dem man vorsichtig sein muss,
00:19:50ist der sogenannte “Look-ahead Bias”.
00:19:52Man sollte also nicht bereits in die Zukunft blicken.
00:19:54Man könnte diesen Look-ahead Bias grob
00:19:57als “Zukunftswissen-Verzerrung” bezeichnen.
00:19:58Oder wie auch immer man es übersetzen mag.
00:20:00Es geht darum, dass Informationen, die zum Handelszeitpunkt noch nicht verfügbar waren,
00:20:03dennoch in den Backtest einfließen, da dieser mit historischen Daten arbeitet.
00:20:05Vom zeitlichen Ablauf her
00:20:07existierte eine Information im letzten Jahr vielleicht noch gar nicht,
00:20:09aber man hat die Strategie so programmiert, dass sie
00:20:12bereits im Vorjahr auf Basis dieser Information handelt.
00:20:14Solche Fälle findet man gar nicht so selten.
00:20:15Das nennt man dann Look-ahead Bias.
00:20:18Ein klassisches Beispiel für diesen Fehler ist Folgendes:
00:20:21Nehmen wir an, wir befinden uns im September 2021.
00:20:24Da es schwierig ist, alle koreanischen Aktien zu testen,
00:20:27entscheidet sich ein Nutzer vielleicht: “Ich nehme nur die Top 100.”
00:20:29Das scheint logisch.
00:20:30Man filtert also die Top 100 der KOSPI-Unternehmen nach Marktkapitalisierung
00:20:34und führt mit diesen den Backtest durch.
00:20:35Zum Beispiel mit einer Strategie: “Kaufe, wenn das KGV Wert X hat.”
00:20:38Wenn man das dann so macht
00:20:39und über 10 Jahre testet,
00:20:41sieht die Rendite oft fantastisch aus.
00:20:42Aber was ist hier falsch gelaufen?
00:20:44Man hat die Top 100 nach dem Stand von September 2021 ausgewählt.
00:20:50Man hat also genau diese Unternehmen herausgepickt.
00:20:51Wenn man nun 10 Jahre zurückblickt, also ins Jahr 2011,
00:20:55dann tut man so, als hätte man im Jahr 2011 bereits gewusst,
00:20:59welche Firmen im Jahr 2021 zu den Top 100 gehören würden.
00:21:01Dass eine Firma zu den wertvollsten gehört, bedeutet ja meist,
00:21:03dass ihr Aktienkurs über die Jahre stetig gestiegen ist.
00:21:06Selbst wenn die Leute sonst vorsichtig sind,
00:21:08unterlaufen ihnen bei der Auswahl nach Marktkapitalisierung
00:21:11oftmals genau solche Fehler.
00:21:12In regards to thinking this way,
00:21:14Das passiert wirklich häufig.
00:21:15Ein weiteres Beispiel ist,
00:21:17wenn man Backtests auf Basis von Fundamentaldaten aus Geschäftsberichten macht.
00:21:21Jedes Unternehmen veröffentlicht seine Quartalszahlen
00:21:24an unterschiedlichen Tagen.
00:21:26Man muss also genau darauf achten, ob das Rebalancing
00:21:29oder der Kauf wirklich erst nach der Veröffentlichung stattfindet.
00:21:31Also ob der Handel korrekt simuliert wird.
00:21:33Oft wird ein Rebalancing am Monatsende simuliert,
00:21:36obwohl das Unternehmen die Zahlen erst Anfang des Folgemonats bekannt gegeben hat.
00:21:40Man nutzt also Wissen,
00:21:41das man zum Zeitpunkt des Handels eigentlich noch gar nicht hatte.
00:21:44Solche Details können sich leicht in einen Backtest einschleichen.
00:21:46Noch ein Beispiel wäre,
00:21:48wenn man den Handel auf Basis von Schlusskursen simuliert.
00:21:50Man geht also von einem Kauf zum Schlusskurs aus
00:21:52und führt ein tägliches Rebalancing durch.
00:21:54Aber der Schlusskurs steht erst fest, wenn der Tag vorbei ist.
00:21:57Wenn man nun im Backtest so tut,
00:22:00als hätte man bereits 5 Minuten vor Börsenschluss gekauft,
00:22:03könnte man so unbewusst
00:22:05Informationen aus der Zukunft vorwegnehmen.
00:22:07Dadurch entsteht eine Verzerrung.
00:22:09Der dritte Punkt ist nun extrem wichtig.
00:22:11Es geht darum, Überoptimierung (Overfitting) zu vermeiden.
00:22:13Man kann gar nicht oft genug betonen, wie wichtig das ist.
00:22:16Was bedeutet Überoptimierung?
00:22:18Das bedeutet, dass man ein Modell so baut,
00:22:19dass es nur für die vorliegenden Beispieldaten extrem gut funktioniert.
00:22:23Stellen wir uns vor, wir haben hier diese Stichprobe.
00:22:25Was wir eigentlich wissen wollen,
00:22:27ist die dahinterliegende Grundgesamtheit.
00:22:29Wir wollen die allgemeine Struktur
00:22:32der gesamten Datenmenge abschätzen.
00:22:34Falls jemand nicht weiß, was eine Grundgesamtheit ist,
00:22:36erkläre ich das kurz.
00:22:38Nehmen wir an, wir führen eine Umfrage
00:22:40zu einem Wahlergebnis durch.
00:22:41Wenn man die gesamte Bevölkerung befragt,
00:22:44hätte man eine perfekte Umfrage.
00:22:46Mit einer Genauigkeit von 100 %.
00:22:48Aber man kann eben nicht jeden fragen,
00:22:50weshalb man eine Stichprobe aus der Bevölkerung zieht.
00:22:53Man befragt nur einen Teil und nimmt an, dass diese Stichprobe repräsentativ ist.
00:22:58Dass sie die Grundgesamtheit widerspiegelt.
00:22:59Auf dieser Basis trifft man dann Schätzungen.
00:23:02Auch bei Finanzdaten sieht die eigentliche Grundgesamtheit
00:23:06vielleicht so aus wie eine bestimmte Verteilung,
00:23:08aus der wir uns ein paar Stichproben herausnehmen,
00:23:10um zu erraten, wie die Form der Grundgesamtheit wohl aussieht.
00:23:16Hier sieht man den Versuch, ein Modell an diese Form anzupassen.
00:23:20Ein Modell anzupassen bedeutet,
00:23:22dass man versucht, den Fehler zwischen der Stichprobe
00:23:25und der Trendlinie des Modells zu minimieren.
00:23:30Man sucht also die Linie mit der geringsten Abweichung.
00:23:30Aber wenn man ein so extrem verschlungenes,
00:23:34komplexes Modell verwendet,
00:23:37dann ist die Abweichung innerhalb dieser Beispieldaten gleich null.
00:23:39Die Linie berührt jeden einzelnen Punkt.
00:23:41Für diese spezifische Stichprobe ist es ein perfektes Modell
00:23:44ohne jeglichen Fehler.
00:23:47Aber bildet das wirklich die Grundgesamtheit korrekt ab?
00:23:51Wahrscheinlich nicht.
00:23:51Sobald man neue Daten testet, wird der Fehler riesig sein.
00:23:54Man muss das Modell also moderat anpassen,
00:23:58damit auch bei neuen Daten,” die hinzukommen,
00:24:00die Summe der Abweichungen insgesamt gering bleibt.
00:24:03Wenn man hingegen nur eine ganz simple Gerade
00:24:06darüberlegt,
00:24:08dann ist das “Underfitting” – also eine unzureichende Anpassung.
00:24:10Dann ist der Fehler schon in der Stichprobe selbst viel zu groß.
00:24:13Das Wichtigste bei jeder Modellierung ist es daher,
00:24:16ein gesundes Maß an Optimierung zu finden.
00:24:18Aber viele Leute, die Backtests machen,
00:24:20betrachten historische Daten als ihre einzige Stichprobe.
00:24:24Und innerhalb dieser Stichprobe versuchen sie dann,
00:24:26die Rendite künstlich zu maximieren,
00:24:29indem sie alle möglichen Regeln und Filter hinzufügen,
00:24:32nur um das Ergebnis so hoch wie möglich zu treiben.
00:24:35Zum Beispiel: Bei einem Backtest mit Daten von 2015 bis 2021
00:24:39ergibt sich, dass man bei einem KGV zwischen 13,75 und 17,23,
00:24:43einer Marktkapitalisierung zwischen 51,7 und 62,3 Mrd. Won,
00:24:46wenn man Aktien kauft, deren PBR unter 1,17 liegt,
00:24:50ist eine jährliche Rendite von 70 % möglich.
00:24:52Solch ein Backtesting-Ergebnis kam dabei heraus.
00:24:54Das ist offensichtlich reines Overfitting.
00:24:57It was over-optimized.
00:24:58Vielleicht war ein Unternehmen mit einem KGV von 17,24 dabei, dessen Rentabilität sehr schlecht war,
00:25:04das aber zufällig in diesen Daten enthalten war,
00:25:05oder die Marktkapitalisierung lag bei 51,5 Milliarden Won,
00:25:09was ein schlechtes Beispiel war, weshalb man die Grenze so festlegte.
00:25:12Wenn man so detailliert nur auf die Beispieldaten, also die Vergangenheitsdaten schaut,
00:25:16und versucht, die Rendite um jeden Preis zu maximieren,
00:25:19entsteht ein solches Modell.
00:25:21Wenn dann in der Zukunft Daten aus dieser Verteilung auftauchen,
00:25:25wird die Fehlerrate sehr hoch sein.
00:25:27Das ist der Punkt,
00:25:28aber schauen wir uns das noch etwas genauer an.
00:25:29Dies ist ebenfalls ein Beispiel für Überoptimierung.
00:25:31Wir versuchen, Rot und Blau
00:25:34durch eine Linie sauber zu trennen.
00:25:36Ein Modell für diese Linie.
00:25:37Die schwarze Linie hat es genau richtig gelernt,
00:25:40aber die grüne, zickzackförmige Linie
00:25:42basiert nur auf den sichtbaren blauen und roten Punkten.
00:25:46Sie hat sie perfekt getrennt.
00:25:48In diesen Beispieldaten
00:25:50ist es eine perfekte Linie mit null Fehlern.
00:25:52Aber in der tatsächlichen Grundgesamtheit dahinter,
00:25:55wo Blau vielleicht hier auftaucht
00:25:57und Rot plötzlich dort drüben erscheint,
00:25:59wenn also in der Zukunft neue Daten reinkommen,
00:26:03wird diese grüne Linie viele Fehler machen.
00:26:05Das lässt sich leicht vermuten.
00:26:07Wenn man sie also zu genau an die Vergangenheit anpasst,
00:26:10funktioniert sie in der Zukunft nicht mehr.
00:26:11Hier ist ein ähnliches Beispiel:
00:26:13Man hat detaillierte persönliche Daten von 100 Studenten gesammelt.
00:26:15Darauf basierend soll man unter den diesjährigen 100 Studenten
00:26:16diejenigen identifizieren, die gute Noten haben werden.
00:26:19Man könnte sagen: Der Nachname ist Sung,
00:26:20die Körpergröße liegt in diesem Bereich...
00:26:22Wenn man die Daten der letztjährigen Top-Studenten
00:26:23zu stark überoptimiert,
00:26:26und daraus die Erkennungsregeln ableitet,
00:26:28und diese dann auf die diesjährigen Studenten anwendet,
00:26:30kann das völlig absurd enden.
00:26:32Wenn man stattdessen einfach festlegt,
00:26:34dass Studenten mit mehr als X Lernstunden gut sind,
00:26:37und das auf die letztjährigen Daten anwendet,
00:26:39könnte es sein, dass die Genauigkeit
00:26:42geringer ist als bei den extrem detaillierten Regeln.
00:26:44Die Genauigkeit ist zwar etwas niedriger,
00:26:45aber die Wahrscheinlichkeit ist hoch,
00:26:47dass sie auch bei den diesjährigen Studenten noch genauso gut funktioniert.
00:26:49Wie kann man also dieses Problem der Überoptimierung mildern?
00:26:53Jedes Backtesting hat bis zu einem gewissen Grad ein Overfitting-Problem,
00:26:56es lässt sich nie ganz eliminieren.
00:27:00Nehmen wir an, eine Strategie war in den letzten 5 Jahren profitabel.
00:27:01Woher wissen wir, ob sie auch in den nächsten 3 Jahren funktioniert?
00:27:06Die einzige perfekte Antwort darauf
00:27:08wäre, sie einfach 3 Jahre lang zu traden.
00:27:11Aber das ist eine Ex-post-Betrachtung.
00:27:12Wenn man 3 Jahre lang tradet und nur Verluste macht,
00:27:15ist das sinnlos.
00:27:17Eine Methode ist daher die Nutzung von
00:27:17also Daten außerhalb der Stichprobe.
00:27:19It's called Out of Sample Data.
00:27:21Ich weiß nicht, ob die Übersetzung ganz korrekt ist,
00:27:23aber man nennt sie meist OOS-Daten.
00:27:25Ein Beispiel:
00:27:27Zwischen September 2015 und September 2021,
00:27:28also aus 6 Jahren Daten, eine gute Strategie zu finden,
00:27:31und dann ab Oktober 2021 sofort damit zu handeln, wäre nicht ideal.
00:27:33Stattdessen macht man es so:
00:27:34Man nutzt die 6 Jahre von September 2014 bis September 2020,
00:27:38um eine profitable Strategie zu finden,
00:27:39und testet diese dann noch einmal für den Zeitraum
00:27:42von Oktober 2020 bis September 2021.
00:27:44Man sucht also in den 6 Jahren ab 2014
00:27:46beim Backtesting nach einer guten Rendite,
00:27:49stellt sich vor, man würde ab Oktober 2020 echt handeln,
00:27:52und macht für dieses eine Jahr ein Backtesting.
00:27:55Wenn das Ergebnis gut ist,
00:27:57startet man ab Oktober 2021 mit dem echten Handel.
00:28:02Natürlich bringt diese Aufteilung
00:28:04auch wieder andere Probleme mit sich,
00:28:06die wir gleich noch besprechen werden.
00:28:09Der Punkt, den ich vermitteln möchte, ist:
00:28:10Wenn man diese Menge an Beispieldaten hat,
00:28:12trennt man einen Teil davon ab.
00:28:13Man legt ihn beiseite.
00:28:16In diesem Teil sucht man intensiv nach Strategien,
00:28:18macht viel Backtesting und optimiert sie.
00:28:19Man geht aber nicht sofort in den Live-Handel.
00:28:21Man nimmt die Daten, die man nicht
00:28:23für die Strategiefindung genutzt hat,
00:28:24stellt sich vor, es sei der Ernstfall,
00:28:26und wendet sie dort an.
00:28:28Das nennt man die Nutzung von Daten außerhalb der Stichprobe,
00:28:30also OOS-Daten.
00:28:31In der Data Science spricht man von
00:28:33Trainingsdaten, Validierungsdaten,
00:28:34Train-Daten, Test-Daten,
00:28:35oder Development-Daten.
00:28:38Diese Fachbegriffe sind nicht so wichtig.
00:28:39Punkt 4 knüpft an Punkt 3 an:
00:28:41Man hat nur eine einzige Chance zur Validierung.
00:28:42Das ist extrem wichtig.
00:28:44Man kann es gar nicht oft genug betonen,
00:28:45wie entscheidend dieser Satz ist.
00:28:46Lassen Sie uns dieses Testing mit Out-of-Sample-Daten
00:28:48noch etwas vertiefen.
00:28:50Für Sample-Daten und Out-of-Sample-Daten
00:28:53gibt es viele Namen,
00:28:58aber in diesem Video
00:29:01nennen wir sie einheitlich Trainings- und Validierungsdaten.
00:29:03Wie im vorigen Beispiel gesehen,
00:29:04sind die Daten von 2014 bis 2020
00:29:06die Trainingsdaten.
00:29:08Trainingsdaten sind also jene,
00:29:09die zum Finden der Strategie genutzt wurden.
00:29:11Nachdem die Strategie gefunden wurde,
00:29:12validiert man sie.
00:29:13Das Backtesting für das letzte Jahr
00:29:16nennen wir dann einfach
00:29:18Validierungsdaten.
00:29:19Was zeigt uns nun diese Grafik?
00:29:20Sie zeigt die Komplexität der Regeln oder Modelle.
00:29:22Je weiter man nach rechts geht,
00:29:24desto komplexer wird das Modell.
00:29:26Also zum Beispiel ab 173 cm
00:29:28bis 173,25 cm...
00:29:30Je genauer man die Regeln so festlegt,
00:29:32desto höher steigt die Komplexität.
00:29:35Und das hier ist der Vorhersagefehler.
00:29:36Es zeigt also,
00:29:38wie groß die Abweichung im Praxiseinsatz ist.
00:29:40Wie man sieht, sinkt bei den Trainingsdaten
00:29:42der Fehler,
00:29:44je komplexer das Modell wird.
00:29:45Wie vorhin bei den Stichproben,
00:29:47wo die Linie so zickzackförmig verlief.
00:29:49Je komplexer man es macht,
00:29:50desto eher kann man den Fehler in diesen Daten auf null senken.
00:29:52Wenn man das Modell also extrem komplex gestaltet,
00:29:53geht der Fehler gegen null.
00:29:54Aber wenn man dieses trainierte Modell
00:29:55mit den beiseitegelegten Validierungsdaten prüft,
00:29:58wie sieht dann der Fehler aus?
00:29:59Wenn das Modell anfangs sehr einfach ist,
00:30:02etwa eine gerade Linie,
00:30:03oder wenn man Underfitting betreibt,
00:30:05sind die Fehlerwerte ähnlich.
00:30:06Aber je komplexer das Modell oder die Regeln werden,
00:30:08desto weiter sinkt zwar der Fehler
00:30:12innerhalb der Trainingsdaten,
00:30:14aber bei den Validierungsdaten
00:30:16erreicht der Fehler einen Tiefpunkt und steigt wieder an,
00:30:18sobald es zu komplex wird.
00:30:19Um es mit Backtesting beim Investieren zu vergleichen:
00:30:21Man lässt unzählige Backtests laufen,
00:30:23legt sehr detaillierte Regeln fest,
00:30:24testet immer und immer wieder
00:30:26und verfeinert
00:30:28Parameter wie zum Beispiel,
00:30:31dass das KGV über einem bestimmten Wert liegen muss.
00:30:33Je detaillierter und komplexer man das macht,
00:30:35desto höher steigt die Rendite in den Vergangenheitsdaten.
00:30:37Da dies eine Fehlergrafik ist, ist niedriger besser.
00:30:40Ein Backtesting, das zu stark an die Vergangenheit angepasst ist,
00:30:42liefert also immer bessere Renditen, je mehr man es anpasst.
00:30:45Aber wenn man das in der Praxis anwendet,
00:30:47sinkt ab einem gewissen Punkt
00:30:51die reale Rendite,
00:30:52je komplexer die Regeln sind.
00:30:55Ich habe jetzt gesagt,
00:30:56dass ein sinkender Fehler eine bessere Rendite bedeutet
00:30:59und ein steigender Fehler eine schlechtere Rendite.
00:31:02Genau genommen
00:31:05ist ein größerer Fehler nicht exakt dasselbe
00:31:08wie eine niedrigere Rendite.
00:31:12Je schlechter man das Backtesting macht
00:31:15und je mehr Overfitting man betreibt,
00:31:17desto größer wird die Lücke, also der Fehler,
00:31:18zwischen Backtesting-Rendite und zukünftiger Rendite.
00:31:21Dieser Fehler könnte theoretisch zufällig
00:31:23zu einer höheren
00:31:24oder niedrigeren Rendite führen.
00:31:26In der Regel führt ein solcher Fehler jedoch
00:31:28zu einer schlechteren Rendite in der Praxis.
00:31:31Denn bei der Anpassung an die Vergangenheit
00:31:32hat man alles so hingedreht,
00:31:33dass die Rendite maximal ist.
00:31:34Wenn dann ein Fehler auftritt,
00:31:37wird er meist nach unten ausschlagen.
00:31:39Wie sollte man also Trainings- und Validierungsdaten
00:31:42für das Backtesting aufteilen?
00:31:45Nehmen wir als Beispiel den Zeitraum von 2011 bis 2021.
00:31:47Man könnte die ersten 8 Jahre zum Trainieren nutzen,
00:31:49um verschiedene Strategien zu testen.
00:31:50Und die restlichen 2 Jahre zur Validierung.
00:31:51Aber im Allgemeinen ist es so, dass bei solchen Fehlern
00:31:53die tatsächliche Rendite in der Praxis schlechter ausfällt.
00:31:55Denn beim Anpassen an historische Daten
00:31:57wurde alles so hingebogen, dass die Rendite
00:31:59maximal in die Höhe getrieben wurde.
00:32:00Wenn also bei dieser Rendite eine Abweichung auftritt,
00:32:02dann meistens nach unten.
00:32:03Wie sollte man also die Trainings- und Validierungsdaten
00:32:06für das Backtesting aufteilen?
00:32:08Angenommen, man trainiert mit 11 Jahren an Daten
00:32:11von 2011 bis 2021 und wendet es ab nächstem Jahr an,
00:32:15dann bedeutet das, dass man keine separaten Validierungsdaten nutzt.
00:32:18Man verwendet alles als Trainingsdaten und legt einfach los,
00:32:21was absolut nicht zu empfehlen ist.
00:32:22Die Aufteilung, von der ich vorhin sprach, sieht so aus:
00:32:25Man nutzt 10 Jahre als Trainingsdaten zum Lernen,
00:32:28validiert das Ganze dann mit dem letzten Jahr (2021)
00:32:31und wendet es erst ab 2022 in der Praxis an.
00:32:34Aber wie ich gleich noch erläutern werde,
00:32:36ist auch das nicht unbedingt die beste Methode.
00:32:38Welche verbesserten Methoden gibt es sonst noch?
00:32:40Es gibt das sogenannte “Walk-Forward-Testing”.
00:32:43Das funktioniert folgendermaßen:
00:32:44Man trainiert zum Beispiel ab 1999 für drei Jahre,
00:32:46optimiert dort die Parameter
00:32:49und validiert das Ergebnis dann für ein Jahr.
00:32:52Danach schiebt man das Zeitfenster rollierend weiter.
00:32:55Wenn man Strategien auf diese Weise entwickelt,
00:32:58kann man selbst sehr einfache Modelle prüfen.
00:33:01Ich halte es zwar für unsinnig, ein Backtesting
00:33:04allein auf Basis des KGV (PER) zu machen,
00:33:05aber nehmen wir mal an, es gäbe eine Strategie, Aktien unter einem gewissen KGV zu kaufen.
00:33:08Wenn man über 10 Jahre hinweg
00:33:11den KGV-Wert optimiert,
00:33:13wären in jedem einzelnen Jahr andere KGV-Kriterien besser gewesen.
00:33:17Man würde sich dann wohl für einen soliden Durchschnittswert entscheiden.
00:33:20Aber wenn man das Zeitfenster eingrenzt,
00:33:22etwa basierend auf den letzten drei Jahren, um den KGV-Wert festzulegen,
00:33:26und so den Test durchführt,
00:33:28kann man die Parameter viel flexibler
00:33:30an den Lauf der Zeit anpassen.
00:33:32So führt man diese Art von Tests durch.
00:33:35Man kann so vorgehen, oder man nutzt
00:33:37das sogenannte “K-Fold Cross-Validation” (K-Fold CV).
00:33:38Dabei wird eine Kreuzvalidierung durchgeführt.
00:33:39Und das funktioniert so:
00:33:41Der K-Wert gibt an, in wie viele Teile man die Daten splittet.
00:33:45In dieser Grafik wäre der K-Wert zum Beispiel 5.
00:33:47Bei K=5 teilt man die Daten in fünf gleich große Blöcke auf.
00:33:50Man trainiert das Modell auf vier dieser Blöcke
00:33:53und prüft dann im fünften Block (dem Validierungsjahr), wie hoch die Rendite ist.
00:33:56Danach trainiert man wieder auf vier anderen Blöcken
00:33:59und validiert es für das jeweils verbleibende Jahr.
00:34:01Diesen Vorgang wiederholt man und bildet am Ende den Durchschnitt der Renditen.
00:34:05Man mittelt also die erzielten Erträge.
00:34:09Man geht davon aus, dass dieser Durchschnitt der zu erwartenden Rendite entspricht.
00:34:12Das ist die Grundidee dahinter.
00:34:13Ansonsten, wenn man zum Beispiel Daten der letzten 10 Jahre nutzt,
00:34:16kann man auch mit den Daten der geraden Jahre trainieren
00:34:19und diese mit den Daten der ungeraden Jahre validieren.
00:34:22All diese Methoden haben ihre Vor- und Nachteile.
00:34:23Der große Vorteil hierbei ist jedoch,
00:34:26dass die Parameter gegenüber einem Regimewechsel am Markt stabil bleiben.
00:34:30Was bedeutet das konkret?
00:34:31Wenn eine Finanzkrise oder die Pandemie ausbricht,
00:34:33ändert sich die grundlegende Charakteristik des Marktes.
00:34:35Nehmen wir an, 2008 bricht die Finanzkrise aus,
00:34:39aber man hat nur mit Daten von 1998 bis 2007 trainiert,
00:34:43um die besten Renditebringer zu finden.
00:34:45Wenn man das dann validiert,
00:34:46wird es nicht funktionieren, da sich das Marktumfeld völlig verändert hat.
00:34:49Die Verteilungen verschieben sich,
00:34:51und die Situation nach dem Crash
00:34:52wird von den Mustern davor nicht mehr abgedeckt.
00:34:55Durch eine solche Aufteilung der Daten
00:34:57kann man selbst bei solch extremen Ereignissen,
00:35:00die das Marktgefüge und alle Muster komplett umwerfen,
00:35:02etwas stabiler und verlässlicher validieren.
00:35:06Deshalb werden solche Methoden eingesetzt.
00:35:08Dabei muss man aber, wie erwähnt, extrem vorsichtig sein, nicht “in die Zukunft zu schauen”.
00:35:11Man muss hier wirklich aufpassen.
00:35:13Es hängt natürlich vom Handelsintervall ab,
00:35:16aber nehmen wir an, man handelt monatlich.
00:35:18Wenn in den Trainingsdaten
00:35:19Informationen aus dem Jahr 2014 enthalten sind,
00:35:22könnten je nach Regeln oder Daten im Jahr 2013
00:35:26Dinge einfließen, die man eigentlich erst 2014 wissen konnte,
00:35:28und diese könnten sich in die Validierungsdaten mischen.
00:35:30Dann würde die Rendite der Validierung künstlich aufgebläht.
00:35:34Weil das Modell quasi schon mit Wissen aus der Zukunft trainiert wurde.
00:35:36Diesen Punkt muss man also ganz besonders beachten.
00:35:39Ich habe das jetzt sehr grob zusammengefasst,
00:35:41aber im Bereich des maschinellen Lernens
00:35:44gibt es auch noch sogenannte Hyperparameter.
00:35:46Normalerweise passt das Modell die Parameter selbst an,
00:35:50um den Fehler in den Beispieldaten zu minimieren.
00:35:54Hyperparameter hingegen sind Werte, die der Mensch festlegen muss.
00:35:57Nehmen wir als Beispiel eine Regressionsanalyse.
00:35:59Da muss man entscheiden: Nutze ich eine Gerade oder eine Kurve?
00:36:03Also wie komplex die Formel
00:36:07bzw. das Modell sein soll,
00:36:09entscheidet der Mensch.
00:36:11Die Anzahl solcher Parameter nennt man Hyperparameter.
00:36:15Sobald diese feststehen, wird das Modell
00:36:18die Kurve so an die Daten anpassen,
00:36:22dass der Fehler minimiert wird (Fitting).
00:36:23Die Steigung oder der Schnittpunkt mit der Achse,
00:36:28die das Modell anhand der Daten lernt, nennt man dann Parameter.
00:36:33Man muss natürlich auch verschiedene Hyperparameter ausprobieren.
00:36:36Deshalb teilt man die Daten nicht einfach nur in Training und Test auf,
00:36:40sondern man zweigt noch einen dritten Teil ab, die sogenannten “Dev-Daten”.
00:36:42Hier führt man die erste Optimierung durch.
00:36:45Die Hyperparameter werden anhand dieser Daten optimiert,
00:36:48und erst danach wird mit den Testdaten final validiert.
00:36:51Diejenigen, die sich mit Machine Learning auskennen, wissen das bereits.
00:36:55Und wer es nicht weiß, wird es durch diese kurze Erklärung allein wohl auch nicht verstehen,
00:36:58daher gehen wir einfach weiter.
00:37:00Aber bei all diesen Aufgaben gibt es eine Sache,
00:37:04die man gar nicht oft genug betonen kann, weil sie so wichtig ist.
00:37:08Es geht um die Validierungsdaten.
00:37:10Man darf die Validierungsdaten niemals, absolut niemals, ein zweites Mal ansehen.
00:37:15Zumindest nicht deren Ergebnisse.
00:37:16Man trainiert auf den Trainingsdaten und führt etliche Backtests durch, um eine Strategie mit hoher Rendite zu finden.
00:37:22Dann hat man eine Strategie, die in der Vergangenheit super funktioniert hat.
00:37:26Um zu prüfen, ob sie auch in der Realität so gut sein wird,
00:37:31lässt man sie über einen Zeitraum laufen, der nicht im Training enthalten war.
00:37:38Aber diesen Test darf man kein zweites Mal machen.
00:37:41Man lässt ihn genau einmal laufen. Wenn die Rendite dann schlecht ist,
00:37:45muss man die gesamte Strategie verwerfen, egal wie viele Jahre Arbeit man investiert hat
00:37:50und wie hart die Entwicklung war.
00:37:52Warum? Weil man auch in der Realität nur eine einzige Chance hat, Gewinn oder Verlust zu machen.
00:37:57Man kann die Zeit schließlich nicht zurückdrehen.
00:37:58Wenn man aber aus Enttäuschung über das schlechte Ergebnis der Validierung
00:38:03wieder zurück zum Training geht, die Parameter ein wenig anpasst
00:38:07und es noch mal versucht, bis die Validierungsrendite gut aussieht,
00:38:10dann sind die Validierungsdaten in diesem Moment keine Validierungsdaten mehr,
00:38:14sondern sie sind de facto zu Trainingsdaten geworden.
00:38:16Man hat die Parameter schließlich unter Einbeziehung der Validierungsdaten optimiert.
00:38:21Dadurch gibt es keinerlei Garantie mehr dafür,
00:38:26wie gut die Strategie in der echten Praxis abschneiden wird.
00:38:29Dieser Punkt ist also extrem wichtig.
00:38:31Ein weiterer wichtiger Aspekt beim Backtesting, der daran anknüpft,
00:38:34ist die Erkenntnis, dass sich Zeiten ändern – das Konzept des “Market Regime”.
00:38:37Lassen Sie mich Ihnen eine Frage stellen.
00:38:39Was ist aussagekräftiger: Ein Backtest über 20 Jahre
00:38:42oder einer über 3 Jahre?
00:38:44Da ich die Überschrift schon so gewählt habe, liegt die Antwort auf der Hand.
00:38:47Viele Börsenneulinge glauben, je länger der Backtest,
00:38:50desto besser – frei nach dem Motto: Je mehr Daten, desto besser.
00:38:54Aber wenn ich mich zwischen diesen beiden entscheiden müsste,
00:38:57würde ich – je nach Zeithorizont und Handelsfrequenz –
00:39:00zwar sagen, dass es Ausnahmen gibt,
00:39:01aber in den meisten Fällen würde ich die 3 Jahre wählen.
00:39:03Grundsätzlich gilt: Mehr Daten sind besser.
00:39:06Aber diese Daten müssen aus der gleichen Verteilung stammen.
00:39:09Datenmengen sind super, solange sie relevant sind.
00:39:11Es hilft jedoch nichts, wenn man veraltete Daten beimischt, während sich das Umfeld längst geändert hat.
00:39:17Das Problem bei zu langen Backtesting-Zeiträumen
00:39:20ist eben die Veränderung der Marktcharakteristik.
00:39:22Dies hier ist, glaube ich, ein Graph der Realrenditen
00:39:26oder zumindest ein Graph im Zusammenhang mit den Zinsen.
00:39:28Man sieht hier deutlich, dass das Konzept eines “angemessenen Zinsniveaus”
00:39:33zwar schwankt,
00:39:34aber je nach System extremen Sprüngen unterliegt.
00:39:38Damals lag das Niveau hier, vielleicht war das die Zeit der Ölkrise,
00:39:41jedenfalls war es in dieser Phase so.
00:39:45Und seit den 80er Jahren
00:39:47hat sich ein völlig anderes Zinsniveau etabliert.
00:39:51Angenommen, man betreibt Anleihenhandel.
00:39:53Wenn man seine Strategie basierend auf Daten aus jener alten Phase lernt
00:39:57und sie dann in der heutigen Zeit anwendet,
00:39:59wird man scheitern, weil sich das Marktregime geändert hat.
00:40:02Eine Strategie, die dort profitabel war, basierend auf jenen Daten,
00:40:07wird hier einfach nicht mehr funktionieren.” Das nennt man “Market Regime Change”.
00:40:08Das nennt man einen Wechsel des Marktregimes.
00:40:11Eine Veränderung des Marktwesens oder des Systems.
00:40:14Solche Veränderungen der Marktcharakteristik
00:40:17können zum Beispiel durch neue Marktteilnehmer entstehen.
00:40:20Nach der Pandemie gab es einen massiven Zustrom von Privatanlegern,
00:40:23was zu Ereignissen wie dem GameStop-Hype führte.
00:40:25Vor Corona funktionierten bestimmte
00:40:27Leerverkaufs-Strategien (Short Selling)
00:40:30für spezialisierte Hedgefonds extrem gut.
00:40:32Das waren sehr erfolgreiche Strategien,
00:40:34aber durch den Wandel des Marktes
00:40:37führten sie plötzlich fast bis zum Bankrott.
00:40:39Dann gibt es Änderungen durch Gesetze und Regulierungen.
00:40:43Nach der Finanzkrise wurde der Eigenhandel bei Investmentbanken verboten,
00:40:45und auch der Derivatemarkt veränderte sich durch neue Vorschriften.
00:40:49Strategien, die auf Daten von vor der Finanzkrise basieren,
00:40:50werden danach wahrscheinlich
00:40:52nicht mehr gut funktionieren.
00:40:54Es gibt auch externe Ereignisse,
00:40:55wie die Ölkrise, die so gewaltig sind,
00:40:57dass sie den gesamten Markt umkrempeln.
00:40:59Solche makroökonomischen Einschnitte verändern alles.
00:41:01Ebenso wie langfristige makroökonomische Trends.
00:41:03Während die Verschuldungsquoten immer weiter stiegen,
00:41:06sank das Zinsniveau von einst hohen Werten
00:41:08immer tiefer, bis wir in einer Ära der extremen Niedrigzinsen landeten.
00:41:11In diesem Zusammenhang trägt auch die quantitative Lockerung
00:41:13zu diesen niedrigen Zinssätzen bei,
00:41:15was dazu führte, dass Wachstumsaktien in den letzten 10 Jahren
00:41:17plötzlich eine enorme Outperformance erzielten.
00:41:19Wenn man jedoch mit Trainingsdaten aus der Zeit vor der Lockerung
00:41:22eine profitable Strategie entwickelt hat,
00:41:24hätte man vielleicht verstärkt auf Substanzwerte (Value Stocks) gesetzt.
00:41:25Dann wäre die Performance in den folgenden 10 Jahren
00:41:27natürlich sehr schlecht ausgefallen.
00:41:28Hinzu kommen das Aufkommen neuer Technologien
00:41:30oder Veränderungen in der Industriestruktur.
00:41:32Solche Faktoren spielen ebenfalls eine Rolle.
00:41:33Daher stellt sich bei einem Backtesting über 20 Jahre die Frage,
00:41:35ob Daten aus dem Jahr 2001 überhaupt noch aussagekräftig sind.
00:41:38Natürlich hängt ein “Market Regime Change” davon ab,
00:41:40welche Faktoren man genau betrachtet.
00:41:42Das variiert je nach Ansatz.
00:41:43Letztendlich muss man schauen, welche Logik,
00:41:45Regeln oder Modelle der Strategie zugrunde liegen,
00:41:47welche spezifischen Faktoren berücksichtigt
00:41:49und welche Daten verwendet werden.
00:41:51Basierend darauf muss man beurteilen,
00:41:52ob sich das Regime dieser spezifischen Daten
00:41:53verändert hat oder nicht.
00:41:55Es gibt Daten, deren Eigenschaften sich
00:41:56sehr schnell, sogar auf Monatsbasis, ändern.
00:41:58Das ist sehr dynamisch.
00:41:59Andererseits gibt es Daten, die über 10 bis 15 Jahre
00:42:01hinweg sehr stabil bleiben.
00:42:03Da die Zyklen jeweils unterschiedlich sind,
00:42:05kann man nicht pauschal sagen,
00:42:07dass nur weil die Pandemie ausgebrochen ist,
00:42:09alle vorherigen Muster
00:42:09völlig bedeutungslos geworden sind.
00:42:12Aber wenn man einen Zeitraum von 20 Jahren betrachtet,
00:42:14und die Daten so weit zurückreichen,
00:42:15ist das definitiv problematisch.
00:42:17Das kann man so festhalten.
00:42:18Wenn man versucht, aus sehr alten Daten
00:42:20Schlüsse für die Zukunft zu ziehen,
00:42:22obwohl sich das Marktzustand (Regime)
00:42:23zwischendurch geändert hat,
00:42:24wird es schwierig. Dennoch,
00:42:25wenn weit zurückliegende Daten
00:42:29die aktuelle Situation widerspiegeln,
00:42:30können sie durchaus wieder nützlich sein.
00:42:32Manche Leute behaupten zum Beispiel,
00:42:33dass die heutige Zeit den 1940er Jahren ähnelt.
00:42:35Das wird oft als Vergleich herangezogen.
00:42:37Aber das nur am Rande.
00:42:38Quant-Trading ist inzwischen
00:42:41sehr weit verbreitet,
00:42:42auch unter Privatanlegern.
00:42:44Die Schwachstelle bei langfristigen
00:42:45Quant-Investments liegt jedoch darin,
00:42:47dass es bei der Anwendung quantitativer Methoden
00:42:49auf lange Sicht extrem schwierig ist,
00:42:51genügend Daten zu sammeln und gleichzeitig
00:42:53Regime-Wechsel rechtzeitig zu umgehen.
00:42:55Nehmen wir eine algorithmische Handelsstrategie,
00:42:57die auf Minutenbasis arbeitet.
00:42:59In einer Stunde
00:43:01fallen 60 Datenpunkte an.
00:43:02Da eine Stunde 60 Minuten hat,
00:43:03sind das 60 Datenpunkte.
00:43:04Nehmen wir an,
00:43:05es handelt sich um einen 24-Stunden-Future-Handel.
00:43:08Multipliziert mit 24
00:43:09ergeben sich 1.440 Punkte.
00:43:10Stimmt das?
00:43:10Ja, 1.440 Datenpunkte pro Tag.
00:43:12Wenn man 1.440 Punkte pro Tag hat
00:43:15und bei 5 Handelstagen pro Woche von etwa 250
00:43:17Handelstagen im Jahr ausgeht,
00:43:20kommt man auf über 300.000
00:43:21Datenpunkte pro Jahr.
00:43:23So viele Daten erhält man in nur einem Jahr.
00:43:25Schon mit einem Jahr an Daten
00:43:26verfügt man über mehr als 300.000 Einheiten.
00:43:29Auf dieser Basis lässt sich eine
00:43:32signifikante Validierung durchführen
00:43:33und man kann komplexere Modelle verwenden.
00:43:35Das ist durchaus machbar.
00:43:36Aber betrachten wir eine Rebalancing-Strategie,
00:43:37die nur einmal im Monat handelt.
00:43:39Dann hat man nur 12 Datenpunkte pro Jahr.
00:43:41Selbst nach 20 Jahren
00:43:42sind es gerade einmal 240 Punkte.
00:43:44Da man die Datenmenge nicht über die Zeitachse strecken kann,
00:43:47versucht man, verschiedene Aktien einzubeziehen,
00:43:49um das Spektrum zu erweitern
00:43:51und statistische Signifikanz zu gewinnen.
00:43:53Doch auf der Zeitachse
00:43:54bleibt es schwer, Regime-Wechsel zu vermeiden.
00:43:57Das ist eine enorme Herausforderung.
00:43:58Nach dem Ausbruch der Pandemie haben viele Quants,
00:44:00wie zum Beispiel Inigo Fraser-Jenkins,
00:44:02der – soweit ich weiß – Leiter der Quant-Abteilung
00:44:05eines sehr namhaften Unternehmens ist,
00:44:09erklärt, warum sie
00:44:11keine “Quants” mehr sind.
00:44:13Der Kern dieser Aussage ist,
00:44:15dass Quants die Zukunft basierend auf Mustern der Vergangenheit vorhersagen.
00:44:19Wenn jedoch ein Ereignis
00:44:20wie die Pandemie eintritt, werden alte Muster wertlos.
00:44:23Bei einem solchen Regime-Wechsel
00:44:25sind die Möglichkeiten eines Quants stark begrenzt.
00:44:28Man spricht sogar von einer
00:44:30existenziellen Krise der Quants.
00:44:31Im letzten Jahr lief es für Quants generell schlecht.
00:44:34Es gab zwar einige Ausnahmen,
00:44:36aber im Durchschnitt war die Performance sehr schwach.
00:44:38Wir haben jetzt etwa die Hälfte geschafft.
00:44:40Da bereits anderthalb Stunden vergangen sind,
00:44:43beenden wir hiermit den ersten Teil.
00:44:45Morgen werden wir in Teil 2 die Punkte 6 bis 10 besprechen,
00:44:49die Vorteile und Grenzen aufzeigen
00:44:50und einen Lehrplan für das Quant-Studium
00:44:52vorstellen.
00:44:54Wir sehen uns in Teil 2 wieder.
00:44:55Vielen Dank.

Key Takeaway

Quant-Investing erfordert eine extrem kritische Auseinandersetzung mit Datenfehlern und statistischen Verzerrungen, da ein erfolgreiches Backtesting ohne strikte wissenschaftliche Disziplin lediglich eine wertlose Illusion vergangener Renditen darstellt.

Highlights

Unendlich viele profitable Muster existieren in historischen Daten, aber die Wiederholung in der Zukunft ist nicht garantiert.

Der Survivor Bias verzerrt Backtesting-Ergebnisse massiv, wenn pleitegegangene Unternehmen ignoriert werden.

Look-ahead Bias führt zu unrealistischen Renditen durch die Nutzung von Informationen, die zum Handelszeitpunkt nicht verfügbar waren.

Überoptimierung (Overfitting) erschafft Modelle, die perfekt zur Vergangenheit passen, aber in der realen Marktphase versagen.

Die Validierung einer Strategie mit Out-of-Sample-Daten darf nur ein einziges Mal durchgeführt werden, um wissenschaftliche Integrität zu wahren.

Ein Wechsel des Marktregimes (Market Regime Change) macht alte Datenmuster für die aktuelle Handelsumgebung oft wertlos.

Timeline

Einleitung und die Gefahren des Quant-Marketings

Der Sprecher Wall Street Ajae erklärt seine Motivation, dieses Video aufgrund besorgniserregender Entwicklungen im Bereich des Quant-Investing-Marketings zu drehen. Er warnt davor, dass viele Kurse und Dienste Backtesting beschönigt darstellen und Anfänger durch unwissenschaftliche Versprechen von Zinseszinsen in die Irre führen. Etwa 15 % seiner Abonnenten betreiben Quant-Trading, weshalb er 10 kritische Punkte zur Fehlervermeidung vorstellen möchte. Das Ziel ist es, Privatanleger vor massiven finanziellen Verlusten und Zeitverschwendung durch fehlerhafte Methoden zu schützen. Er betont dabei seine eigene Verantwortung als Finanz-YouTuber und distanziert sich von persönlichen Angriffen auf andere Anbieter.

Klassifizierung der Quants und der Investmentprozess

In diesem Abschnitt werden verschiedene Arten des Quant-Tradings nach ihrer zeitlichen Dimension und Methodik klassifiziert. Dies umfasst Hochfrequenzhandel (HFT), statistische Arbitrage wie Pair Trading sowie langfristiges Factor Investing und moderne 'Quantamental'-Ansätze unter Einsatz von Big Data. Der allgemeine Prozess wird als vierstufiger Zyklus aus Hypothesenbildung, Backtesting, Live-Trading und Risikomanagement beschrieben. Der Sprecher stellt fest, dass Quant-Methoden seit Mitte der 2010er Jahre durch Plattformen wie Quantopian für Privatanleger demokratisiert wurden. Dennoch bleibt die Unterscheidung zwischen institutionellen Standards und vereinfachten privaten Ansätzen für den Erfolg entscheidend.

Das Paradoxon unendlicher Muster und die Zauberformel

Der Sprecher erläutert das mathematische Phänomen, dass in historischen Daten unendlich viele profitable Muster gefunden werden können, was jedoch kein Garant für zukünftige Gewinne ist. Als praktisches Beispiel wird die 'Magic Formula' von Joel Greenblatt analysiert, die nach ihrer Veröffentlichung hinter dem Markt zurückblieb. Dies liegt vor allem daran, dass Märkte effizienter werden und spezifische 'Edges' oder Vorteile mit der Zeit verschwinden. Die Suche nach einer Strategie, die sowohl in der Vergangenheit als auch in der Zukunft funktioniert, wird als Suche nach der Nadel im Heuhaufen beschrieben. Sogar hochprofessionelle Plattformen wie Quantopian scheiterten letztlich an der praktischen Umsetzung dieser Herausforderung.

Datenqualität und der fatale Survivorship Bias

Der erste große Fehlerpunkt im Quant-Investing betrifft die blinde Gläubigkeit gegenüber unsauberen Daten von kostenlosen Anbietern wie Yahoo oder Google. Besonders hervorgehoben wird der Survivorship Bias (Überlebenden-Verzerrung), illustriert durch das berühmte Beispiel der Einschusslöcher an Kampfflugzeugen aus dem Weltkrieg. Wenn man nur heute existierende Unternehmen wie Apple für einen 20-jährigen Backtest wählt, ignoriert man die unzähligen gescheiterten Firmen der 80er Jahre. Dies führt zu künstlich aufgeblähten Renditen, die in der Realität niemals hätten erzielt werden können. Sauberes Backtesting muss daher zwingend alle Unternehmen berücksichtigen, die zu Beginn des Testzeitraums am Markt aktiv waren.

Look-ahead Bias und die Falle der Überoptimierung

Der zweite und dritte Fehlerpunkt behandeln den Look-ahead Bias und das Overfitting. Beim Look-ahead Bias fließen Informationen in den Test ein, die zum simulierten Handelszeitpunkt noch gar nicht bekannt waren, wie etwa verspätete Quartalsberichte oder eine Auswahl der heute größten Unternehmen. Overfitting beschreibt den Versuch, ein Modell so komplex zu gestalten, dass es die historische Stichprobe perfekt ohne Fehler abbildet. Ein solches Modell verliert jedoch jegliche Vorhersagekraft für die Grundgesamtheit und zukünftige Marktdaten. Der Sprecher warnt eindringlich davor, zu viele Filter und spezifische Parameter wie exakte KGV-Grenzwerte zu nutzen, nur um die Backtest-Kurve zu verschönern.

Wissenschaftliche Validierung und Walk-Forward-Methoden

Um Overfitting zu vermeiden, wird die Nutzung von Out-of-Sample-Daten (OOS) und Trainings- sowie Validierungssätzen erklärt. Der Sprecher stellt fortgeschrittene Techniken wie das Walk-Forward-Testing vor, bei dem Zeitfenster rollierend verschoben werden, um Parameter dynamisch anzupassen. Auch die K-Fold Cross-Validation wird als Methode genannt, um die Stabilität eines Modells über verschiedene Datenblöcke hinweg zu prüfen. Diese Methoden helfen dabei, Strategien zu entwickeln, die robuster gegenüber Veränderungen sind. Ziel ist es, ein Modell zu finden, das nicht nur auf die Vergangenheit fixiert ist, sondern eine allgemeingültige Marktlogik abbildet.

Die eiserne Regel der Validierung und Marktregime-Wechsel

Ein kritischer Punkt ist die Regel, dass Validierungsdaten niemals ein zweites Mal für Anpassungen genutzt werden dürfen, da sie sonst faktisch zu Trainingsdaten werden. Der Sprecher betont, dass man in der Realität nur eine Chance hat und eine enttäuschende Validierung zum Verwerfen der Strategie führen muss. Zudem wird das Konzept des 'Market Regime Change' eingeführt, bei dem sich die Marktcharakteristik durch Zinswenden, Krisen oder neue Regulierungen fundamental ändert. Daten aus dem Jahr 2001 sind heute oft wertlos, weil die damaligen Preistreiber in einem völlig anderen makroökonomischen Umfeld agierten. Langfristige Backtests über 20 Jahre werden daher oft als weniger aussagekräftig eingestuft als kürzere, relevante Zeiträume.

Statistische Signifikanz und die Krise der Quants

Im abschließenden Teil wird die Bedeutung der Datenmenge für die statistische Signifikanz erörtert. Während ein Hochfrequenzhändler pro Jahr über 300.000 Datenpunkte sammeln kann, verfügt eine monatliche Rebalancing-Strategie selbst nach 20 Jahren nur über 240 Punkte. Diese geringe Datenmenge macht es fast unmöglich, signifikante Aussagen zu treffen und gleichzeitig Regime-Wechsel zu berücksichtigen. Der Sprecher erwähnt die 'existenzielle Krise', in der sich viele namhafte Quants seit der Pandemie befinden, da alte Muster durch das neue Umfeld wertlos wurden. Das Video endet mit dem Hinweis auf Teil 2, in dem weitere Fehlerquellen und ein Lehrplan für angehende Quants besprochen werden.

Community Posts

View all posts