Einleitung

Ein quantitativer Investmentprozess zeichnet sich durch eine strukturierte, transparente und objektive Form der Informationsverarbeitung und Prognoseerstellung bis hin zur kosteneffizienten Implementierung im Portfolio aus. Dieser Artikel beschreibt zunächst die Vorteile des quantitativen Asset Managements. Anschließend werden die wichtigsten Prozessschritte einer aktiv-quantitativen Investmentstrategie sowie die Herausforderungen für quantitative Investmentprozesse vorgestellt. Der Artikel schließt mit einem Ausblick zu den Chancen des quantitativen Asset Managements.1

Link zum PDF

Quantitatives Asset Management bezeichnet einen systematischen, daten- und modellbasierten Ansatz, um Anlageentscheidungen zu treffen.2 Vor Jahrzehnten als Nischenstrategie gestartet, hat sich quantitatives Asset Management inzwischen etabliert. Dass quantitativ gemanagte Fonds inzwischen auf breite Akzeptanz stoßen, beweist beispielhaft eine aktuelle Umfrage von Institutional Investor im Auftrag von Blackrock unter 200 professionellen Aktieninvestoren in Nordamerika, Europa, Asien und Lateinamerika.3 Demnach präferieren 52% der Befragten quantitative Strategien bei der Neuanlage von Geldern in Industrieländern. Bei Neuinvestments in den Schwellenländern äußern 48% der Befragten eine entsprechende Präferenz.

Vor dem Hintergrund einer mehrheitlich enttäuschenden Performance traditioneller Fondsmanager, einer stetig wachsenden Leistungsfähigkeit moderner Computer, der zunehmenden Digitalisierung der Arbeitswelt und einer damit einhergehenden steigenden gesellschaftlichen Akzeptanz für algorithmengestützte Entscheidungshilfen mag diese Entwicklung auf den ersten Blick nicht überraschen. Auch der Umstand, dass viele wegbereitende akademische Arbeiten mitunter schon vor Jahrzehnten veröffentlicht wurden und die grundlegenden Inhalte und Techniken quantitativen Asset Managements seit Jahren Teil des universitären Curriculums sind, mag den Durchbruch quantitativer Investmentstrategien in der Retrospektive als logische Konsequenz erscheinen lassen. Ruft man sich jedoch die Kernschmelze prominenter quantitativer Strategien in der zweiten Jahreshälfte 2007 und die damit einhergehenden Abgesänge auf das quantitative Asset Management in den Folgejahren in Erinnerung, wird deutlich, dass diese Entwicklung so selbstverständlich nicht war.4

Im Zuge der Verbreitung quantitativ gemanagter Fonds stellen Faktorstrategien eine inhaltliche Zäsur für die Asset Management-Industrie dar. So verändern Faktorstrategien das gesamte theoretische Grundgerüst, das der Fondsindustrie als Grundlage dient, um beispielsweise Assetklassen und Benchmarks zu definieren oder Portfolios zu konstruieren. Begünstigt durch das Niedrigzinsumfeld und bereits im Jahr 2002 durch beispielsweise Dimson, Marsh und Staunton (2002) motiviert, finden alternative Asset Allokation-Lösungen zunehmend Verbreitung, bei denen das Vermögen nicht traditionell auf Assetklassen, sondern auf Faktorportfolios verteilt wird. Einer entsprechenden Investmentphilosophie folgt beispielsweise der norwegische Staatsfonds5, mit einem Anlagevolumen von umgerechnet rund 830 Milliarden Euro Ende 2018 der größte Staatsfonds der Welt.

Die von ihrem Ursprung her statistische Herangehensweise, ein Portfolio nicht als eine Kombination von Assetklassen sondern als eine Kombination von (Risiko-)Faktoren zu betrachten, hat auch die Maßstäbe verändert, anhand derer sich Fondsmanager messen lassen müssen. So zeigen Frazzini, Kabiller und Pedersen (2018), dass sich die Outperformance von Warren Buffetts Investmentvehikel Berkshire Hathaway gegenüber dem breiten kapitalwertgewichteten US-Aktienmarkt, neben der Fähigkeit, kostengünstig schuldenfinanziert zu investieren, annähernd vollständig auf die Aktienmarktfaktoren Value, Qualität und Low Beta zurückführen lässt. Das Alpha erweist sich als Kombination von Faktorprämien.

Derartige ex-post Analysen dürften für den zukunftsorientierten Anleger allerdings von geringem Nutzen sein. Auch wäre es eine fehlgeleitete Interpretation, damit die berufliche Lebensleistung prominenter Fondsmanager zu diskreditieren.6 Entscheidend ist vielmehr, dass durch Studien dieser Art deutlich wird, welche Bedeutung und Herausforderungen die Erkenntnisse des quantitativen Asset Managements für die gesamte aktive Fondsindustrie jetzt und in Zukunft darstellen.

Vorteile des quantitativen Asset Managements

Die Argumente, bei seinen Anlageentscheidungen einem quantitativen Prozess zu folgen, sind nicht neu, haben aber nicht an ihrer Überzeugungskraft eingebüßt.7 Marktdaten sind heute in Echtzeit, fundamentale Informationen nur mit geringer zeitlicher Verzögerung verfügbar. Immer umfangreichere Datenbanklösungen, viele davon kostenfrei verfügbar, haben den Aufwand der Informationsbeschaffung stark reduziert. Kurse reagieren daher sehr schnell auf neue Informationen. Das gilt im Besonderen für hochliquide Assetklassen, zum Beispiel für die Derivate- und Kassa-Märkte von Staatsanleihen großer Industrieländer, der Währungsmärkte oder auch für Bluechip-Aktien. Sofern ein aktiver Anleger nicht im Bereich illiquider oder weniger liquider Investments investieren möchte, der gemeinhin als weniger informationseffizient einzustufen ist, dürfte sich die Wahrscheinlichkeit für richtige Investitionsentscheidungen also reduzieren. Für den benchmarkorientierten Anleger sinkt die Wahrscheinlichkeit, die Vergleichsgröße zu schlagen.

Eine Möglichkeit, diesem Problem zu begegnen, sind so genannte „High-Conviction Bets“, also wenige konzentrierte Portfoliopositionen mit hohem (aktivem) Risiko. Eine unter Risikogesichtspunkten sinnvollere Alternative stellt dagegen die Steigerung der Prognosehäufigkeiten dar.8 Im Portfoliokontext bedeutet dies die Investition in eine Vielzahl an Positionen mit vergleichsweise niedrigem aktivem Risiko. Dabei ist der quantitative Fondsmanager im Vorteil. Ein modellgestützter Selektionsprozess kann große Informationsmengen effizient und objektiv verarbeiten und liefert auch für sehr große Universen mit mehreren Tausend Aktien oder Anleihen die relativ attraktivsten Titel. Da der quantitative Selektionsprozess programmierten Regeln folgt, ist die Transparenz und Nachvollziehbarkeit der Anlageentscheidung – zumindest im Rahmen der Innensicht – gegeben. Daraus ergeben sich Vorteile im Hinblick auf das Investmentprozess-Controlling.9 Die weitgehende Flexibilität bezüglich des Investmentuniversums ermöglicht außerdem eine individuelle Reaktion auf Kundenbedürfnisse. Aufgrund positiver Skaleneffekte in der Wertschöpfungskette eines quantitativen Asset Managers erfolgt diese typischerweise ressourcenschonend.

Neben Vorteilen in der Informationsverarbeitung, zielt quantitatives Asset Management darauf ab, die begrenzt rationalen Aspekte menschlichen Verhaltens möglichst zu vermeiden. So wissen wir aus den Sozialwissenschaften, dass sich Menschen häufig einfacher Heuristiken bedienen, um in Entscheidungssituationen schnell und ressourcenschonend agieren zu können. Für die Interpretation und Selektion von Informationen in Alltagssituation mag dies ausreichend sein. Bei Entscheidungen über komplexe Sachverhalte mit unsicherem Ausgang jedoch, die zusätzlich häufig unter Zeitdruck gefällt werden müssen, können Heuristiken zur Falle werden. In der „Behavioral Finance“-Literatur finden sich mannigfaltige Beispiele, die zeigen, wie wir uns als Mensch bei unseren Anlageentscheidungen selbst im Wege stehen.10

Wir neigen dazu, Gewinne am Kapitalmarkt zu schnell zu realisieren, während Verlustpositionen zu lange im Portfolio verbleiben („Dispositionseffekt“). Bei unseren Investitionen tendieren wir zur Überschätzung der eigenen Prognosegüte („Overconfidence“) und messen eigentlich irrelevanten Referenzwerten eine zu hohe Bedeutung bei („Anchoring Effect“), um nur einige Beispiele zu nennen. Quantitatives Asset Management dagegen zielt darauf, durch eine modellgestützte und damit weitgehend objektive Form der Informationsverarbeitung eine Immunisierung der Anlageentscheidung im Hinblick auf kognitive Fehleinschätzungen zu erreichen. Der Umstand, dass sich der Großteil der Marktteilnehmer nur begrenzt rational in seinen Anlageentscheidungen verhält, wird so zum eigenen Vorteil genutzt.

Aufbau eines aktiv-quantitativen Investmentprozesses

In der praktischen Umsetzung sind sowohl die effiziente Verarbeitung von Informationen als auch deren objektive Auswertung prozessinhärente Eigenschaften einer jeden quantitativen Investmentstrategie.11 Von zentraler Bedeutung ist dabei der Umstand, dass es sich bei quantitativ getroffenen Anlageentscheidungen im Kern um das Ergebnis wissenschaftlich-empirischen Arbeitens handelt. Innerhalb der Wissenschaftstheorie unterscheidet man grob zwischen zwei Methoden der empirischen Erkenntnisgewinnung, einer deduktiven und einer induktiv-empiristischen Herangehensweise an Forschungsfragen.12 Bei der deduktiven Form der Erkenntnisgewinnung werden basierend auf einer Theorie Hypothesen formuliert. Geeignete Datensätze und Methodiken dienen der Überprüfung der Hypothese. Diese kann auch zur Neuformulierung der Ausgangshypothese führen.

Dagegen zeichnet sich die induktiv-empiristische Forschung durch eine explorative Herangehensweise aus. Der Fokus liegt zunächst auf der Erhebung von Daten und deren Analyse. Auf Basis von Datenmustern werden (vorläufige) Hypothesen postuliert und durch Lernprozesse immer weiter verfeinert, um letztendlich eine umfassende Theorie zu formulieren. Am Ende beider Methoden der Erkenntnisgewinnung steht die – in der Regel mit einer statistischen Irrtumswahrscheinlichkeit verbundene – Schlussfolgerung.

Quantitative Investmentprozesse basieren auf deduktiver oder induktiv-empiristischer Forschung oder Kombinationen beider Formen der Erkenntnisgewinnung. Im Besonderen betrifft dies die Prozessschritte der „Signalgenerierung“ und „Portfoliokonstruktion“. Des Weiteren ist zwischen dem nachgelagerten Schritt der „Implementierung“ und dem übergeordneten „Investmentprozess-Controlling“ zu unterscheiden.

Signalgenerierung

Ein (Investment-)Signal beschreibt eine aktive, zukunftsgerichtete Investmentscheidung. Die konkreten Signalausprägungen unterscheiden sich in Abhängigkeit von Zielsetzung und Aufbau des Investmentprozesses. Typisch sind binäre Signale („long“, „short“), ordinal skalierte Signale (Ränge) oder Signale in der Form von Punktprognosen (z.B. erwartete Renditen). Im quantitativen Asset Management erfolgt die Generierung von Signalen auf Basis geeigneter Daten. Diese können in strukturierter Form (z.B. volkswirtschaftliche Daten, Jahresabschlussdaten) oder unstrukturierter Form vorliegen (z.B. in Form von Texten wie bei Geschäftsjahresausblicken oder Twitter-Nachrichten). Zu den üblichen Vorgehensweisen bei der Arbeit mit Finanzmarktdaten gehört es auch, Daten zu simulieren. Die Qualität der verwendeten Daten ist von essenzieller Bedeutung für die Prognosegüte der Signale. Die Pflege von Datenbanken, die Aufbereitung von Rohdaten, also beispielsweise deren adäquate Formatierung und Bereinigung um statistische Ausreißer, oder das Zusammenführen mehrerer Datenquellen, nimmt daher einen erheblichen Teil der Research-Tätigkeit ein.

Die Datenstruktur und die konkrete Forschungsfrage determinieren das im Rahmen des signalgenerierenden Prozesses verwendete Modell. Dieses kann parametrischer (z.B. Regressionsansatz) oder nicht nichtparametrischer Natur (z.B. eindimensionale Sortierung) sein. Im Rahmen einer deduktiven Herangehensweise liefert die zu testende Hypothese in der Regel Hinweise zur Wahl des geeigneten Modells. Möchte man zum Beispiel testen, ob ein positiver Zusammenhang zwischen Aktienrenditen und Profitabilität besteht und möchte man gleichzeitig für den Einfluss anderer Unternehmenscharakteristika korrigieren, bietet sich eine multivariate Querschnittsregression an. Präferiert man dagegen eine induktive Vorgehensweise, beispielsweise weil Nichtlinearitäten vermutet werden oder mehr über die unterliegende Datenstruktur in Erfahrung gebracht werden soll, bieten sich im Bereich des Maschinellen Lernens zahlreiche Methoden an. Letztere folgen häufig dem Grundprinzip, sich primär an der Vorgabe von Zielen anstelle von Theorie und Regeln zu orientieren, was zumindest auf Ebene der Ergebnisinterpretation eine Differenzierung zwischen Korrelation und Kausalität erforderlich macht.13

Die Entscheidung, ein bestimmtes Signal im Rahmen einer Investmentstrategie zu verwenden, wird im quantitativen Asset Management typischerweise auf Basis historischer Rückrechnungen (sog. „Backtests“) getroffen. Diese sollten derart konzipiert sein, dass ein langer Zeitraum zur Verfügung steht, der sich über mehrere Börsen- und Konjunkturzyklen erstreckt. Nur so wird gewährleistet, dass das Signal ausreichend vielen Stresstests ausgesetzt wird (sog. „Robustheit“). Von besonderer Bedeutung ist dabei die Qualität des Signals im „out-of-sample“ Zeitraum, also derjenigen Periode, die nicht zur Kalibrierung des Modells herangezogen wurde. Ein überzeugendes ökonomisches Rational vorausgesetzt, qualifiziert sich ein Signal für einen quantitativen Investmentprozess, wenn nachfolgende Kriterien erfüllt sind:

  • Die auf Basis des Signals simulierte (Out-)Performance sollte ausreichend hoch und statistisch signifikant sein, gleiches gilt für die risikoadjustierte (Out-)Performance.14
  • Die auf Basis des Signals erzielte (Out-)Performance sollte einen möglichst stetigen Verlauf über die Zeit aufweisen und nicht das Ergebnis einiger weniger Positionen im Portfolio sein.
  • Die Performance-Evaluation des Signals sollte nach (simulierten) Transaktionskosten erfolgen.
  • Das Signal sollte keine strukturellen Verzerrungen aufweisen. Einzelne Assetklassen, Branchen, Länder oder Regionen sollten also beispielsweise nicht ausschließlich unter- oder übergewichtet werden.
  • Das Signal sollte robust sein bezüglich geringfügiger Transformationen seiner Determinanten. Zum Beispiel sollte die Verwendung eines Signals, auf dessen Basis eine deutliche geringe Performance erzielt wird, wenn anstelle einer 1-Monats-Veränderungrate eines Einkaufsmanagerindex dessen 3-Monats-Veränderungsrate zur Prognose herangezogen wird, in Frage gestellt werden.
  • Der signalgenerierende Prozess sollte für andere Universen und Zeiträume zu qualitativ ähnlichen Ergebnissen kommen. Im Umkehrschluss bedeutet das: Ohne ein ökonomisches Rational sollten für andere Universen und Zeiträume keine großen Veränderungen am einmal gewählten Parameter- und Variablenset zugelassen werden.
  • Sofern der Untersuchungszeitraum nur durch ein bestimmtes Marktregime gekennzeichnet ist (bspw. eine lange Phase fallender Zinsen), sollte das Signal in anderen – notfalls simulierten – Regimen getestet werden.

Im Vorfeld der Portfoliokonstruktion wird häufig eine Transformation der Signale vorgenommen (sog. „Refinement“). Im Zuge dieses Prozesses können beispielsweise die unterschiedliche Prognosequalität von Signalen und die Volatilität der zugrundeliegenden Assets Berücksichtigung finden. Übergeordnetes Ziel sollte es sein, möglichst viele Prognosen in das Portfolio einzubringen, um schon allein über die hohe Anzahl aktiver Entscheidungen eine Diversifikation zu erzielen. Naturgemäß dürfte dieses Anliegen im Bereich der taktischen Allokation von Assetklassen oder Faktoren schwieriger zu erreichen sein als bei der Konstruktion von Einzeltitel-Portfolios. Im Asset Allokation-Kontext ergeben sich daher zusätzliche Anforderungen an den signalgenerierenden Prozess. Dieser muss zum einen eine vergleichsweise hohe Prognosegüte aufweisen. Zum anderen sollten die Signale weitgehend unkorreliert sein, indem beispielsweise sichergestellt wird, dass nicht ein Weltbild die Allokation im Portfolio dominiert.

Portfoliokonstruktion

Auf Ebene der Portfoliokonstruktion bietet sich die Möglichkeit, die quantitative Investmentstrategie anlegerindividuell auszugestalten. Die resultierenden Portfolios können sich dabei im Ergebnis erheblich unterscheiden. Bei der Kombination mehrerer Strategien, etwa im Multi-Faktor-Kontext, ist zunächst zu entscheiden, ob diese Kombination auf Signalebene (sog. „Signal Blending“) oder Portfolioebene (sog. „Portfolio Blending“) erfolgen soll. Von zentraler Bedeutung bei der Portfoliokonstruktion ist in diesem Zusammenhang die Frage, welches Ziel mit der Investmentstrategie genau erreicht werden soll. Die Beantwortung dieser Frage entscheidet über die Art und Weise, wie die Informationsmenge der Signale verarbeitet werden soll. Lautet beispielsweise der Auftrag, ein Total Return-Produkt für europäische Aktien zu entwickeln, kann es sinnvoll sein, die finale Gewichtung der Positionen im Portfolio nur auf Basis der Teilmenge der 30% am besten bewerteten Unternehmen festzulegen. Sieht die Zielsetzung dagegen die Gestaltung eines Benchmark-Konzeptes vor, kann die Gesamtheit der Signale über entsprechende Unter- und Übergewichtungen einzelner Positionen gegenüber der Benchmark in den Portfoliokonstruktionsprozess miteinbezogen werden.

Stellt das Signal selbst nicht bereits eine Risikoschätzung dar (wie zum Beispiel im Rahmen einer risikogesteuerten dynamischen Allokationsstrategie), werden im Rahmen der Portfoliokonstruktion die Signale üblicherweise mit entsprechenden Risikoschätzungen kombiniert, um so auf die Gewichtung der einzelnen Positionen im Portfolio zu schließen. Häufig geschieht dies im Rahmen einer Optimierung unter Einbeziehung kommerzieller oder selbst entwickelter Risikomodelle. Diese liefern wichtige Informationen über Sensitivitäten der Signale zu beabsichtigten und nicht beabsichtigten Risikofaktoren. Über Nebenbedingungen bei der Portfoliooptimierung lassen sich zudem zahlreiche Restriktionen in den Prozess einbringen. Dabei kann es sich um externe Vorgaben handeln, wie zum Beispiel Obergrenzen für bestimmte Positionen, die sich aus dem Investmentsteuergesetz ergeben, oder interne, selbst gewählte Vorgaben, wie Turnover-Beschränkungen oder Bandbreiten für minimale oder maximale (aktive) Länder- und Branchengewichte.

Zusammengefasst ist es also Aufgabe der Portfoliokonstruktion, die Signale mit Hinblick auf ein zu maximierendes (oder minimierendes) Anlageziel und unter Berücksichtigung von Risikoschätzungen in optimale Portfoliogewichte zu übersetzen – mit der Nebenbedingung, dass alle Restriktionen eingehalten werden. Das übergeordnete Ziel sollte dabei sein, eine möglichst hohe Korrelation zwischen den Signalen und den (aktiven) Gewichten im Portfolio zu erreichen (sog. „Transfer Coefficient“).

Implementierung

Die Implementierung der aktiven Anlageentscheidungen im Portfolio sollte möglichst zeitnah und simultan (über sog. „Basket Trades“) erfolgen und umfasst etwa die Entscheidung über die Wahl des Handelsplatzes und -zeitpunktes sowie des geeigneten Instruments. Auch hier spielen etwaige Restriktionen, zum Beispiel Beschränkungen hinsichtlich des Einsatzes von Derivaten, eine wichtige Rolle. Des Weiteren sollten Liquiditäts- und damit Transaktionskostenaspekte sowie Risikoüberlegungen (etwa hinsichtlich von Kontrahentenrisiken) in die Entscheidung mit einfließen. Dabei gilt es häufig, eine Abwägung zwischen der zeitnahen Umsetzung eines Signals einerseits und den potenziell zu erwartenden impliziten Transaktionskosten, zum Beispiel „Market Impact“-Kosten, andererseits vorzunehmen. Qualitative Prozesse (sog. „Reality Checks“) für computergestützt generierte Transaktionslisten können helfen, unnötige Transaktionskosten zu vermeiden.

Von großer Bedeutung für den Erfolg quantitativer Strategien ist es, dass bei der Implementierung gewonnene Erfahrungen und Erkenntnisse Eingang in den signalgenerierenden Prozess und die Portfoliokonstruktion finden. Das betrifft einerseits harte Informationen wie beispielsweise eine möglichst reale Abschätzung von expliziten und impliziten Transaktionskosten, aber auch andererseits weiche Informationen wie die Kommunizierbarkeit von Anlageentscheidungen gegenüber Kunden.

Investmentprozess-Controlling

Das Investmentprozess-Controlling beinhaltet die fortlaufende Überwachung und Evaluation der zuvor genannten Prozessschritte sowie deren Dokumentation. Es umfasst somit sowohl Aspekte des Risikomanagements als auch der Performancemessung und -attribution.

Zu den prozessinhärenten Eigenschaften einer quantitativen Investmentstrategie zählt, dass die Strategie auf Daten basiert und in eine computerlesbare Sprache übertragen wurde (sog. „Coding“). Dabei sind zehntausende programmierte Zeilen sowie Millionen von Datenpunkten nicht unüblich. Im Rahmen entsprechender Qualitätssicherungsprozesse gilt es daher sicherzustellen, dass alle für die Signalgenerierung benötigten Daten vollständig vorliegen und es zu keinen strukturellen Veränderungen bei der zugrundeliegenden Erhebungspraxis gekommen ist. In diesem Zusammenhang ist es beispielsweise auch notwendig, sich über Gesetzesnovellen zu informieren, wie etwa die länderspezifische Einführung von Transaktionssteuern oder die Festlegung neuer Maximalgrenzen für bestimmte Instrumente im Portfolio. Ferner sollten Systeme zur Versionierung des Programmcodes und dessen Revisionen zum Einsatz kommen. Dies vereinfacht das kollaboratives Arbeiten bei der Weiterentwicklung des signalgenerierenden Prozesses erheblich.

Alle Investmententscheidungen sollten ebenfalls einer ständigen Qualitätskontrolle unterliegen. Diese sollte die Dimensionen Performance, Risiko und Korrelation umfassen, was eine leistungsfähige Performanceattributionsrechnung voraussetzt. Auf diese Weise lässt sich genau eruieren, welcher Teil des Investmentprozesses sich zum Beispiel für eine Underperformance verantwortlich zeigt und gegebenenfalls einer Anpassung bedarf. Veränderte Risiko- und Korrelationseigenschaften können eine ungenügende Diversifikation bedeuten und sollten daher eine Überprüfung der Signalgewichtung im Investmentprozess nach sich ziehen. So sollte eine erhöhte Korrelation von Signalen dazu führen, dass deren gemeinsames Portfoliogewicht im Rahmen der Portfoliokonstruktion sinkt. Zum selben Ergebnis sollte die Beobachtung eines isolierten Risikoanstiegs eines Signals führen.

Bei der Implementierung der Anlagestrategie sollte eine strenge Ausführungskontrolle erfolgen. So ermöglicht zum Beispiel der Abgleich der erzielten Kauf- und Verkaufspreise mit den handelsgewichteten Tageskursen eine Einschätzung der Ausführungsqualität des Wertpapierhändlers. Die fortlaufende Dokumentation der Transaktionen liefert zudem wertvolle Informationen für hauseigene Transaktionskostenmodelle.

Quantitative Investmentprozesse lassen bewusst wenig Raum für qualitative Eingriffe in die Anlageentscheidungen. Ausnahmen bilden Eingriffe im Rahmen eines strukturierten Overlays mit klaren Regeln. Dieses ist typischerweise eng am Grundgerüst der quantitativen Entscheidungsfindung ausgerichtet. So könnte beispielsweise eine Neutralisierung einzelner Signaldeterminanten nur dann erfolgen, wenn bekannt ist, dass diese aktuell Verzerrungen unterliegen, weil sie durch externe Einmalereignisse wie Naturkatastrophen beeinflusst sind. Auf diese Weise soll verhindert werden, dass Informationen, die zuvor als insignifikant eingestuft wurden, über die Hintertür Einfluss auf die Anlageentscheidung erhalten.

Herausforderungen für quantitative Investmentprozesse

Quantitative Investmentprozesse basieren auf empirischen Wirkungszusammenhängen zwischen technischen und fundamentalen Daten und zukünftigen Renditen. Ihre Prognosen sind mit Unsicherheit behaftet, auch alphagenerierende Prozesse liegen nur im Mittel in ihren Anlageentscheidungen richtig und basieren auf Vergangenheitsdaten. Konstrukteure quantitativer Investmentprozesse sehen sich daher häufig mit dem Vorwurf konfrontiert, dass Prognosen über die Zukunft auf Basis historischer Daten nur dann zuverlässig sind, wenn sich nichts Grundsätzliches ändert. Dieser Vorwurf ist zunächst einmal richtig. Jedoch wird häufig übersehen, dass auch das Anlageverhalten des traditionellen Fondsmanagers wesentlich durch dessen Erfahrungswissen determiniert wird. Prognosen über die Zukunft wird er auf Basis einer ihm jetzt verfügbaren Informationsmenge treffen. Im Unterschied zum quantitativen Manager investiert er jedoch, ohne seine Investment-Hypothese im Rahmen einer wissenschaftlich-empirischen Versuchsanordnung validiert zu haben.

So erstrebenswert die wissenschaftlich-empirische Validierung von Investmentstrategien aus Sicht quantitativer Manager ist, so präsent ist doch die Gefahr eines unzulässigen „Data Mining“ bei der Konzeption von Strategien. Aufwendig parametrisierte Methoden sind dafür aufgrund der zahlreich vorhandenen Stellgrößen besonders anfällig. Ökonomische Intuition, Robustheitstest für alle Parameter und sorgfältig gestaltete „Out-of-Sample“-Tests sind geeignete Verfahren, diesem Problem zu begegnen, können es aber nie völlig aus der Welt räumen. Was am Ende daher vor allem zählen dürfte, um seine Anlageentscheidung nicht auf Basis von Scheinkorrelationen zu treffen, sind Expertise und subjektives Erfahrungswissen bei der Konzeption quantitativer Investmentprozesse. Bei allen Bemühungen um eine möglichst objektive Form der Informationsauswertung gilt es, sich dessen bewusst zu sein.

Immer wieder wird der Verdacht geäußert, die zunehmende Verbreitung quantitativ-gemanagter Produkte sei aufgrund eines durch sie induzierten gleichgerichteten Investitionsverhaltens verantwortlich dafür, „über-investierte“ („over-crowded“) Strategien zu generieren. Das wiederum würde die Bildung von Investitionsblasen begünstigen. Dieser Verdacht ist per se nicht von der Hand zu weisen, dürfte aber bei weitem kein originäres Problem quantitativer Strategien darstellen. Über die „Quant“-Krise im Jahr 2007 ist bekannt, dass Liquiditätseffekte, der Abbau schuldenfinanzierter Faktorstrategien bei gleichzeitigem Abzug von Marketmaker-Kapital, die Krise ausgelöst haben.15

Von Lakonishok und Swaminathan (2010) sowie Gustafson und Halper (2010) liegen zwei Studien vor, die das Investitionsverhalten quantitativ-gemanagte Fonds während der „Quant-“ und anschließenden Finanzkrise untersuchen. Sie kommen unabhängig voneinander zum Schluss, dass keine „Crowding“-Effekte zu beobachten waren. Cahan und Luo (2014) kommen dagegen zum gegenteiligen Befund. Das ist möglich, weil kein allgemein anerkanntes Maß existiert, um „Over-Crowding“ zu messen.16

Hinsichtlich der Konstruktion von Faktorstrategien sei außerdem auf den Umstand verwiesen, dass sich diese im Unterschied zu kapitalgewichteten Indexfonds auch bei Abbildung ein und desselben Faktors stark unterscheiden können Diese Heterogenität der Strategien macht ein gleichgerichtetes Verhalten unwahrscheinlicher. Dennoch erscheint es ratsam, sich als quantitativer Asset Manager das potenzielle „Over-Crowding“ der eigenen Strategie zu vergegenwärtigen.17

Ausblick: Chancen für aktiv-quantitatives Asset Management

Durch die weite Verbreitung von Faktor- und Smart Beta-ETFs haben sich quantitativ-gemanagte Investmentstrategien zum Massenprodukt entwickelt.18 Gleichzeitig ist durch sie die Grauzone zwischen passiv und aktiv gemanagten Fonds größer geworden. Denn hinsichtlich der notwendigen Anzahl und Konstruktion der „richtigen“ Faktoren herrscht keineswegs Einigkeit innerhalb der Fondsindustrie. Jede vorgeschlagene „passive“ Faktorstrategie basiert im Kern auf „aktiven“ Entscheidungen, etwa hinsichtlich der zur Abbildung des Faktors herangezogenen Indikatoren und deren Gewichtung zueinander. So gesehen werden aktiv-quantitative Asset Manager und Teile der ETF-Industrie in Zukunft näher zusammenrücken.

Unabhängig von dieser voraussichtlichen Annährung bieten sich dem aktiven Manager unterschiedliche Möglichkeiten zur Differenzierung seiner Investmentstrategie und des Produktangebots. Vier grobe Stoßrichtungen lassen sich identifizieren19:

  • Identifikation neuer Faktoren,
  • Konstruktion überlegener Faktoren und Faktorkombinationen,
  • Dynamisierung auf Ebene der Asset- und Faktor-Allokation sowie der Faktorkonstruktion,
  • Stock Picking auf Basis einzeltitelspezifischer Kriterien.

Der erste Punkt, die Identifikation neuer Faktoren, sollte die Formulierung theoretischer Grundlagen beinhalten und dürfte ein ambitioniertes Unterfangen sein, zumal die Anzahl „wahrer“ Risikofaktoren begrenzt sein dürfte. Unabhängig davon dürften aber auch alle Formen der Dynamisierung von Investmententscheidungen sowie die neuartige Konstruktion von Faktoren dem aktiv-quantitativen Manager ausreichend Gelegenheiten zur Spezialisierung bieten. Alternative Formen der Portfoliokonstruktion oder neue Deskriptoren bieten hier zahlreiche Ansatzpunkte. Neue Methoden im Bereich des maschinellen Lernens können helfen, nichtlineare Wirkungszusammenhänge aufzuzeigen. Von den oben genannten Differenzierungsmöglichkeiten für aktive Manager, dürfte nur der zuletzt aufgeführte Punkt auch Raum für traditionelle Formen des Fondsmanagements bieten. Um langfristig erfolgreich zu sein, ist hier jedoch eine in hohem Maße unternehmensindividuelle Herangehensweise erforderlich, um einen nachhaltigen Mehrwert gegenüber einer Investition in Faktorstrategien bieten zu können.20

Obwohl die Arbeit mit Daten üblicherweise nicht zum selbst propagierten Kerngeschäft der Fondsindustrie gehören dürfte, lässt sich mit der ...

  • Nutzung alternativer Daten im Investmentprozess

... ein fünfter potentieller Wettbewerbsvorteil identifizieren. Alternative Daten können dabei die originäre Basis der oben genannten Differenzierungsmöglichkeiten bilden. Besondere Chancen für die proprietäre Verbesserung von Investmentprozessen können sich auch über selbstständig erhobene Daten ergeben. Gerade unstrukturiert vorliegende alternative Daten erfordern allerdings fortgeschrittene Kenntnisse in der systematischen Verarbeitung und Auswertung großer Datenmengen sowie deren Finanzmarkt bezogener Interpretation. Wer, wenn nicht der quantitative Asset Manager besäße das nötige Rüstzeug dafür?

Zum Autor

Dr. Philipp Finter arbeitet als Executive Partner im Research bei HQ Asset Management (HQAM) in Düsseldorf. Der promovierte Volkswirt ist Spezialist für die Entwicklung quantitativer Investmentstrategien im Asset Management und verfügt über langjährige Erfahrung bei der aktiven Steuerung großer Vermögen.

Zu HQAM

HQAM gehört zu den Finanzdienstleistern der Familie Harald Quandt. Das Unternehmen bietet einen klaren Fokus auf quantitatives Asset Management für institutionelle und semi-institutionelle Anleger. Kunden sind Banken und Versicherungen ebenso wie Pensionskassen und Stiftungen. Maßgeschneiderte Portfolios stehen bei den Lösungsansätzen stets im Vordergrund.

Fußnoten

1 Viele der im vorliegenden Artikel geäußerten Überlegungen, Standpunkte und Thesen sind das Ergebnis von Diskussionen mit den Kolleginnen und Kollegen bei HQ Asset Management (HQAM). Ihnen gilt mein besonderer Dank.
2 Vgl. Cerniglia, Fabozzi und Kolm (2016), S. 135.
3 Blackrock, Institutional Investor (2019).
4 Für eine akademische Analyse des sog. „Quant Meltdown“ im Jahr 2007 vgl. z.B. Khandani und Lo (2011), für eine reportagenhafte, primär an handelnden Personen orientierte Dokumentation vgl. auch Patterson (2010).
5 Vgl. Chambers, Dimson und Ilmanen (2011).
6 Im Faktorprämien-Kontext wäre die Leistung von Warren Buffett ja gerade darin zu sehen, die langfristige Outperformance von Value, Qualität und Low Beta frühzeitig erkannt zu haben.
7 Für eine ausführliche Darstellung vgl. z.B. Sauer (2002).
8 Gemäß dem „Fundamental Law of Active Management” von Grinold (1989) steigt die Information Ratio einer Investmentstrategie proportional zu der Wurzel der Anzahl unabhängiger aktiver Anlageentscheidungen (konstante Selektionsfähigkeiten des Managers vorausgesetzt).
9 Vgl. die Ausführung unter „Investment-Controlling-Prozess“.
10 Für einen Überblick vgl. z.B. Barberis und Thaler (2003).
11 Einschränkend sei erwähnt, dass zwar die modellgestützte Informationsauswertung eine Personenunabhängigkeit garantiert, das Design eines Investmentprozesses allerdings in weiten Teilen auf Präferenzen und Erfahrungswissen und mithin auf subjektive Entscheidungen beruht.
12 Als wichtigster Begründer der deduktiven Form der Erkenntnisgewinnung gilt Karl Popper. Die induktive Sichtweise ist auf Aristoteles zurückzuführen, die empiristische Herangehensweise hat ihren Ursprung im logischen Positivismus des sog. „Wiener Kreises“.
13 Vgl. Cerniglia, Fabozzi und Kolm (2016), S. 138.
14 Einer außerordentlich hohen Outperformance sollte dabei grundsätzlich mit Misstrauen begegnet werden. Im quantitativen Aktienmanagement lassen beispielsweise ein Information Coefficient größer 0,2 auf wahrscheinliche Fehler oder Unzulänglichkeiten in der Konzeption des Backtests schließen (vgl. Grinold und Kahn (1999), S. 272).
15 Vgl. Kandhani und Lo (2011).
16 Beim Test auf „Over-Crowding“ handelt es sich um den Test einer verbundenen Hypothese, was die Interpretation empirischer Untersuchungen grundsätzlich erschwert.
17 Die Asset Management-Industrie hat sich des Themas angenommen. So veröffentlicht z.B. der Indexanbieter MSCI regelmäßig modellgestützte „Crowding Scores“ für seine Faktorindizes.
18 ETFs sind im Kern quantitative Investmentprodukte, auch wenn die Bezeichnung „Quant“ im Außenauftritt von Indexfonds üblicherweise keine Verwendung findet. Nach aktuellen Statistiken der Europäische Wertpapier- und Marktaufsichtsbehörde ESMA (2019), S. 26, hat sich das verwaltete Vermögen in UCITS-ETFs seit 2008 verfünffacht, die Anzahl der UCITS-ETFs ist im selben Zeitraum von 120 auf inzwischen 1.178 Fonds gestiegen.
19 Vgl. hierzu für Teilaspekte auch Fraser-Jenkins (2015).
20 Da innerhalb der Industrie kein Konsens hinsichtlich der „wahren“ Faktoren vorherrscht, bestehen Messprobleme bei der Konstruktion „überlegener“ Faktorportfolios und hinsichtlich der Benchmark für die aktive Selektion von Einzeltiteln. Als pragmatische Lösung bietet sich an, die Performance-Zeitreihen liquider Faktor-ETFs (oder deren Durchschnitt) im Rahmen eines multivariaten Faktormodells zu verwenden. Hinsichtlich der Anzahl und Auswahl der Faktoren können akademische Multifaktormodelle zu Erklärung erwarteter Renditen eine wichtige Orientierungshilfe bieten.

Literaturverzeichnis

  • Barberis, Nicholas C. und Richard H. Thaler, 2003, „A Survey of Behavioural Finance” in: George M. Constantinides, Milton Harris und René M. Stulz (Hrsg.), „Handbook of the Economics of Finance”, Vol. 1 (B), Elsevier Science B.V., North Holland, S. 1053-1128.
  • Blackrock, Institutional Investor, 2019, „Truths and the Future of Active Equity Investing”.
  • Cahan, Rochester und Yin Lu, 2013, „Standing Out from the Crowd: Measuring Crowding in Quantitative Strategies”, Journal of Portfolio Management, Vol. 39 (4), 14-23.
  • Cerniglia, Joseph A., Frank J. Fabozzi und Petter N. Kolm, 2016, „Best Practices in Research for Quantitative Equity Strategies”, Journal of Portfolio Management, Vol. 42 (5), S. 135-143.
  • Chambers, David, Elroy Dimson und Antti Ilmanen, 2012, „The Norway Model”, Journal of Portfolio Management, Vol. 38 (2), S. 67-81.
  • Dimson, Elroy, Paul Marsh und Mike Staunton, 2002, „Triumph of the Optimists: 101 Years of Global Investment Returns”, Princeton University Press, New Jersey u.a.
  • European Securities and Markets Authority (ESMA), 2019, “Annual Statistical Report on the Costs and Performance of Retail Investment Products”.
  • Fraser-Jenkins, Inigo, 2015, „The Revenge of the Quants?”, Arbeitspapier, Nomura International.
  • Frazzini, A., D. Kabiller und Lasse H. Pedersen, 2018, „Buffett’s Alpha“, Financial Analysts Journal, Vol. 74 (4), S. 35-55.
  • Grinold, Richard C., 1989, „The Fundamental Law of Active Management“, Journal of Portfolio Management, Vol. 15 (3), S. 30-37.
  • Grinold, Richard C. und Ronald N. Kahn, 1999, „Active Portfolio Management – A Quantitative Approach for Providing Superior Returns and Controlling Risk”, McGraw-Hill, New York u.a.
  • Gustafson und Patricia Halper, 2010, „Are Quants All Fishing in the Same Small Pond with the Same Tackle Box”, Journal of Investing, Vol. 19 (4), S. 104-115.
  • Khandani, Amir E. und Andrew W. Lo, 2011, „What Happened to the Quants in August 2007? Evidence from Factors and Transactions data”, Journal of Financial Markets, Vol. 14 (1), S. 1-46.
  • Lakonishok, Josef und Bhaskaran Swaminathan, 2010, „Quantitative vs. Fundamental Institutional Money Managers: An Empirical Analysis”, Arbeitspapier, LSV Asset Management.
  • Sauer, Andreas, 2002, „Strukturiertes Portfoliomanagement: Mit quantitativen Methoden auf der Suche nach dem Alpha“, in: Jochen M. Kleeberg, Heinz Rehkugler (Hrsg.), „Handbuch Portfolio Management – Strukturierte Ansätze für ein modernes Wertpapiermanagement“, Uhlenbruch Verlag, Bad Soden am Taunus, S. 161-179.
  • Scott, Patterson, 2010, „The Quants: How a New Breed of Math Whizzes Conquered Wall Street and Nearly Destroyed It”, Crown Business, New York.

    Disclaimer
    Dieser Bericht dient nur zur Information des Empfängers. Ohne Zustimmung von HQ Asset Management GmbH dürfen diese Informationen nicht vervielfältigt und/oder Dritten zugänglich gemacht werden. Dieses Dokument stellt weder eine Anlageberatung, eine Finanzanalyse noch eine Aufforderung zum Kauf oder Verkauf von Wertpapieren oder eine sonstige Empfehlung im Sinne des WpHG dar. Der Zweck dieses Berichts ist die Unterstützung der Diskussion mit HQ Asset Management über die Anlagemöglichkeiten, die unseren Kunden zur Verfügung stehen. Obwohl der Text auf Informationsquellen beruht, die wir für verlässlich erachten, kann doch keinerlei ausdrückliche oder stillschweigende Garantie, Gewährleistung oder Zusicherung hinsichtlich ihrer Richtigkeit, Vollständigkeit, Aktualität und Qualität übernommen werden. Der Text stellt weder eine allgemeine Anleitung für Investitionen noch eine Grundlage für spezifische Investmententscheidungen dar. Des Weiteren gibt er keine impliziten oder expliziten Empfehlungen in Bezug auf die Art und Weise, in der Kundenvermögen investiert werden sollte bzw. werden wird.
    Soweit in diesem Dokument Indizes dargestellt oder auf diese Bezug genommen wird, ist zu berücksichtigen, dass die benutzten Indizes keine Management- oder Transaktionskosten beinhalten. Investoren können nicht direkt in Indizes investieren. Verweise auf Marktindizes oder zusammengesetzte Indizes, Benchmarks oder andere Maße der relativen Marktperformance über eine spezifizierte Zeitperiode (die Benchmark) werden nur zur Information zur Verfügung gestellt. Bezugnahmen auf diese Benchmark implizieren nicht, dass das Portfolio Rendite, Volatilität oder andere Ergebnisse ähnlich wie die Benchmark erzielt. Die Zusammensetzung der Benchmark reflektiert unter Umständen nicht die Art und Weise in der das Portfolio konstruiert ist in Bezug auf erwartete und tatsächliche Rendite, Portfolio Richtlinien, Restriktionen, Sektoren, Korrelationen, Konzentration, Volatilität oder Tracking Error Ziele, die alle über die Zeit variieren können. Verweise auf Marktindizes oder zusammengesetzte Indizes, Benchmarks oder andere Maße der relativen Marktperformance über eine spezifizierte Zeitperiode (die Benchmark) werden nur zur Information zur Verfügung gestellt. HQ Asset Management gibt keine Haftungserklärung oder Verpflichtung ab, dass die Performance des Kundenvermögens der Benchmark entspricht, sie übertrifft oder ihr folgt. Frühere Wertentwicklungen eines Index, einer Benchmark oder anderer Maße sind kein verlässlicher Indikator für die künftige Wertentwicklung.
    Der Bericht stellt kein Angebot oder Aufforderung zum Kauf an Personen mit Sitz in Ländern, in deren Gerichtsbarkeit ein solches Angebot oder Aufforderung zum Kauf nicht autorisiert ist oder an Personen, bei denen es ungesetzlich wäre, ein solches Angebot oder eine Aufforderung zum Kauf abzugeben, dar. Es liegt in der Verantwortung jeder Person oder jedes Personenkreises, die dieses Material im Besitz hat, sich selbst zu informieren und alle anwendbaren Gesetze und Regularien jeder relevanten Gerichtsbarkeit zu beachten.
    Die dargestellten Meinungen entsprechen ausschließlich unseren aktuellen Ansichten zum Zeitpunkt der Übergabe des Berichts und stimmen möglicherweise nicht mit der Meinung zu einem späteren Zeitpunkt überein.
    Bestimmte Transaktionen, insbesondere solche, die Futures, Optionen und hochverzinsliche Anleihen, sowie Investments in Emerging Markets umfassen, haben unter Umständen den Effekt, dass sie das Risiko substanziell erhöhen und somit nicht für alle Investoren geeignet sind. Anlagen in Fremdwährungen unterliegen einem Währungsrisiko und können infolge von Kursschwankungen einen negativen Effekt auf den Wert, den Preis oder das mit diesen Investments erzielte Einkommen haben. Solche Investments sind ebenfalls betroffen, wenn Devisenbeschränkungen eingeführt werden sollten oder andere Gesetze und Restriktionen bei diesen Investments Anwendung finden. Investments, die in diesem Text erwähnt werden, sind nicht notwendigerweise in allen Ländern erhältlich, eventuell illiquide oder nicht für alle Investoren geeignet. Investoren sollten sorgfältig prüfen, ob ein Investment für ihre spezifische Situation geeignet ist und sich hierbei von HQ Asset Management beraten lassen. Der Preis und der Wert von Investments, auf die sich dieser Bericht bezieht, können steigen oder fallen. Es besteht die Möglichkeit, dass die Investoren nicht das ursprünglich eingesetzte Kapital zurückerhalten. Die historische Performance ist kein Richtwert für die zukünftige Performance. Zukünftige Erträge sind nicht garantiert und ein Verlust des eingesetzten Kapitals kann auftreten.

Die zuständige Aufsichtsbehörde für HQ Asset Management ist die Bundesanstalt für Finanzdienstleistungsaufsicht.

Das könnte Sie auch interessieren:

hqam_1701x
Dr. Philipp Finter
Executive Partner
HQ Asset Management
Dr. Philipp Finter arbeitet als Executive Partner im Portfolio Management bei HQ Asset Management (HQAM) in Düsseldorf. Der promovierte Volkswirt ist Spezialist für Entwicklung, Implementierung und Management quantitativer Investmentstrategien im Asset Management und verfügt über langjährige Erfahrung bei der aktiven Verwaltung großer Vermögen.
Inhalt
Als Nischenstrategie gestartet, hat sich quantitatives Asset Management am Markt etabliert. Schließlich zeichnet sich der Investmentprozess durch eine strukturierte, transparente und objektive Form der Informationsverarbeitung und Prognoseerstellung sowie eine kosteneffiziente Implementierung im Portfolio aus. Was Investoren über „Quant“ wissen sollten.