Macht die künstliche Intelligenz Aktienanalysten überflüssig? Die Mitglieder der Deutschen Vereinigung für Finanzanalyse und Asset Management DVFA sind sich sicher, dass Research auch weiterhin bestehen wird. Keiner der Befragten glaubt, dass die künstliche Intelligenz menschliche Analysten ersetzt. Stattdessen glaubt die Hälfte, dass die Technologie einen erheblichen Teil des Research-Prozesses automatisiert. Nur 2 Prozent der Befragten geben auf der anderen Seite an, dass die KI gar keinen Einfluss hat.
Die Hälfte der Aktienanalysten und Portfoliomanager geht davon aus, dass die KI besonders hilft, Daten automatisch zu verarbeiten. Für ein Drittel ist die Sentiment- und Marktdatenanalyse eine sinnvolle Anwendung für die KI. Denkbar ist für zwei Drittel der Befragten auch, dass die Unternehmen, die Algorithmen und menschliche Expertise kombinieren, einen Vorteil im Wettbewerb haben. „Es ist wichtig, Risiken zu erkennen und geeignete Maßnahmen zur Minimierung der Gefahren von KI im Finanzresearch zu ergreifen, während man die Vorteile nutzt. Ein ausgewogenes Verhältnis zwischen menschlicher Expertise und KI-gestützten Analysen kann jedoch helfen, fundierte Entscheidungen zu treffen“, meint Thorsten Müller, Vorstandsvorsitzender der DVFA.
Wichtig dürfte dann auch sein, Fehler zu vermeiden. Noch sehen die DVFA-Mitglieder aber verschiedene Fehlerquellen: Fehlinformationen durch verzerrte oder unvollständige Trainingsdaten, fehlende Transparenz und Probleme bei qualitativen Daten wie Unternehmensführung und Marktdynamik. Auch Themen wie regulatorische und ethische Herausforderungen, Haftungsfragen oder die Gefahr von Marktmanipulationen durch algorithmische Verzerrungen fürchten die Befragten.
Neue Rollenverteilung für die Aktienanalyse?
Gerade an dieser Stelle könnte dann wieder menschliche Expertise entscheiden: 56 Prozent der Umfrageteilnehmer erwarten, dass Analysten sich künftig verstärkt auf nicht automatisierbare Aspekte wie Unternehmensgespräche oder Marktinterpretation konzentrieren. 24 Prozent glauben, dass Analysten primär KI-generierte Ergebnisse validieren und interpretieren werden.
Bei der KI dürften aber auch ethische Fragen eine Rolle spielen, erklärt Müller: „So können KI-Modelle unbeabsichtigte Vorurteile, Bias, aufweisen, die aus den Trainingsdaten stammen. Dies kann in diskriminierende Beurteilungen münden, die nicht nur unethisch sind, sondern auch rechtliche Konsequenzen nach sich ziehen können.“ Schon jetzt nutzen 80 Prozent der Befragten die KI regelmäßig oder täglich im beruflichen Alltag.