Der Partikelschwarmalgorithmus kann verwendet werden, um Optimierungsprobleme des Portfoliomanagements zu lösen. Doch bevor der Partikelschwarmalgorithmus und dessen Vor- und Nachteile genauer beschrieben werden, stellt sich zunächst die Frage, was Optimierungsprobleme eigentlich sind und warum diese im Portfoliomanagement von Bedeutung sind.
Man spricht von einem Optimierungsproblem, wenn für eine bestimmte Aufgabe mehr als eine Lösung besteht und die beste sprich optimale Lösung gefunden werden soll. Eines der bedeutendsten Optimierungsprobleme im Portfoliomanagement ist die Aufteilung von zur Verfügung stehendem Kapital auf zur Verfügung stehende Assets. Bei der Bestimmung der optimalen Gewichte der Assets kann eine Investorin beispielsweise das Ziel einer möglichst hohen Rendite verfolgen. Ein anderes Ziel könnte darin bestehen, das Risiko zu verringern. Eine andere Investorin wiederum verfolgt vielleicht das Ziel einer möglichst hohen Rendite bei möglichst geringem Risiko.
Entsprechend unterscheidet man in der Optimierung auch allgemein zwischen Minimierungs- (Risiko verringern) und Maximierungsproblemen (Rendite erhöhen), sowie zwischen einkriteriellen (Risiko verringern oder Rendite erhöhen) und multikriteriellen Optimierungsproblemen (Risiko verringern und Rendite erhöhen). Die zu optimierenden Parameter sind dabei die Asset-Gewichte und können selbst bestimmten Nebenbedingungen unterliegen, die beim Optimieren zu beachten sind. Können zum Beispiel Anlagen nicht leerverkauft werden, so darf das durch das Optimierungsverfahren bestimmte bestmögliche Gewicht nicht negativ sein. In den meisten Fällen ist auch sicherzustellen, dass nicht mehr Kapital ausgegeben wird als zur Verfügung steht. Die Summe der Gewichte darf dann nicht größer als 100 Prozent sein. Derartige Nebenbedingungen beschränken die Anzahl der möglichen Lösungen eines Optimierungsproblems. Ein Optimierungsproblem ist vollständig durch die Zielfunktion und gegebenenfalls eine oder mehrere Nebenbedingungen beschrieben.
In manchen Fällen ist es möglich, ein Optimierungsproblem durch einen geschlossenen analytischen Ausdruck zu lösen. Vielfach sind Optimierungsprobleme jedoch derart komplex, dass dies nicht möglich ist. In solchen Fällen kommen numerische Verfahren zum Einsatz, die ausgehend von einer Startlösung versuchen, diese so lange zu verbessern, bis keine nachhaltige Verbesserung der Lösung mehr erzielt werden kann. Das Optimierungsverfahren bricht dann ab und die gefundene Lösung wird als Annäherung an das bestmögliche Ergebnis betrachtet.
Um dies zu verdeutlichen, kann man sich den Lösungsraum wie ein Gebirge vorstellen. In diesem wird nun eine Wanderin abgesetzt, die ausgehend von ihrem Standort das tiefste Tal oder die höchste Bergspitze finden soll. Die Wanderin sucht dann so lange, etwa nach dem tiefsten Tal, bis sie sich nicht mehr verbessert sprich keinen tieferen Punkt mehr findet. Dieser Punkt wird als beste Annäherung an den wahren tiefsten Punkt im Gebirge angenommen.
Häufig ist das den Lösungsraum abbildende Gebirge jedoch mehr als dreidimensional. Sollen zum Beispiel die Gewichte für 50 Assets bestimmt werden, so besitzt der Lösungsraum auch so viele Dimensionen. Entsprechend aufwändig kann die Suche nach dem tiefsten Tal im Gebirge sein. Vor diesem Hintergrund werden häufig gerichtete Optimierungsverfahren eingesetzt. Hierbei wird der Wanderin mitgeteilt, in welcher Richtung sie abhängig von ihrem Standort nach dem tiefsten Tal suchen soll. Der Vorteil hierbei ist, dass die Wanderin schneller zu einer Lösung findet. Der Nachteil besteht in der Möglichkeit, dass die Wanderin einfach nur im nächstgelegenen (lokalen) Tal festhängt und dies fälschlicherweise für den tiefsten Punkt im gesamten Gebirge hält.