KI-Erkenntnisse aus San Francisco

Auch in diesem Jahr haben wir wieder an der Goldman Sachs Communacopia + Technology Konferenz in San Francisco teilgenommen, bei der erneut Themen rund um künstliche Intelligenz im Vordergrund standen. Im Folgenden teilen wir unsere Erkenntnisse:


  • Unternehmensinterner Einsatz von KI steckt noch in den Kinderschuhen, KI-Agenten könnten ein überzeugendes Wertversprechen für Kunden bieten

  • Eine Vielzahl der anwesenden Unternehmen gaben an, dass ihr interner Einsatz von generativer KI aktuell noch in den Kinderschuhen steckt. Dies deutet auf ein großes Wachstumspotenzial hin, aber auch darauf, dass die kurzfristigen (wirtschaftlichen) Auswirkungen von GenAI nicht überschätzt werden sollten.

  • Während die Modelle immer ausgefeilter und teurer werden, könnten KI-Agenten die nächste Evolutionsstufe für den Einsatz generativer KI sein. Viele SaaS-Unternehmen (u. a. ServiceNow, Salesforce) haben angekündigt, dass die kommenden Monate zeigen werden, wie KI-Agenten einen Mehrwert für die Kunden schaffen können.

  • Die Aussichten für eine immer ausgefeiltere KI-Infrastruktur bleiben positiv, wobei neue Chip-Generationen einen Paradigmenwechsel bewirken könnten

  • Rechenzentren werden immer mehr Energie benötigen. Die Nachfrage nach Energie ist in den USA in der jüngeren Vergangenheit im Wesentlichen konstant geblieben und in anderen entwickelten Regionen der Welt (z. B. Europa) sogar zurückgegangen. Dies scheint sich nun zu ändern, mit aktuell noch unklaren Folgen für die Beteiligten (z. B. die Versorgungsunternehmen). Investitionen in Künstliche Intelligenz führen zu einem erheblichen Anstieg des Energiebedarfs für Rechenzentren, der bis 2030 weltweit nach Schätzungen von Goldman Sachs um 165 % steigen soll. Es wird erwartet, dass bis 2030 ca. 40% aus erneuerbaren Energien und ca. 60% aus thermischen Quellen (Gas, Kohle) stammen werden. Die Kernenergie, insbesondere in Form von Small-Modular-Reactors (SMRs), könnte in den 2030er Jahren eine immer wichtigere Rolle spielen.

  • Es wird wichtig sein zu beobachten, wie die Chip-Kunden auf die technologischen Entwicklungen (d. h. höherer absoluter Energiebedarf, dafür noch höhere Rechenleistung) reagieren werden und welche Auswirkungen diese auf ihre Investitionsbudgets haben wird. Wir stellen uns die Kernfrage: Inwieweit (wenn überhaupt) werden diese Kunden über die nächsten Monate und Jahre Einschränkungen erleben? Jüngste Kommentare der Hyperscaler Microsoft oder Amazon deuten auf ungebrochen hohe Investitionbereitschaft über die nächsten Jahr hin. Mögliche Limits könnten hier durch Nachfrage, das Angebot, die (Finanz-)Budgets oder auch die Verfügbarkeit von Energie bestehen.

  • Spezialisierte Chips (sog. Custom Silicon) stehen bei vielen (großen) Kunden neben dem generalistischeren “Merchant Silicon” (zum Beispiel Nvidia GPUs) ganz oben auf der Agenda. Die Wirtschaftlichkeit der neuen Chip-Generationen (einschließlich Nvidias Blackwell) ist laut aktuellem Erkenntisstand für viele Kunden in Bezug auf die Kapitalrendite so überzeugend (Rechenleistung und Effizienz sind den vorherigen Generationen weit überlegen), dass die Nachfrage nach diesen Chips weiterhin sehr hoch bleiben wird. Dies wird sich unserer Einschätzung nach weiterhin positiv auf die Preissetzungsmacht der führenden Chiphersteller auswirken.

  • Die Investitionen verlagern sich vom KI-Training zur Inferenz. Es wird erwartet, dass die Inferenz-Arbeitslasten erheblich zunehmen werden, da zunehmend mehr Anwendungen entwickelt werden – sowohl von den großen Enterprise SaaS Unternehmen, als auch von Start-ups. Dies wird sowohl in der Cloud als auch am Edge stattfinden, je nachdem, wo es am wirtschaftlichsten ist. Vor allem für Inferenzanwendungen planen Cloud-Hyperscaler eine Dual-Chip-Strategie (Merchant uns Custom Silicon), je nach den Bedürfnissen des Kunden.

  • Die Rechenzentren werden dichter und flexibler. Die Infrastruktur von Rechenzentren verändert sich. Die Zentren werden immer dichter, was bei richtigem Management sowohl Vorteile für die Leistung als auch für die Energieeffizienz mit sich bringt. Dies bedeutet auch niedrigere Gesamtbetriebskosten (TCO) für deren Betreiber und Investoren. Eine Herausforderung besteht darin, den Mix der Kühlmethoden so zu verwalten, dass der Betrieb sowohl mit Flüssig- als auch mit Luftkühlung kombiniert werden kann, wobei der Wechsel dann erfolgt, wenn es am wirtschaftlichsten oder sinnvollsten ist. Dies wurde von verschiedenen Seiten der Wertschöpfungskette bestätigt, darunter Nvidia, Vertiv, Arista und Credo.


Goldman Sachs CEO David Solomon bespricht mit Nvidia CEO Jensen Huang aktuelle Nachfragetrends für KI-Chips
Goldman Sachs CEO David Solomon bespricht mit Nvidia CEO Jensen Huang aktuelle Nachfragetrends für KI-Chips

Publiziert am

Autor: TEQ Capital Research Team

Jetzt zum Newsletter anmelden