Aktuelle Events
Wie KI-Technologie den modernen Arbeitsalltag revolutioniert
Die dritte Phase der Digitalisierung hat begonnen. Wir zeigen Anwendungsgebiete und Potenziale moderner KI-Technologien im Überblick.
Der moderne Büroalltag, aber auch die Unternehmensführung, die Logistik, Marketing- und Planungsprozesse aller Art sind in den vergangenen Jahrzehnten immer digitaler und rationaler geworden. Derzeit befinden wir uns mitten in einem weiteren Umbruchsprozess, der in seiner Wirkung nur mit der Einführung des PCs und der umfassenden Vernetzung durch Internet und Unternehmensnetzwerke vergleichbar sein dürfte.
Wie in Transformationsphasen üblich bringen diese entscheidende Risiken und Potenziale für etablierte Größen wie auch für Start-ups mit sich. Wer jetzt zurückbleibt, verschafft der Konkurrenz unter Umständen einen Vorsprung, der nur schwer einholbar sein kann. Umgekehrt bieten sich für frühe Anwender zahlreiche Chancen, die eigenen Prozesse zu rationalisieren, neue Dienstleistungen auf den Markt zu bringen und sich auf absehbare Zeit eine stabile Marktposition zu erobern.
Um das volle Potenzial der digitalen Revolution und insbesondere der sich rasant entwickelnden KI-Technologie ausloten zu können, sollte man sich zunächst bewusst machen, welche Bedeutung technische Revolutionen auf den Arbeits- und Unternehmensalltag haben, sich einen möglichst breiten Überblick über die verschiedenen Anwendungsmöglichkeiten der neuen Technologie verschaffen und sich abschließend fragen, wie das eigene Unternehmen oder ein vielversprechendes Businessmodell davon profitieren könnten.
Die drei Phasen der digitalen Revolution
Einfach nur von der digitalen Revolution zu sprechen, wird dem Phänomen längst nicht mehr gerecht. Eine Einteilung in drei historische Phasen zeigt einerseits, wie lange wir bereits von der computergetriebenen Entwicklung beeinflusst werden und andererseits, wie sich die Digitalisierung zunehmend in alle ökonomischen und sozialen Bereiche ausdehnt.
1. Die Ära des Personal Computers: Die Anfänge der digitalen Revolution
Die erste Phase der digitalen Revolution begann mit der Einführung des Personal Computers in den Büroalltag. Dieser technologische Durchbruch in den 1970er und 80er Jahren markierte einen Paradigmenwechsel in der Arbeitswelt. PCs ermöglichten eine effizientere Datenverarbeitung, Textverarbeitung und Tabellenkalkulation, wodurch zeitaufwendige manuelle Prozesse ersetzt wurden. Diese Entwicklung ebnete den Weg für eine produktivere und zugänglichere Arbeitsumgebung, in der Aufgaben schneller und präziser ausgeführt werden konnten.
2. Das Internetzeitalter: Vernetzung und globale Expansion
Die zweite Phase, ausgelöst durch die weite Verbreitung des Internets in den 1990er Jahren, revolutionierte die Kommunikation und Zusammenarbeit im Büro. Die Möglichkeit, in Echtzeit Informationen auszutauschen und auf eine Fülle von Online-Ressourcen zuzugreifen, eröffnete Unternehmen neue Dimensionen der globalen Vernetzung. E-Mail wurde zum Standardkommunikationsmittel, während das World Wide Web eine Plattform für unendliche Informations- und Geschäftsmöglichkeiten wurde. Diese Ära definierte die Art und Weise, wie Unternehmen operieren und interagieren, vollständig neu und leitete das Zeitalter der digitalen Wirtschaft ein.
3. KI-Technologie: Ein neues Kapitel in Produktion, Unternehmensführung, Vermarktung und Verwaltung
In der dritten und aktuellen Phase der digitalen Revolution tritt KI in den Vordergrund, indem sie die Grenzen praktisch aller unternehmerischen Prozesse und den Büroalltag von Millionen Menschen neu definiert. KI-gesteuerte Anwendungen, von automatisierten Kundendienstlösungen bis hin zu fortschrittlicher Datenanalytik, transformieren die Arbeitsweise in Unternehmen grundlegend. Sie ermöglichen nicht nur eine bisher unerreichte Automatisierung und Effizienzsteigerung, sondern auch eine personalisierte und vorausschauende Geschäftsstrategie in allen Bereichen von der Vermarktung bis zu den Lieferketten. Die Integration von KI in den modernen Unternehmensalltag stellt somit nicht nur eine Fortsetzung der Digitalisierung dar, sondern eröffnet neue Wege in Richtung intelligenter, datengesteuerter Arbeitsumgebungen in allen Unternehmensbereichen.
Potenziale und Anwendungsgebiete moderne KI-Techniken
Während die automatisierte Datenanalyse riesiger Datenmengen (Big Data) praktisch alle datengetriebenen Prozesse der Unternehmensführung, -organisation und Verwaltung betrifft, beginnt die jüngste Entwicklung sprachbegabter KI-Technologien gerade erst ihr Potenzial und ihre verschiedenen Anwendungsmöglichkeiten zu zeigen.
Verarbeitung natürlicher Sprache (NLP): KI, die uns versteht
Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein beeindruckender technischer Durchbruch sowie ein faszinierendes und schnell wachsendes Feld der Künstlichen Intelligenz. Erstmals wird die Interaktion zwischen Computern und Menschen in natürlicher Sprache ermöglicht. Dies verschafft einer breiten Zahl von Nutzern Zugang zu Instrumenten, die zuvor nur Programmierern oder anderen Experten zur Verfügung standen. In Verbindung mit weiteren Fähigkeiten der KI lässt sich derzeit kaum eine Grenze für das Transformationspotenzial dieser Technologien erahnen. Im Kontext des modernen Büroalltags machen NLP-Anwendung beinahe täglich bedeutende Fortschritte und bieten immer vielfältigere Anwendungsmöglichkeiten, die die Arbeitsweise grundlegend verändern:
- Spracherkennung und -verarbeitung: NLP ermöglicht es Computern, gesprochene Sprache zu verstehen und zu verarbeiten. Dies erweitert die Interaktionsmöglichkeiten zwischen normalen Nutzern und KI-Anwendungen grundlegend. Eine der aktuellsten Innovationen auf diesem Gebiet ist beispielsweise Blizo, eine Software zur Transkription und übersichtlichen Zusammenfassung von Meetings. Anwendungen wie diese erlauben Mitarbeitern zudem Berichte durch Sprechen, anstatt durch Tippen zu erstellen, was Zeit spart und die Zugänglichkeit erhöht. NLP revolutioniert allgemein und umfassend die Sprachsteuerung von Geräten und Software, wobei die Entwicklung hier noch ganz am Anfang ist und die Möglichkeiten weiterer Anwendungen gerade erst am Horizont erscheinen.
- Chatbots und Virtuelle Assistenten: Im Kundenservice werden bereits seit längerer Zeit NLP-basierte Chatbots eingesetzt, um Kundenanfragen effizient zu beantworten oder vorzusortieren. Diese Systeme können natürliche Konversationen simulieren und so die Kundeninteraktion verbessern. Ebenso unterstützen virtuelle Assistenten Mitarbeiter, indem sie einfache Aufgaben wie die Terminplanung oder Informationsabfragen übernehmen. Alexa, Siri und Co. werden in Kürze wie fossile Urgesteine neben der neuesten Generation sprechender Bots aussehen und vermutlich bald selbst ein umfassendes Update bekommen.
- Sentimentanalyse: NLP-Tools können Stimmungen und Meinungen in Texten erkennen und analysieren. Dies ist besonders nützlich für Marketing- und Kundendienstabteilungen, um Kundenfeedback und Markttrends zu verstehen und darauf zu reagieren, kann beispielsweise aber auch in der Wissenschaft Anwendung finden.
- Automatische Zusammenfassungen und Berichterstattung: NLP kann genutzt werden, um lange Dokumente oder Datenmengen automatisch zu analysieren und zusammenzufassen. Dies spart Zeit bei der Informationsbeschaffung und ermöglicht es, schneller fundierte Entscheidungen zu treffen. NLP ermöglicht es Computern erstmals, menschliche Sprache in für sie prozessierbare Daten zu verwandeln.
- Sprachübersetzung: Fortgeschrittene NLP-Systeme bieten nahezu Echtzeit-Übersetzung von und in verschiedene Sprachen, was die globale Kommunikation und Zusammenarbeit erleichtert. ChatGPT etwa brachte sich selbst auf der Basis seiner Algorithmen und der englischen Sprache zahlreiche weitere Sprachen bei und kann mittlerweile für viele Sprachen auch als relativ zuverlässiges Übersetzungstool genutzt werden.
- Verbesserte Suchfunktionen: NLP verbessert Suchalgorithmen, sodass Nutzer natürliche Sprache verwenden können, um komplexe und kontextbezogene Informationen in Datenbanken oder im Internet zu finden. Dies wird die Forschung und Bildung in den nächsten Jahren transformieren und Big Data noch größer machen.
Alles kann berechnet werden: Big Data
Neben den Fortschritten bei der Sprachfähigkeit beeindrucken KI-Anwendungen vor allem durch ihre unglaublichen Analysefähigkeiten, mit denen sie in der Lage sind, verschiedenste Muster auf der Grundlage riesiger Datenmengen zu erstellen und sogar Vorhersagen über zukünftige Entwicklungen zu erstellen. Dabei speist sich die Datengrundlage, Big Data, aus unterschiedlichen Quellen von Social Media Postings bis hin zu medizinischen Statistiken und Ähnlichem.
Intelligente Algorithmen beziehungsweise Methoden des maschinellen Lernens ermöglichen eine automatisierte Analyse dieser Daten zu unterschiedlichen Zwecken. Aufgrund ihrer enormen Rechenleistung und der Fortschrittlichkeit der statistischen Analysemethoden entdecken KI-Anwendungen mittlerweile viele Muster zuverlässiger und schneller als menschliche Forscher oder Analysten. Über kurz oder lang wird ein Großteil unseres statistischen Wissens auf der automatisierten Analyse von Big Data beruhen. Zu den Hauptanwendungsgebieten dieser mächtigen Algorithmen gehören derzeit folgende Bereiche:
- Unternehmensorganisation und Entscheidungsfindung: Unternehmen nutzen Big Data, um Markttrends zu analysieren, Kundenverhalten zu verstehen und fundierte Entscheidungen bei Geschäftsstrategien, in der Produktentwicklung und bezüglich ihrer Marketingkampagnen zu treffen. Diese Analysen ermöglichen es Unternehmen, auf sich ändernde Marktdynamiken schnell zu reagieren und ihre Angebote besser auf die Kundenbedürfnisse abzustimmen.
- Personalisierte Kundenerfahrungen: Im Einzelhandel und in der Dienstleistungsbranche wird Big Data verwendet, um personalisierte Einkaufserlebnisse zu schaffen. Durch Analyse des Kaufverhaltens, Online-Interaktionen und Kundenpräferenzen können Unternehmen individuell zugeschnittene Empfehlungen und Angebote erstellen.
- Gesundheitswesen: Im Gesundheitssektor ermöglichen Big Data Analysen eine bessere Patientenversorgung durch die Analyse von Patientendaten, klinischen Studien und Forschungsergebnissen. Sie tragen zur Entwicklung personalisierter Medizin bei und helfen bei der Vorhersage von Krankheitsmustern und Epidemien.
- Finanzdienstleistungen: In der Finanzbranche wird Big Data unter anderem genutzt, um Risiken zu bewerten, Betrug zu erkennen und Investitionsentscheidungen zu optimieren. Banken und Versicherungen analysieren große Mengen an Transaktionsdaten, um ungewöhnliche Muster zu identifizieren und ihr Risikomanagement zu verbessern.
- Supply Chain Management: Big Data hilft Unternehmen, ihre Lieferketten effizienter zu gestalten. Durch die Analyse von Daten aus verschiedenen Quellen können Unternehmen Lagerbestände optimieren, Lieferzeiten verkürzen und die Reaktionsfähigkeit auf Marktveränderungen verbessern.
- Städtische Planung und Verkehr: Im öffentlichen Sektor werden Big Data Anwendungen zur Verbesserung der städtischen Infrastruktur und zur Optimierung des Verkehrsflusses eingesetzt. Städte nutzen Verkehrs- und Mobilitätsdaten, um Staus zu reduzieren und öffentliche Dienstleistungen zu verbessern.
- Energie und Umwelt: Im Energiebereich ermöglichen Big Data Analysen eine effizientere Nutzung von Ressourcen und tragen zur Entwicklung nachhaltiger Energielösungen bei. Sie werden auch zur Überwachung und zum Schutz der Umwelt eingesetzt, indem beispielsweise Emissionsdaten analysiert werden.
Fazit: Unendliche Möglichkeiten
Wie in der Übersicht deutlich geworden sein dürfte, sind die Möglichkeiten und Grenzen moderner KI-Technologien derzeit kaum absehbar. Nahezu jede Branche sowie Unternehmen aller Größen werden in den nächsten Jahren in der ein oder anderen Form durch diese neueste Phase der digitalen Revolution beeinflusst werden. Derzeit stecken viele Anwendungen zwar noch in den Kinderschuhen, aber ihr Transformations- und Rationalisierungspotenzial lässt sich bereits erahnen – und vor allem schon heute nutzen.
Jeder Jungunternehmer, Start-up-Gründer, aber auch etablierte Firmen und Manager sollten diese frühe Phase nutzen, um sich einen Vorsprung zu verschaffen, Erfahrungen zu sammeln und ihr gesamtes Geschäftsmodell daraufhin zu befragen, wo ihnen KI in Zukunft behilflich sein kann.
Diese Artikel könnten Sie auch interessieren:
Agentic AI als Erfolgsgrundlage für Start-ups
KI befeuert den aktuellen Gründungsboom, doch für eine erfolgreiche Skalierung braucht es mehr. Warum Agentic AI auf Basis einer soliden Datenarchitektur zum entscheidenden Erfolgsfaktor für Start-ups wird.
Das Jahr startete für Start-ups mit einer Rekordmeldung: In Deutschland wurden im vergangenen Jahr fast ein Drittel mehr Gründungen verzeichnet. In absoluten Zahlen wurden 2025 insgesamt 3.568 neue Firmen geschaffen – ein neuer Höchststand, wie der Start-up-Verband im Januar verkündete. Dies ist auch der künstlichen Intelligenz (KI) zu verdanken, wie sich beim genauen Hinschauen herausstellt. 853 dieser neuen Unternehmen kommen aus dem Bereich Software. Doch nicht nur sie verwenden KI; bei einer Umfrage gab ein Drittel aller Gründer und Gründerinnen an, dass sie mit KI arbeiten. Dementsprechend sehen die Sprecher des Verbands in der Technologie auch die treibende Kraft hinter dem Start-up-Rekord.
Wirft man einen Blick über den Tellerrand hinaus, so lässt sich feststellen, dass die Start-up-Szene in Europa insgesamt floriert. Der „State of European Tech 2025“-Report im Auftrag von Atomico und anderen schätzt, dass im letzten Jahr Investitionen in Höhe von 44 Milliarden US-Dollar (umgerechnet ca. 38 Mrd. EUR) in diesen Sektor geflossen sind. Geldgeber erwarten inzwischen, dass Start-ups mit KI und Deep Tech arbeiten, so der Report. Demnach flossen auch 36 Prozent der europäischen Start-up-Investitionen in genau diese beiden Felder.
Das Gründungsumfeld könnte also kaum besser sein. Doch ein Rekord an Start-ups und steigende Investitionssummen bedeuten nicht zwangsläufig auch eine einfache Skalierung der Geschäftsmodelle. Viele – zu viele – Start-ups scheitern nach erfolgreichen ersten Jahren an der Weiterentwicklung ihres Geschäfts. Neben einer Reihe üblicher Herausforderungen stehen vor allem Bürokratie, Fragen zur Datenhoheit und ein Betrieb über Landesgrenzen und Wirtschaftszonen hinweg im Vordergrund. Start-ups müssen nachweisen, dass ihre Nutzung von KI auf soliden, regulierten Datenfundamenten basiert und den Compliance-Vorgaben entspricht.
Hier kommt Agentic AI ins Spiel. Die Einbettung von KI-Agenten in den Kern der Betriebsabläufe ist die Antwort auf viele dieser Herausforderungen und wird für das Wachstum im Jahr 2026 von entscheidender Bedeutung sein.
Solide Datenbasis vor KI-Einsatz
Start-ups, die dies erreichen wollen, sollten sich darauf konzentrieren, ihre KI-Nutzung auf einer soliden Datenbasis aufzubauen, deren Fundament eine einheitliche Datenarchitektur ist. Sie tun sich deutlich leichter damit, die dafür nötigen Architekturentscheidungen zu treffen, als etablierte Unternehmen mit entsprechender Legacy-IT. Gründer und Gründerinnen sollten daher von Beginn an darüber nachdenken, wie sie eine starke Datenarchitektur aufsetzen, Silos abbauen und KI als Herzstück ihrer Prozesse einbetten.
Diese Grundlage hilft bei der Einführung von KI-Agenten, damit deren Output auch die Erwartungen erfüllt: Geschäftsprozesse effizienter zu strukturieren und zu optimieren sowie die Entscheidungsfindung zu beschleunigen. Start-ups, die dies umsetzen, werden sich gegen ihre Konkurrenten durchsetzen und letztlich erfolgreich sein.
KI-Agenten als Innovationsbeschleuniger
Indem Start-ups KI-Agenten von Beginn an in den Kern ihrer Geschäftsabläufe integrieren, skalieren sie schneller als mit dem Einsatz von nur einem reinen Large Language Model (LLM). Der Grund dafür liegt in der Standardisierung der Daten, die für KI-Agenten notwendig ist. Auf dieser Grundlage können die Agenten ihre einzigartigen, autonomen Fähigkeiten ausspielen, da sie mit unternehmenseigenen Daten trainiert werden. Vor allem bei Start-ups können Potenziale schnell gehoben werden: Wenn Agenten für bestimmte Aufgaben entwickelt werden, können sie diese auch lösen – egal wie komplex und fachspezifisch sie sein mögen. Stimmt die Datenbasis, lassen sich auch mehrere Agenten miteinander verknüpfen, um sogar noch komplexere Herausforderungen zu bewältigen.
Ein Beispiel dafür ist die mögliche Kooperation zwischen einem Kundensupport-Agenten und einem Prognose-Agenten. Wenn ein Kunde einen Support-Fall auslöst, kann der andere Agent sogleich die Kosten berechnen, was die Kundenzufriedenheit durch eine schnellere Reaktion steigern kann. Für die Skalierung von Start-ups ist ein enges Zusammenspiel der Abteilungen wichtig, um die Geschäftsbeziehungen zu zufriedenen Kunden weiter ausbauen zu können. Der Einsatz von KI-Agenten kann, gepaart mit dem menschlichen Element, begrenzte personelle Ressourcen ausgleichen und eine bessere Serviceleistung ermöglichen, was für ein schnelles Wachstum unabdingbar ist.
Doch nicht nur der Kundenkontakt lässt sich automatisieren, sondern auch eine ganze Reihe von Routinevorgängen in der internen Verwaltung der Firmen selbst. Dies ermöglicht nicht nur dem Management, sondern auch den Investoren, schnell einen fundierten Überblick über Liquidität, Umsatz, Einnahmen und Gewinn zu erhalten. Die Erkenntnisse in Echtzeit führen zu schnellen und datenbasierten Entscheidungen, was für junge Unternehmen Gold wert ist und es ihnen ermöglicht, flexibel zu bleiben.
Die Datenbasis muss stimmen
Für Start-ups sind Probleme beim Datenzugriff ein kritisches Risiko für den Geschäftserfolg. Eine einheitliche, moderne Datenarchitektur ermöglicht die Demokratisierung des Datenzugriffs und löst Datensilos auf. Der Vorteil liegt auf der Hand: Schneller Datenzugriff schafft Transparenz gegenüber Kunden und Aufsichtsbehörden. Darüber hinaus erhöht dies auch das Vertrauen der Mitarbeitenden und schafft ein Gefühl des Zusammenhalts.
Governance ist auch bei der Verwendung von KI-Agenten von entscheidender Bedeutung. Der Druck zur Einhaltung von Vorschriften sollte daher als Vorteil betrachtet werden.
Der Dreiklang aus Datenherkunft, Versionierung und automatisierter Auswertung der Ergebnisse hilft jungen Unternehmen dabei, Governance auf einem soliden Fundament aufzubauen. Die Teams erhalten direkte Transparenz darüber, wie sich die KI-Agenten verhalten, auf welchen Daten sie basieren und wie sie ihre Ergebnisse im Laufe der Zeit verändern. Laufende Bewertungen tragen dazu bei, dass KI-Agenten präziser werden, um genau jene hochwertigen Ergebnisse zu liefern, die Start-ups für die Skalierung ihrer Geschäftsmodelle benötigen. Dies ist besonders wichtig, wenn proprietäre KI-Modelle entwickelt und von der Testphase in die Produktion überführt werden, wobei gesetzliche Vorschriften wie die DSGVO oder der EU AI Act zwingend einzuhalten sind.
Parloa, ein deutsches Start-up-Unternehmen mit einer Bewertung von drei Milliarden US-Dollar, ist ein hervorragendes Beispiel dafür, wie dieser Ansatz in der Praxis aussehen kann: Das Unternehmen hat KI-Agenten zum Kern seines Kundenservice gemacht und gleichzeitig eine einheitliche, kontrollierte Datenbasis aufgebaut, die vollständig mit der DSGVO und dem EU AI Act konform ist. Seine Plattform folgt den Prinzipien des „Privacy by Design“, sodass sensible Kundendaten ohne Kontrollverlust verwendet werden können. Durch die Verwaltung des gesamten Lebenszyklus von KI-Agenten macht Parloa Governance zu etwas Greifbarem und gibt den Teams Klarheit darüber, welche Daten verwendet wurden, wie sich die Agenten verhalten haben und wie sich die Ergebnisse im Laufe der Zeit entwickelt haben. Diese Kombination aus moderner Architektur und starker Governance ermöglicht es den Kunden von Parloa, Zugang zu hochwertigen Daten zu erhalten und die Transparenz für Regulierungsbehörden sowie Endnutzer zu erhöhen – und dennoch KI-gesteuerte Kundeninteraktionen in Umgebungen zu skalieren, in denen Fehler oder Missbrauch inakzeptabel sind.
Fazit
KI-Agenten bieten europäischen Start-ups eine einmalige Gelegenheit, schnell zu wachsen und gleichzeitig Investoren anzuziehen, die bekanntermaßen ihr Geld bevorzugt in Unternehmen investieren, die Wert auf Datenverwaltung, Genauigkeit, Qualität und die Schaffung von echtem Mehrwert durch Technologie legen. Es ist jedoch ein Fehler, sich ohne sorgfältige Überlegungen auf die Einführung von Agenten zu stürzen. Start-ups, die KI-Agenten einsetzen, ohne zuvor eine einheitliche Datenbasis aufzubauen und eine solide Verwaltung sowie Bewertung sicherzustellen, riskieren, mehr Komplexität als Mehrwert zu schaffen. Letztlich werden jene Gründer und Gründerinnen erfolgreich sein, die ihre Geschäftsmodelle branchen- und länderübergreifend skalieren können – hierbei spielt der Einsatz von KI-Agenten bereits jetzt eine entscheidende Rolle.
Der Autor Nico Gaviola ist VP Digital Natives & Emerging Enterprise bei Databricks EMEA.
ChatGPT schreibt Texte. R3 Robotics zerlegt Batterien
Es gibt Probleme, die man mit Software lösen kann, und es gibt Probleme, für die man sich die Hände schmutzig machen muss – oder besser: Roboterhände nutzt. Antoine Welter und Dr. Xavier Kohll haben mit Circu Li-ion begonnen, um Batterien zu retten. Jetzt, unter dem neuen Namen R3 Robotics und mit 20 Millionen Euro frischem Kapital im Rücken, treten sie an, um den wohl größten Flaschenhals der kommenden Mobilitätswende zu beseitigen. Ihr Ansatz: Keine teuren Spezialmaschinen, sondern intelligente Standard-Roboter, die sehen, verstehen und sicher zupacken.
Wenn in den Vorstandsetagen der Automobilhersteller über die Zukunft gesprochen wird, geht es meist um Reichweiten und Software-Defined Vehicles. Doch am anderen Ende der Wertschöpfungskette braut sich ein Sturm zusammen. Millionen von Elektrofahrzeugen werden in den kommenden Jahren ihr Lebensende erreichen. Die derzeitige Realität in vielen Recyclinghöfen wirkt dagegen fast archaisch: Menschen, die mit Handwerkzeugen komplexe Systeme auseinanderschrauben. Das ist nicht nur teuer und schwer skalierbar, sondern bei Hochvolt-Systemen auch lebensgefährlich.
Genau hier setzen Antoine Welter und Xavier Kohll an. Die Nachricht, die das deutsch-luxemburgische Unternehmen Anfang Februar 2026 verkündete, ist mehr als nur eine Finanzierungsrunde. Die 20 Millionen Euro – aufgeteilt in 14 Millionen Euro Series-A-Kapital und 6 Millionen Euro öffentliche Fördergelder – heben die Gesamtfinanzierung des Unternehmens auf ein neues Level. Angeführt wird die Runde von HG Ventures und Suma Capital, unterstützt von Co-Investoren wie der Oetker Collection und dem EIC Fund.
Doch das Geld ist nur der Treibstoff für eine strategische Evolution. Aus Circu Li-ion wird R3 Robotics. Der neue Name ist Programm: Repair, Reuse, Recycle. Antoine Welter erklärt die Motivation hinter der Umbenennung pragmatisch: „Circu Li-ion hat beschrieben, wo wir angefangen haben. R3 Robotics beschreibt, was wir aufbauen: industrielle Robotik, die Demontage skalierbar, sicher und kosteneffizient macht.“
Wenn der Roboter Augen bekommt
Die größte Hürde im Recycling ist nicht die Chemie, sondern die Variabilität. Kein Batteriepack gleicht dem anderen, E-Motoren sind unterschiedlich verbaut, Schrauben sind korrodiert. Starre Fertigungsstraßen scheitern hier. R3 Robotics löst dies mit einer Plattform, die Computer Vision, künstliche Intelligenz und Robotik verschmilzt.
Das System fungiert dabei fast wie ein „ChatGPT für die physische Welt“: Anstatt Text zu generieren, plant die KI physische Handlungen. Sensoren scannen das Bauteil, die KI erkennt den Zustand und promptet den Roboterarm dynamisch durch den Demontageprozess. Der entscheidende Vorteil: Der Mensch wird aus der Gefahrenzone der Hochspannung genommen, während der Roboter Aufgaben erledigt, die für klassische Automatisierung zu komplex wären.
Angesprochen auf den Vergleich mit Generative AI und die Frage, wie die Roboter tatsächlich „sehen“ und „entscheiden“, bestätigt Welter die Parallele: „Der Vergleich mit Generative AI passt gut: Das Modell bekommt einen Input – keinen Text, sondern einen Scan des Bauteils – und generiert daraus eine Handlungssequenz.“ Es gehe darum zu erkennen, um welches Modell es sich handelt, wie der Zustand ist und wo die Verbindungspunkte liegen. „Das klingt simpel, ist es aber nicht – kein Pack ist identisch“, so Welter. Die eigentliche Herausforderung liege jedoch in der Entscheidung davor: „Welche Reihenfolge ist sicher? Ein falscher Griff an ein Hochvoltsystem kann tödlich sein. Unser System sieht, bewertet und entscheidet.“
Smart Hardware: Warum das Rad neu erfinden?
Ein Detail, das Investor*innen besonders aufhorchen lässt, ist die Kapitaleffizienz der Gründer. Wer an Industrie-Robotik denkt, denkt an teure Hardware-Entwicklung. R3 Robotics geht einen pragmatischen Weg: Ein Großteil der verwendeten Hardware wird „von der Stange“ gekauft.
Die Roboterarme sind Standardprodukte. Die Innovation – und damit das geistige Eigentum – steckt in den spezialisierten „End-Effektoren“ (den Roboterhänden), den Sensorsystemen und vor allem dem Software-Stack, der alles steuert. Das erlaubt eine Skalierung, die mit proprietärer Hardware kaum möglich wäre. Mitgründer Dr. Xavier Kohll betont, dass dies eine bewusste Entscheidung gegen „Over-Engineering“ war: „Der Roboterarm ist Standard und die Intelligenz sitzt in den Endeffektoren, der Sensorik und dem Software-Stack, der alles zusammenbringt. Das ist unser geistiges Eigentum, und genau das lässt sich skalieren.“
David gegen Goliath – oder Partner?
Während große Recycling-Konzerne oft noch auf den Schredder setzen und die manuelle Demontage an ihre Grenzen stößt, positioniert sich R3 Robotics in einer neuen Nische. Es geht nicht darum, die Chemie-Giganten zu ersetzen, sondern ihnen den Rohstoff so rein wie möglich zu liefern – als strategische Quelle für kritische Materialien. Doch der Markt schläft nicht: Weltweit entstehen Initiativen zur Automatisierung.
Trotz des aktuellen „Gegners“ – dem Menschen mit dem Schraubenzieher – und potenzieller Konkurrenz durch Tech-Start-ups oder Autohersteller, bleibt Welter gelassen. „Wir konkurrieren nicht mit den Chemie-Giganten, wir liefern ihnen den reinsten möglichen Stoffstrom“, stellt er klar. Gegenüber potenziellen Nachahmern sieht er einen entscheidenden Vorteil, den „Unfair Advantage“: die Kombination aus Flexibilität und industrieller Automatisierungstiefe. „Wir sind aktuell die einzige Plattform, die sowohl Variabilität managt als auch für kontinuierlichen Industriebetrieb ausgelegt ist.“
Deutschland als Labor, USA als Skalierungsmarkt
Die Wachstumsstrategie von R3 Robotics ruht auf zwei massiven Säulen: technologischer Tiefe in Europa und kommerzieller Breite in den USA.
Deutschland fungiert dabei als das technologische Rückgrat. Mit der Erweiterung der Anlage in Karlsruhe zur Lighthouse Facility demonstriert das Unternehmen industrielle Leistungsfähigkeit direkt vor der Haustür der großen Autobauer. Hier wird die Technologie gehärtet. Das zeigt sich auch im Leuchtturmprojekt ReDriveS, wo R3 Robotics Seite an Seite mit Giganten wie Schaeffler und VW an der Demontage von E-Achsen arbeitet.
Doch für das massive Volumen blickt das Team über den Atlantik. Der für 2026 geplante Markteintritt in den USA ist Kern der neuen Strategie. Die frischen 20 Millionen Euro sollen gezielt in den Aufbau strategischer Partnerschaften vor Ort fließen, um die Technologie dort auszurollen, wo Pragmatismus auf riesige „End-of-Life“-Volumina trifft. Für Welter ist dieser Doppelschlag essenziell: „Deutschland ist unser Beweisstand. Hier zeigen wir Schaeffler, VW und Co., dass unsere Technologie industriellen Maßstäben in Deutschland standhält.“ Die USA seien hingegen der wichtige Skalierungsmarkt, wo pragmatische Entscheider auf gigantische Volumina treffen. „Beides brauchen wir: die Glaubwürdigkeit aus Europa und das Volumen aus Amerika.“
Industrialisierung statt Romantik
Mit Peter Mohnen, dem ehemaligen CEO des Roboter-Riesen KUKA, holte sich das Start-up zudem einen Beirat, der wie kaum ein anderer weiß, was Industriestandard bedeutet. Er beschreibt den Ansatz von R3 als Beweis für die nötige Automatisierungsexpertise, um Variabilität und Sicherheit gleichzeitig zu managen.
Um diese Expertise weiter auszubauen, wächst das Team rasant. Die Belegschaft soll mit der neuen Finanzierung massiv aufgestockt werden, vor allem im Bereich Engineering und KI. R3 Robotics hat den Beweis erbracht, dass Kreislaufwirtschaft kein ökologisches Nischenprojekt sein muss, sondern ein harter industrieller Prozess ist, der sich rechnet.
Denn letztlich, so das Fazit von Antoine Welter, sei Automatisierung der einzige Weg, das Problem wirklich zu lösen – nicht allein aus ökologischen Gründen, sondern weil es wirtschaftlich Sinn ergibt. „Was wir aufbauen, ist am Ende ein harter industrieller Prozess: Er muss zuverlässig funktionieren und sich rechnen.“ Es gehe aber um mehr als ein Geschäftsmodell: „Europa braucht eine Antwort auf die Frage, woher seine kritischen Materialien in Zukunft kommen“, mahnt Welter abschließend. „Wenn Europa diesen Zugang sichern will, braucht es Unternehmen, die genau das industriell umsetzen können. Dafür bauen wir diese Infrastruktur, und mit dem neuen Kapital und Team haben wir jetzt die Mittel dazu.“
VESTIO: Wenn ein Solar-Entrepreneur auf einen Stil-Rebellen trifft
Die Geschichte der jungen FashionTech-App VESTIO ist zugleich die zweier Gründer, die sich in einem gemeinsamen Ziel treffen: Die Demokratisierung von gutem Stil durch algorithmische Logik.
Hinter der FashionTech-App VESTIO steht die im Jahr 2024 von Bastian Arend und Justus Hansen gegründete Opus Stilberater GmbH, die den Anspruch erhebt, professionelle Stilberatung erstmals digital, logisch und kostenlos zugänglich zu machen.
Der „Solar-Entrepreneur“ trifft den Stil-Rebell
Die persönlichen Hintergründe der Gründer bieten spannende Kontraste, die weit über ein übliches Business-Profil hinausgehen. Bastian Arend, Co-Founder und CEO, kam über die Energiewende zur Mode. Als Seriengründer baute er den Online-Solar-Anbieter Klarsolar auf und verkaufte ihn im Dezember 2023 erfolgreich an den Energiekonzern E.ON. Die Übernahme erfolgte in einer für die Solarbranche schwierigen Marktphase, was Bastian Arend als Krisen-erprobten Strategen auszeichnet.
VESTIO entwickelte er 2024 jedoch aus einem ganz persönlichen „Pain Point“ heraus: Während er internationale Millionen-Finanzierungsrunden leitete, bestand sein eigener Stil mangels Zeit lediglich aus Hoodie, Jeans und Sneakern. „Ich wollte nur jemanden, der für mich einkauft“, erinnert er sich an diese Phase. Seine Abneigung gegen zeitraubendes Shopping führte ihn schließlich zu Justus Hansen.
Justus Hansen, Co-Founder und Chief Styling Officer, bringt eine Biografie ein, in der Mode schon immer eine zentrale Rolle spielte. Sein Gespür für klassische Mode ist tief verwurzelt: Justus Hansen trug bereits im Kindergarten eine Fliege und provozierte später Lehrer, indem er im Sakko zum Unterricht erschien. Bevor er mit über 1,6 Millionen Follower*innen zu einem der bekanntesten Männerstilberater Deutschlands aufstieg, studierte er Jura und absolvierte Praktika im Bankensektor, unter anderem bei der Dresdner Bank.
Diese Erfahrungen schärften seinen Blick für die Anforderungen moderner „Business-Garderoben“. Als Arend ihn fragte, ob er für ihn einkaufen könne, antwortete Justus Hansen bestimmt: „Einfach irgendwas kaufen? Nein. Ich muss verstehen, wer du bist.“ Bastian Arend begriff Hansens modulare Styling-Methode sofort als logisches System und schlug vor: „Wir sollten deine Methode digitalisieren und kostenlos für jeden Mann zugänglich machen.“ Für Justus Hansen wurde damit ein „Lebenstraum“ wahr.
Das Konzept: „Weniger Teile, mehr Outfits“
Das Herzstück der App bildet ein algorithmisches Styling-System, das strikt dem Leitsatz „Weniger Teile. Mehr Outfits“ folgt. In nur drei Minuten erstellt ein Stilfinder-Fragebogen eine persönliche Grundgarderobe. Der digitale Kleiderschrank funktioniert dabei bewusst ohne das mühsame Hochladen von Fotos; das System kennt die wichtigsten Basics, erkennt Lücken und empfiehlt gezielt Ergänzungen. Justus Hansen betont dabei die Wichtigkeit der Basis: „Die wenigsten Männer besitzen eine echte Basisgarderobe. Und das ist die Grundlage, aus der ihre besten Outfits entstehen.“
Ziel ist es, automatisch kombinierbare Outfits für alle Anlässe zu generieren. Dabei verfolgen die Gründer eine klare ästhetische Linie: „Outfits müssen nicht kompliziert sein, um zu wirken. Sie brauchen lediglich eine klar erkennbare Linie“, so Hansen. Bastian Arend ergänzt: „Die besten Outfits für Männer sind nicht kompliziert, sondern harmonisch und durchdacht.“
Das Affiliate-Dilemma: Geschäftsmodell im kritischen Check
Wirtschaftlich operiert VESTIO über ein Affiliate-Modell. Die App ist für Nutzer kostenlos, während das Unternehmen Provisionen von Partner-Anbietern bei einem erfolgreichen Kauf erhält. Hier liegt für den kritischen Betrachter ein interessanter systemischer Interessenkonflikt: Das erklärte Ziel „Weniger Konsum – bessere Entscheidungen“ steht ökonomisch potenziell im Widerspruch zu einem Modell, das von Transaktionen lebt. Zudem stellt sich die Frage der langfristigen Nutzerbindung: Sobald ein Mann seine „perfekte Garderobe“ aufgebaut hat, sinkt der Bedarf für weitere Anschaffungen. Dass das Unternehmen dennoch auf Wachstum setzt, zeigt die Erhöhung des Stammkapitals auf knapp 30.000 Euro im September 2025. Langfristig plant VESTIO die Integration eines Marktplatzes, der Partnerprodukte und eigene Kollektionen vereint, um basierend auf Daten den größten Mehrwert zu liefern.
Marktpositionierung und technologischer Vorsprung
Im Vergleich zum Wettbewerb besetzt VESTIO eine spezifische Nische. Während Curated-Shopping-Anbieter (z.B. Outfittery) auf den Versand physischer Boxen setzen, bleibt VESTIO ein rein digitaler Guide, der dem Nutzer die volle Freiheit bei der Wahl des Händlers überlässt. Andere Styling-Apps verlangen oft zeitintensive Foto-Inventuren, während VESTIO auf logische Kombinationen setzt.
Das Risiko bleibt jedoch die Abhängigkeit von der Personal Brand Justus Hansens. Letztlich ist VESTIO der Versuch, Mode so effizient wie eine Prozessoptimierung zu gestalten – oder wie Bastian Arend es formuliert: „Viele Männer haben mehr Kleidung als Stil. Vestio ändert das.“ Mit dem Aufbau der App wolle man Männern „genau diese Arbeit abnehmen“, damit sie sich ultimativ „besser fühlen“ können.
Von der Kochbox zum Hundenapf: Ex-HelloFresh-Duo startet Tasty Petfood
Wie Lisa Vannini und Nadja Chylla mit ihrem Start-up Tasty Petfood die etablierten Premium-Tierfuttermarken herausfordern.
Das Berliner Start-up Tasty Petfood ist offiziell in den Markt eingetreten. Das Unternehmen, gegründet von den ehemaligen HelloFresh-Kolleginnen Lisa Vannini und Nadja Chylla, positioniert sich im Premium-Segment für Hundefutter und setzt dabei auf ein digitales Vertriebsmodell. Der offizielle Marktstart in Deutschland und der Schweiz erfolgte am 6. Februar 2026.
Transfer von Food-Logistik auf den Heimtiermarkt
Die Gründerinnen arbeiteten zuvor über fünf Jahre gemeinsam beim Kochboxen-Versender HelloFresh. Das dort in den Bereichen Skalierung und Operations gewonnene Know-how wollen Lisa und Nadja nun auf den Heimtiermarkt übertragen.
„Wir haben gemerkt, dass viele Hundehalter entweder bei klassischem Trockenfutter bleiben oder sehr viel Zeit in aufwendige BARF-Konzepte investieren müssen. Genau diese Lücke zwischen Bequemlichkeit und echter Qualität wollten wir schließen“, berichtet Lisa.
Das Kernprodukt von Tasty Petfood unterscheidet sich logistisch von herkömmlichem Nassfutter oder Barf-Angeboten: Das Unternehmen vertreibt dampfgegartes Frischfutter im Glas. Ein wesentlicher Unterschied zu vielen Wettbewerbern im Frische-Segment ist die Haltbarmachung: Die Produkte benötigen keine geschlossene Kühlkette und können ungekühlt gelagert werden. Dies reduziert die Komplexität in der Lagerhaltung und im Versand erheblich – ein Faktor, der im D2C-Bereich direkten Einfluss auf die Unit Economics hat. „Unser Anspruch war Qualität wie selbstgekocht – aber ohne Kühlschrank und ohne komplizierte Logistik. Dass wir Frische, Haltbarkeit und Alltagstauglichkeit verbinden können, ist für viele Kundinnen und Kunden ein echter Gamechanger“, sagt Nadja.
Wachstumskurs in einem Milliardenmarkt
Mit ihrem Geschäftsmodell stoßen die Gründerinnen in ein wirtschaftlich hochattraktives Umfeld vor. Nach aktuellen Daten des Industrieverbands Heimtierbedarf (IVH) und des Zentralverbands Zoologischer Fachbetriebe (ZZF) liegt der Gesamtumsatz der Branche bei rund sieben Milliarden Euro, wobei allein das Segment für Fertignahrung gut 4,4 Milliarden Euro ausmacht. Trotz allgemeiner wirtschaftlicher Herausforderungen bleibt die Zahlungsbereitschaft der Halter hoch.
Während der Absatz im Standard-Segment teils stagniert, wächst der Bereich für Premium-Nahrung kontinuierlich. Tasty Petfood ordnet sich im oberen Preissegment ein und zielt auf eine kaufkräftige Zielgruppe, die den Trend zur „Humanisierung“ des Haustiers vorantreibt.
„Hunde werden heute immer stärker als Familienmitglieder gesehen. Entsprechend steigen die Ansprüche an Transparenz, Zutatenqualität und Nährstoffversorgung – ähnlich wie beim eigenen Essen“, so Lisa.
Die Nische zwischen Konzern und Tiefkühltruhe
In diesem dynamischen Umfeld muss sich Tasty Petfood gegen zwei Lager behaupten. Zum einen konkurriert das Start-up mit etablierten Premium-Marken im stationären Handel wie Terra Canis, das als Pionier für „Human Grade“-Nahrung gilt und seit 2017 mehrheitlich zum Nestlé-Konzern gehört. Zum anderen wächst der Druck durch rein digitale Player wie Butternut Box oder HelloBello, die ebenfalls auf personalisiertes Frischfutter setzen, dieses jedoch tiefgekühlt versenden.
Genau hier besetzt Tasty Petfood eine strategische Lücke: Start-ups fungieren in diesem Sektor aktuell als wesentliche Innovationstreiber, und die Berliner Gründerinnen nutzen dies für eine „Ambient Fresh“-Strategie. Mit ungekühlt haltbarem Frischfutter verbindet das Unternehmen den steigenden Wunsch nach Convenience mit der Qualität von Frische-Menüs – ein entscheidender Logistik-Vorteil gegenüber der aufwendigen Tiefkühl-Konkurrenz. „Wir sitzen genau zwischen Tiefkühltruhe und Trockenfutter. Unser Futter ist reisefähig, blockiert keinen Gefrierschrank und passt damit perfekt in den Alltag moderner Hundehalter“, sagt Nadja.
Datengetriebenes Abo-Modell
Der Bestellvorgang für den/die Endkund*in ist vollständig datengestützt aufgebaut. Zu Beginn erfassen Interessent*innen über ein Online-Quiz relevante Parameter wie Rasse, Alter und Gewicht des Tieres. Auf Grundlage dieser Daten berechnet das Unternehmen einen individuellen Futterplan, der exakt auf den Hund zugeschnitten ist. Um die Akzeptanz zu testen, erhalten Neukund*innen zunächst eine Probebox mit verschiedenen Sorten. Bei erfolgreicher Annahme geht das Modell automatisch in ein flexibles Abonnement über, bei dem sowohl die Rationsgröße als auch der Lieferrhythmus dynamisch an den tatsächlichen Bedarf des Hundes angepasst werden. „Viele Halter sind unsicher, ob sie ihren Hund wirklich bedarfsgerecht füttern. Unser Algorithmus nimmt ihnen diese Entscheidung ab und sorgt dafür, dass Menge und Nährstoffe langfristig passen“, so Lisa.
Positionierung im Premium-Segment
Das Produktportfolio umfasst zum Start sechs Sorten auf Monoprotein-Basis. Durch den hohen Fleischanteil und den Verzicht auf Füllstoffe oder Konservierungsmittel zielt das Start-up auf die „Human Grade“-Nische ab. Das Produkt ist dabei so designt, dass es optisch und qualitativ an selbstgekochtes Futter erinnert, um die Hürde für qualitätsbewusste Käufer*innen zu senken. Das Kalkül: Die Zielgruppe sucht die Qualität einer BARF-Ernährung, benötigt aber die Convenience eines Fertigprodukts. „Unser Ziel ist es, Pet Nutrition durch sichtbare Qualität und Transparenz neu zu definieren“, so Nadja über den Anspruch, moderne Halterbedürfnisse mit dem Produkt-Design zu adressieren.
Europa kann KI!
Was wir von den besten EU-AI-Companies lernen können, erläutert KI-Experte Fabian Westerheide.
Europa muss sich bei KI nicht kleinreden. Wir sehen gerade sehr deutlich: Aus Europa heraus entstehen Unternehmen, die Kategorien besetzen – und dann auch das große Kapital anziehen. Beispiele gibt es genug: Mistral AI, DeepL, Black Forest Labs, Parloa, Helsing, Lovable oder n8n.
Ich schreibe das aus drei Blickwinkeln: als Investor (AI.FUND), als Konferenz-Initiator (Rise of AI Conference) und als Autor von „Die KI-Nation“. Was du hier bekommst, ist kein „Europa-hat-ein-Problem“-Essay – sondern eine Analyse plus ein Execution-Set an Empfehlungen, das du direkt auf dein Start-up übertragen kannst.
Die Realität: Seed geht oft – Scale ist das Spiel
Am Anfang brauchst du selten „zu viel“ Geld. MVP, erste Kunden, Iteration: Das klappt in Deutschland in vielen Fällen mit Seed. Die echte Trennlinie kommt später – wenn du aus einem starken Start-up einen Kategorie-Gewinner bauen willst.
Denn KI ist zunehmend Winner-takes-most. Und das gilt auch fürs Kapital: In vielen Fällen ist die Growth-Finanzierung in den USA grob 25-mal größer – bei den aktuellen Front-Runnern (Modelle, Infrastruktur, Distribution) wirkt es teilweise wie 100-mal, weil Kapital sich auf die vermuteten Sieger stapelt. (Nicht „fair“, aber Marktmechanik.)
Die gute Nachricht: Genau die EU-Vorbilder oben zeigen, dass du das nicht wegdiskutieren musst – du musst es exekutieren.
Was die EU-Winner gemeinsam haben: 6 Execution-Prinzipien
1. Starkes Gründerteam – aber vor allem: vollständig
Alle genannten Vorbilder hatten (oder bauten sehr schnell) ein Team, das drei Dinge gleichzeitig kann:
- Tech & Produkt (nicht nur „Model-IQ“, sondern Produktgeschmack)
- Go-to-Market (Vertrieb, Buyer-Verständnis, Pricing)
- Tempo (entscheiden, shippen, lernen)
Wenn eine Säule fehlt, zahlst du später mit Zeit. Und Zeit ist in KI eine Währung, die dir niemand schenkt.
Founder-Move: Benenne eine Person, die Umsatz genauso hart verantwortet wie Modellqualität. Wenn das „später“ ist, ist das sehr wahrscheinlich dein Bottleneck.
2. Global denken – aber spitz: KI-Nische statt Bauchladen
Die EU-Winner sind nicht „KI für alles“. Sie besetzen klare Nischen:
Language-AI (DeepL), Customer-Experience-Agents (Parloa), GenAI-Modelle (Black Forest Labs), Defence-Tech (Helsing), Builder/Vibe-Coding (Lovable), Orchestration & Automation (n8n), Foundation-Model-Ambition (Mistral).
Founder-Move: Formuliere deinen Claim so, dass er in einem Satz sagt, welche Kategorie du dominierst. Wenn du drei Absätze brauchst, bist du noch zu breit.
3. Umsatz ist keine Nebenwirkung – Umsatz ist Souveränität
Der schnellste Weg zu Growth-Capital ist nicht „noch ein Pilot“, sondern Revenue, der deine Kategorie glaubwürdig macht.
Parloa kommuniziert z.B. ARR > 50 Mio. USD und wächst international – genau die Art Signal, die große Runden freischaltet.
Founder-Move (gegen Pilotitis): Kein PoC ohne schriftlichen Pfad in einen Vertrag (Budget, KPI, Entscheidungstermin). Sonst finanzierst du mit deiner Runway den Lernprozess des Kunden.
4. Internationales Kapital früh anbahnen – bevor du es brauchst
Das Muster ist klar: Erst Kategorie-Story + Traktion, dann große Checks.
Mistral (Series C 1,7 Mrd. €) oder Lovable (330 Mio. USD bei 6,6 Mrd. Bewertung) sind kein „Glück“ – das ist Momentum + Positionierung + Timing.
Founder-Move (90-Tage-Plan):
- Baue eine Capital Map deiner Nische (wer zahlt Growth-Checks?)
- Definiere die drei Metriken, die diese Investor:innen sehen wollen
- Organisiere zehn Intros jetzt, nicht erst bei sechs Monaten Runway
5. Compute ist keine IT-Zeile – es ist ein Wachstumshebel
In KI ist Compute Teil deiner Wettbewerbsfähigkeit. Geschwindigkeit beim Trainieren, Testen und Deployen entscheidet, wie schnell du am Markt lernst.
Founder-Move: Plane Compute-Runway wie Cash-Runway. Verhandle früh Kontingente, bevor dein Verbrauch explodiert – sonst wird Wachstum plötzlich zur Margen-Frage.
6. Trust & Compliance als Verkaufsargument – nicht als Ausrede
Gerade in DACH gilt: Wer secure, audit-fähig, enterprise-ready wirklich liefern kann, gewinnt Deals.
DeepL betont genau diesen Business-Wert: verlässliche, sichere Lösungen statt Hype.
Founder-Move: Baue Trust-Artefakte früh – Dokumentation, Governance, Datenflüsse, Rollen, Audit-Spuren. Das beschleunigt Enterprise-Vertrieb, statt ihn zu bremsen.
Kurz-Checkliste: Wenn du in Europa KI gewinnen willst
- Kategorie in einem Satz (spitze Nische, globaler Anspruch)
- Klarer Revenue-Pfad (weniger Piloten, mehr Verträge)
- Capital Map (international früh andocken)
- Compute-Runway (wie Cash planen)
- Trust by Design (verkaufsfähig machen)
- Tempo als Kultur (shippen, messen, nachschärfen)
Europa kann KI. Die Frage ist nicht, ob hier Talent existiert – das ist bewiesen.
Die Frage ist, ob du Execution so aufsetzt, dass aus Talent Marktführerschaft wird.
Der Autor Fabian Westerheide gestaltet als KI-Vordenker, Investor, Ökosystem-Pionier und Keynote Speaker seit über einem Jahrzehnt die Debatte um KI, Macht und digitale Zukunft mit.
Die Wächter des Firmengedächtnisses
Wie das 2025 von Christian Kirsch und Stefan Kirsch gegründete Start-up amaiko den Strukturwandel im Mittelstand adressiert.
Der demografische Wandel und eine erhöhte Personalfluktuation stellen mittelständische Unternehmen zunehmend vor die Herausforderung, internes Know-how zu bewahren. Viele Unternehmen stehen vor der Schwierigkeit, dass Firmenwissen fragmentiert vorliegt. Informationen sind häufig in unterschiedlichen Systemen oder ausschließlich in den Köpfen der Mitarbeitenden gespeichert. Verlassen langjährige Fachkräfte den Betrieb in den Ruhestand oder wechseln jüngere Arbeitnehmerinnen und Arbeitnehmer kurzfristig die Stelle, gehen diese Informationen oft verloren. Zudem bindet die Suche nach relevanten Dokumenten in verwaisten Ordnerstrukturen Arbeitszeit, die in operativen Prozessen fehlt.
Das 2025 gegründete Start-up amaiko aus Niederbayern setzt hierbei auf einen technischen Ansatz, der auf die Einführung neuer Plattformen verzichtet und stattdessen eine KI-Lösung direkt in die bestehende Infrastruktur von Microsoft Teams integriert. Vor diesem Hintergrund entwickelten die Brüder Christian und Stefan Kirsch mit amaiko eine Softwarelösung, die spezifisch auf die Ressourcenstruktur mittelständischer Betriebe ausgelegt ist.
Integration statt neuer Insellösungen – und die Abgrenzung zu Copilot
Ein wesentliches Merkmal des Ansatzes ist die Entscheidung gegen eine separate Software-Plattform. Christian Kirsch, Geschäftsführer von PASSION4IT und amaiko, positioniert die Lösung als „Teams-native“. Das bedeutet, dass der KI-Assistent technisch in Microsoft Teams eingebettet wird – jene Umgebung, die in vielen Büros bereits als primäres Kommunikationswerkzeug dient. Ziel ist es, die Hürden bei der Implementierung zu senken, da Nutzer ihre gewohnte Arbeitsumgebung nicht verlassen müssen.
Angesichts der Tatsache, dass Microsoft mit dem „Microsoft 365 Copilot“ derzeit eine eigene, tief integrierte KI-Lösung ausrollt, stellt sich die Frage nach der Positionierung. Christian Kirsch sieht hier jedoch keine direkte Konkurrenzsituation, sondern eine klare Differenzierung: Copilot sei eine sehr breite, Microsoft-zentrische KI-Funktion. Amaiko hingegen verstehe sich als spezialisierter, mittelstandsorientierter Wissensassistent, der Beziehungen, Rollen, Prozesse und Unternehmenslogik tiefgreifend abbildet.
Ein entscheidender Vorteil liegt laut Kirsch zudem in der Offenheit des Systems: „Während Copilot naturgemäß an Microsoft‑Systeme gebunden ist, lässt sich amaiko herstellerunabhängig in eine viel breitere Softwarelandschaft integrieren – vom ERP über CRM bis zu Branchenlösungen. Unser Ziel ist nicht, Copilot zu kopieren, sondern reale Mittelstandsprozesse nutzbar zu machen“, so der Co-Founder.
Funktionsweise, Sicherheit und Haftung
Funktional unterscheidet sich das System von herkömmlichen Suchmasken durch eine agentenähnliche Logik. Die Software bündelt Wissen aus internen Quellen wie Richtlinien oder Projektdokumentationen und stellt diese kontextbezogen zur Verfügung. Ein Fokus liegt dabei auf der Datensouveränität. Hierbei betont Christian Kirsch, dass Kundendaten nicht in öffentlichen Modellen verarbeitet werden: „Die Modelle laufen in der europäischen Azure AI Foundry, unsere eigenen Dienste auf deutschen Servern. Die Daten des Kunden bleiben on rest vollständig im jeweiligen Microsoft‑365‑Tenant. Es findet kein Training der Foundation Models mit Kundendaten statt – weder bei Microsoft noch bei uns. Grundlage dafür sind die Azure OpenAI Non‑Training Guarantees, die Microsoft in den Product Terms sowie in SOC‑2/SOC‑3‑ und ISO‑27001‑Reports dokumentiert.“
Auch rechtlich zieht das Start-up eine klare Grenze, sollte die KI einmal fehlerhafte Informationen, sogenannte Halluzinationen, liefern. „Amaiko generiert Vorschläge, keine rechts‑ oder sicherheitsverbindlichen Anweisungen. Das stellen wir in unseren AGB klar: Die Entscheidungshoheit bleibt beim Unternehmen. Wir haften für den sicheren Betrieb der Plattform, nicht für kundenseitig freigegebene Inhalte oder daraus abgeleitete Maßnahmen. Es geht um eine saubere Abgrenzung – technische Verantwortung bei uns, inhaltliche Verantwortung beim Unternehmen“, so Christian Kirsch.
Geschäftsmodell und Markteintritt
Seit der Vorstellung der Version amaiko.ai im Juli 2025 wird das System nach Angaben des Unternehmens mittlerweile von über 200 Anwendern genutzt. Durch die Integration in die bestehende Microsoft-365-Landschaft entfällt für mittelständische Kunden eine aufwendige Systemmigration, was die technische Eintrittsbarriere gering hält.
Passend zu diesem Ansatz ist amaiko als reines SaaS-Produkt konzipiert, das Unternehmen ohne Einstiegshürde direkt online buchen können. Laut Kirsch sind keine Vorprojekte, individuellen Integrationspfade oder teuren Beratungspflichten notwendig: „Die Nutzung ist selbsterklärend und leichtgewichtig. Wer zusätzlich Unterstützung möchte – etwa zur Wissensstrukturierung oder Governance – kann sie bekommen. Aber die technische Einführung selbst ist bewusst so gestaltet, dass Mittelständler ohne Implementierungsaufwand starten können.“
Unterm Strich liefert amaiko damit eine pragmatische Antwort auf den drohenden Wissensverlust durch den demografischen Wandel: Statt auf komplexe IT-Großprojekte zu setzen, holt das bayerische Start-up die Mitarbeitenden dort ab, wo sie ohnehin kommunizieren. Ob sich die „Teams-native“-Strategie langfristig gegen die Feature-Macht von Microsoft behauptet, bleibt abzuwarten – doch mit dem Fokus auf Datensouveränität und mittelständische Prozesslogik hat amaiko gewichtige Argumente auf seiner Seite, um sich als spezialisierter Wächter des Firmengedächtnisses zu etablieren.
to teach: Vom KI-Hype zur Schulinfrastruktur
Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.
Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.
Das Problem: US-Tools verstehen deutsche Schulen nicht
Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.
Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.
Der Pivot: Datenschutz als Burggraben
Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.
Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.
Skalierung im Ökosystem gegen nationale Konkurrenz
Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.
Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.
Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.
Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.
Status Quo 2025: KI als neue Infrastruktur
Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.
Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.
Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“
Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt
Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.
Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.
Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO₂-Emissionen.
Strom statt Flamme
Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.
Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.
Der Anti-Trend im Silicon Valley
Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.
Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.
Vom Container im Altmühltal zum Großkunden
Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.
Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).
Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.
Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.
Report: Inside Germany’s EnergyTech Market
Aktuelle Ein- und Ausblicke für Gründer*innen und Start-ups im EnergyTech-Markt.
EnergyTech gehört in Deutschland zu den spannendsten, aber auch herausforderndsten Märkten für Gründer*innen. Die Kombination aus technologischer Innovation, wirtschaftlichem Potenzial und der Dringlichkeit, das Energiesystem klimaneutral zu gestalten, schafft enorme Chancen. Gleichzeitig ist die Eintrittsbarriere hoch, denn der deutsche Energiemarkt ist einer der komplexesten und am stärksten regulierten weltweit.
Laut der Internationalen Energieagentur werden im Jahr 2025 weltweit rund 2,1 Billionen Euro in saubere Energien investiert. Damit übertreffen die Investitionen in erneuerbare Energien erstmals die in fossile Brennstoffe deutlich. Deutschland spielt dabei eine zentrale Rolle, denn kein anderes Land in Europa verfügt über eine vergleichbare Durchdringung mit erneuerbaren Energien. Diese Vorreiterrolle macht den Markt attraktiv, aber auch kompliziert.
Gründer*innen, die in diesem Umfeld aktiv werden, müssen verstehen, dass Erfolg hier weniger von reiner Technologie abhängt, sondern von der Fähigkeit, sich in einem vielschichtigen System aus Regularien, Netzstrukturen und politischen Rahmenbedingungen zu bewegen. Es reicht nicht, eine gute Idee zu haben. Entscheidend ist, wie diese Idee in ein System passt, das auf Stabilität, Versorgungssicherheit und langfristige Planung ausgelegt ist.
Deutschlands Energiemarkt zwischen Stabilität und Veränderung
Der deutsche Energiemarkt gilt als hoch reguliert, gleichzeitig aber auch als offen für neue Akteur*innen. Wer hier tätig werden will, findet klar definierte Wege, um als Energieversorger*in zugelassen zu werden. Doch der Weg dorthin ist gesäumt von Genehmigungen, Netzanschlussverfahren und Förderbedingungen.
Die Stabilität des Systems steht über allem. Jede Veränderung im Netz kann weitreichende Folgen haben, weshalb die Regulierung streng überwacht wird. Netzbetreiber*innen müssen ständig das Gleichgewicht zwischen Erzeugung und Verbrauch sichern, um Versorgungsstörungen zu vermeiden. Das führt dazu, dass Innovationen nur schrittweise eingeführt werden können.
Hinzu kommt die dezentrale Struktur des Energiesystems. Deutschland hat den Umbau seiner Energieversorgung regional organisiert, was zu einer Vielzahl von kleinen Akteur*innen führt. Ob Solaranlagen auf Privathäusern, Windparks in ländlichen Regionen oder Batteriespeicher in Städten, alle müssen an das öffentliche Netz angeschlossen werden. Dieses Netz ist die Lebensader des Systems, aber gleichzeitig ein Flaschenhals. Jede neue Installation benötigt einen Netzanschluss, und die Wartezeit kann sich über mehrere Jahre erstrecken.
Diese Verzögerungen sind eine der größten Herausforderungen für Start-ups. Klassische Wachstumsmodelle, die auf schnelle Skalierung ausgelegt sind, stoßen hier an ihre Grenzen. Gründer*innen müssen lernen, mit langen Planungszeiträumen zu arbeiten und ihre Finanzierungsstrategie darauf abzustimmen. Softwarelösungen können helfen, Prozesse zu vereinheitlichen und Transparenz zu schaffen. Doch auch hier gilt: Der deutsche Markt lässt sich nicht einfach durch Technologie beschleunigen. Erfolg entsteht durch Anpassungsfähigkeit, Vertrauen und Systemverständnis.
Innovation im System statt Disruption von außen
Viele Start-ups treten mit dem Ziel an, Märkte zu verändern oder bestehende Strukturen zu durchbrechen. In der Energiebranche stößt dieser Ansatz jedoch schnell an seine Grenzen. Das Energiesystem ist keine klassische Konsumlandschaft, sondern Teil der kritischen Infrastruktur. Es versorgt Millionen Menschen und Unternehmen mit Strom, Wärme und Mobilität. Jede Veränderung muss sorgfältig integriert werden, um Stabilität zu gewährleisten.
Statt auf radikale Umbrüche zu setzen, braucht es eine Haltung der systemischen Innovation. Erfolgreiche EnergyTech-Unternehmen arbeiten mit dem System, nicht gegen es. Sie schaffen Lösungen, die bestehende Prozesse verbessern und den Übergang zur Klimaneutralität erleichtern. Unternehmen wie Gridx, EV.Energy, Enspired, Reev oder Thermondo zeigen, wie das funktionieren kann. Sie haben ihre Geschäftsmodelle so aufgebaut, dass sie technologische Exzellenz mit regulatorischer Konformität und gesellschaftlicher Akzeptanz verbinden.Für Gründer*innen bedeutet das, sich früh mit Netzbetreiber*innen, Behörden und Installationsbetrieben zu vernetzen. Der Aufbau von Vertrauen ist im Energiesektor ein strategischer Vorteil. Wer die Abläufe in Kommunen, Stadtwerken und öffentlichen Einrichtungen versteht, kann die langen Vertriebszyklen besser steuern und Pilotprojekte realistisch planen.
Warum gute Ideen im Energiemarkt oft scheitern
Die Gründe für das Scheitern von EnergyTech-Start-ups liegen selten in der Technologie. Viel öfter sind es strukturelle oder strategische Fehler. Der Verkauf an Energieversorger*innen oder kommunale Betriebe dauert oft mehrere Jahre. Wer in dieser Zeit nicht über ausreichend Kapital und Geduld verfügt, läuft Gefahr, aufzugeben, bevor der Markteintritt gelingt.
Ein weiterer kritischer Punkt ist die Zusammensetzung des Teams. In vielen Fällen sind Teams stark technisch geprägt, während Marktverständnis, politische Kompetenz und regulatorisches Wissen fehlen.
Auch die Wahl der Investor*innen spielt eine entscheidende Rolle. Kapitalgeber*innen, die nur finanzielle Rendite erwarten, sind im Energiemarkt selten die richtige Wahl. Wichtiger sind Investor*innen, die strategischen Netzwerke öffnen, Kontakte zu Stadtwerken oder Netzbetreiber*innen vermitteln oder bei der Skalierung unterstützen. Eine gut strukturierte Cap Table mit klaren Verantwortlichkeiten schafft dabei Transparenz und Vertrauen.
Darüber hinaus müssen Gründer*innen ihre Wirkung belegen können. Im Energiemarkt zählt nicht nur der technologische Fortschritt, sondern auch der nachweisbare Beitrag zur Dekarbonisierung. Wer den Carbon Return on Investment klar beziffern kann, wer Pilotprojekte erfolgreich umsetzt und belastbare Daten liefert, überzeugt Kund*innen, Partner*innen und Investor*innen gleichermaßen. Greenwashing hingegen ist ein reales Risiko. Der Markt erkennt schnell, wer nur mit Nachhaltigkeit wirbt, ohne messbare Ergebnisse zu liefern.
Strategien und praxisnahe Tipps für Gründer*innen
Es gibt mehrere zentrale Hebel, mit denen Gründer*innen die typischen Hürden im deutschen Energiemarkt überwinden können. Einer der wichtigsten ist der Aufbau früher Partnerschaften. Kooperationen mit Netzbetreiber*innen, Stadtwerken oder kommunalen Einrichtungen schaffen Glaubwürdigkeit und erleichtern den Zugang zu Genehmigungsprozessen. Wer diese Partnerschaften schon in der Entwicklungsphase aufbaut, versteht die Marktmechanismen besser und kann Projekte effizienter realisieren.
Ebenso entscheidend ist die Zusammensetzung des Teams. Interdisziplinarität ist im Energiesektor kein Luxus, sondern Notwendigkeit. Erfolgreiche Teams vereinen technische, wirtschaftliche und politische Kompetenzen. Sie wissen, wie regulatorische Entscheidungen getroffen werden, welche Förderprogramme relevant sind und wie man Innovationsprojekte in bestehende Strukturen integriert. Ein divers aufgestelltes Team kann Risiken besser einschätzen und Investor*innen überzeugender ansprechen.
Auch die Gestaltung der Cap Table verdient besondere Aufmerksamkeit. Kapitalgeber*innen sollten nicht nur Geld mitbringen, sondern auch strategischen Mehrwert bieten. Kontakte zu Entscheidungsträger*innen, Branchenkenntnis und operative Unterstützung bei Pilotprojekten sind entscheidende Erfolgsfaktoren. Eine transparente Struktur, in der jede Partei klar definierte Rollen hat, fördert Vertrauen und beschleunigt Entscheidungen.
Ein weiterer zentraler Punkt ist die Nachweisbarkeit von Wirkung. Gründer*innen müssen ihren ökologischen und ökonomischen Mehrwert belegen können. Messbare Kennzahlen wie Emissionseinsparungen, Energieeffizienz oder Carbon ROI sind ausschlaggebend, um Glaubwürdigkeit zu schaffen. Pilotprojekte mit belastbaren Ergebnissen überzeugen nicht nur Investor*innen, sondern auch Kund*innen und öffentliche Partner*innen.
Nicht zuletzt braucht es realistische Planung. Genehmigungsprozesse und Netzanschlüsse dauern in Deutschland oft Jahre. Wer dies in der Finanzplanung berücksichtigt und seine Strategie auf gestaffelte Rollouts oder modulare Produktarchitekturen ausrichtet, vermeidet teure Fehlentscheidungen. Skalierung im Energiemarkt bedeutet nicht Geschwindigkeit um jeden Preis, sondern nachhaltiges Wachstum mit stabilem Fundament.
Blick nach vorn: Warum sich Ausdauer lohnt
Trotz aller Hürden bleibt der deutsche Energiemarkt für Gründer*innen besonders attraktiv. Die globalen Trends sprechen eine klare Sprache: Laut der Internationalen Energieagentur (IEA) wird sich die installierte Leistung aus erneuerbaren Energien weltweit bis 2030 voraussichtlich mehr als verdoppeln, angetrieben vor allem durch den rasanten Aufstieg der Solarenergie. Wind- und Speichertechnologien werden ebenfalls stark wachsen, während Start-ups gleichzeitig mit Herausforderungen in Lieferketten, Netzintegration, Finanzierung und politischen Veränderungen umgehen müssen.
Eine aktuelle Zwischenbilanz der Internationalen Agentur für erneuerbare Energien (Irena) zeigt, dass die weltweite neu installierte Leistung 2024 bei rund 582 Gigawatt lag – ein Rekordwert. Gleichzeitig reicht dies nicht aus, um die auf der Uno-Klimakonferenz von Dubai 2023 vereinbarten Ziele zu erreichen, die Kapazität bis 2030 auf 11,2 Terawatt zu verdreifachen. Dazu wären ab sofort jährlich zusätzlich 1.122 Gigawatt nötig. Auch bei der Energieeffizienz hinken die Fortschritte hinterher: Die jährliche Wachstumsrate liegt aktuell bei rund einem Prozent, während vier Prozent notwendig wären.
Für Gründer*innen bedeutet dies, dass die Nachfrage nach innovativen, zuverlässigen und systemgerechten Lösungen weiter steigen wird. Wer sich frühzeitig auf Pilotprojekte einlässt, Netzanschlüsse koordiniert und regulatorische Prozesse kennt, kann einen entscheidenden Vorsprung erzielen. Deutschland bietet durch klare Klimaziele, Förderprogramme und politische Unterstützung zudem ein Umfeld, in dem Innovationen nachhaltige Wirkung entfalten können.
Ausdauer zahlt sich aus, weil die Transformation der Energieversorgung Zeit braucht. Wer heute in Partnerschaften, systemgerechte Lösungen und messbare Wirkung investiert, legt das Fundament für langfristigen Markterfolg. Die Verbindung von Innovation, Skalierbarkeit und nachweisbarem ökologischen Mehrwert wird zum entscheidenden Wettbewerbsvorteil und ermöglicht Gründer*innen, die Energiewende aktiv mitzugestalten.
Der Autor Jan Lozek ist Geschäftsführer von Future Energy Ventures. Als Investor und Wegbereiter der Energiewende unterstützt er Gründer*innen dabei, Technologien für ein klimaneutrales Energiesystem zu entwickeln und fördert innovative Unternehmen.
LegalTech-Trends 2026
KI, strategische Fähigkeiten und mehr Technikverständnis stehen 2026 auf der Agenda der Rechtsbranche – gut zu wissen nicht nur für LegalTech-Start-ups und -Gründer*innen.
Die LegalTech-Trends des Jahres 2026 machen deutlich, dass die Rechtsbranche vor einem grundlegenden Wandel steht: Routinetätigkeiten werden zunehmend in den Hintergrund gedrängt, da sie automatisiert oder von KI übernommen werden. Gleichzeitig gewinnen neue Kompetenzen an Bedeutung und Up-Skilling wird zur Schlüsselqualifikation, während traditionelle Karrierepfade ins Wanken geraten. Dementsprechend werden 2026 das Technologieverständnis, Prozessdesign sowie strategische Fähigkeiten in der Rechtsbranche immer wichtiger.
1. Integrierte Cloud LegalTech-Plattformen etablieren sich
Die LegalTech-Landschaft befindet sich in einem tiefgreifenden Wandel und konsolidiert sich zunehmend zu integrierten Cloud-Ökosystemen. Diese vereinen zentrale Funktionen wie Mandats- und Fallmanagement, Dokumentenautomatisierung, Ausgaben- und Risikoanalysen sowie Kollaborations- und Workflow-Funktionen auf einer gemeinsamen Plattform. Sie lösen die bislang weitverbreiteten, voneinander getrennten Einzelsysteme ab. Diese integrierten Plattformen versetzen juristische Teams in die Lage, auf eine einheitliche, konsistente Datenbasis (Single Source of Truth) zuzugreifen und fundierte Analysen durchzuführen. Das Ergebnis sind deutlich schnellere Arbeitsabläufe, eine verbesserte Transparenz über Team- und Abteilungsgrenzen hinweg sowie eine höhere operative Resilienz der Rechtsorganisation.
2. Eingebettete agentenbasierte KI (embedded agentic AI)
Embedded Agentic AI entwickelt sich rasant zu einem der prägendsten Trends im LegalTech-Markt. Im Gegensatz zu klassischen KI-Assistenzsystemen agieren agentische KI-Module direkt innerhalb juristischer Fachanwendungen und übernehmen eigenständig klar definierte Aufgaben – etwa die Fristenüberwachung, Vertragsprüfung oder Aktenvorbereitung. Nahtlos in bestehende Workflows eingebettet, reduzieren sie manuellen Aufwand, minimieren Risiken und steigern die Produktivität spürbar. Für Kanzleien bedeutet Embedded Agentic AI einen strategischen Schritt hin zu skalierbaren, zukunftssicheren Prozessen, bei denen juristische Expertise gezielt durch autonome, kontextbewusste KI ergänzt wird.
3. KI-Sicherheit & Governance
KI ist längst mehr als nur ein Werkzeug – sie entwickelt sich zu einer operativen Notwendigkeit. Im Jahr 2026 werden LegalTech-Pioniere deshalb über reine Pilotprojekte hinausgehen und Rahmenwerke für die KI-Governance, Risikokontrollen, Compliance und ethische Rahmenbedingungen einführen. In diesem Kontext gilt es beispielsweise Transparenzanforderungen zu definieren, Prompt-Audits und Human-in-the-Loop-Kontrollen einzuführen sowie für die Nachverfolgbarkeit von Datenquellen zu sorgen. Kanzleien und Rechtsabteilungen, die eine strukturierte KI-Governance integrieren, reduzieren Haftungsrisiken, stärken das Vertrauen und können KI skalieren. Wenn sie dabei auch noch den ethischen und regulatorischen Compliance-Anforderungen gerecht werden, sind sie für die Herausforderungen der Zukunft gut aufgestellt.
4. Predictive Legal Analytics
KI steht 2026 nicht mehr nur für unterstützende oder automatisierende Funktionen, sondern entwickelt sich zunehmend zum strategischen Faktor. Generative KI und fortschrittliche Analyseverfahren werden gezielt zum Einsatz kommen, um den Ausgang von Gerichtsverfahren zu prognostizieren, umfangreiche Beweis- und E-Discovery-Daten auszuwerten und bislang verborgene Muster in der Rechtsprechung zu identifizieren. Im Jahr 2026 wird KI-generierter Content in immer mehr Verfahren eine zentrale Rolle bei der Sichtung, Bewertung und Einordnung von Beweismitteln spielen. Dadurch verändern sich die Vorgehensweisen bei der Vorbereitung von Fällen, dem Entwickeln von Argumentationsketten sowie der strategischen Entscheidungsfindung. All das führt dazu, dass Technologie vom reinen Hilfsmittel zum strategischen Entscheidungsfaktor aufsteigt.
5. Juristische Talente entwickeln sich zu technisch versierten Fachkräften
Anwältinnen und Anwälte müssen sich zunehmend zu technologieaffinen Gestaltern entwickeln, die digitale Tools, Automatisierung und KI souverän in ihre tägliche Arbeit integrieren. Statt reiner Rechtsanwendung rücken Prozessverständnis, Systemkompetenz und Dateninterpretation in den Fokus. Kanzleien profitieren von effizienteren Abläufen, höherer Skalierbarkeit und besserer Mandantenorientierung. Tech-fluente Legal Professionals werden damit zum entscheidenden Wettbewerbsfaktor in einem zunehmend digitalisierten Rechtsmarkt.
6. KI-gestütztes Smart Contracting & Compliance Automation
KI geht im Vertragswesen weit über einfache Prüfungsfunktionen hinaus und wird zum zentralen Instrument für umfassendes Contract Lifecycle Management, Compliance-Monitoring sowie eine automatisierte Vertragserstellung. Zudem lassen sich durch Predictive Analytics Risiken, Inkonsistenzen und Compliance-Probleme immer früher identifizieren – ein Trend, der insbesondere für Unternehmensrechtsabteilungen und international tätige Kanzleien von Bedeutung ist. Im Jahr 2026 werden sich vor allem diese drei Anwendungsszenarien etablieren:
- KI-gestützte Vertragsanalysen, die potenzielle Risiken identifizieren und konkrete Korrekturvorschläge liefern.
- Automatisierte Compliance-Berichte zur lückenlosen Nachverfolgung regulatorischer Vorgaben.
- KI-Unterstützung bei der Erstellung von Dokumenten.
7. Cybersicherheit wird zum Wettbewerbsvorteil
Mit der zunehmenden Nutzung von LegalTech steigen auch die Risiken im Bereich Cybersecurity. Umso wichtiger ist es, dass Jurist*innen die Daten ihrer Mandant*innen, vertrauliche Fallakten sowie ihre KI-Systeme vor Ransomware-Angriffe, Datenpannen und der unbefugten Offenlegung sensibler Informationen schützen. Robuste Cybersecurity-Tools und datenschutzorientierte LegalTech-Architekturen sind daher unverzichtbar und werden häufig direkt in die Plattformen integriert. Kanzleien und Rechtsabteilungen, die hier proaktiv investieren, schützen nicht nur ihre Reputation und das Vertrauen ihrer Mandant*innen, sondern erfüllen zugleich die zunehmend strengeren globalen Datenschutzvorschriften.
8. Ergebnisorientierte und ROI-nachweisbare KI-Einführung
2026 steht LegalTech nicht mehr im Testmodus – sie muss konkrete Mehrwerte nachweisen. Sowohl Anbietende als auch Anwendende sind zunehmend gefordert, Investitionen in Technologie klar mit messbaren Ergebnissen zu verknüpfen, etwa durch Zeit- und Kostenersparnis, Reduzierung von Fehlern oder eine höhere Mandant*innenzufriedenheit. Für die Praxis bedeutet das: Pilotprojekte sollten stets mit klar definierten KPIs starten, um den Erfolg messbar zu machen. Analysen spielen eine entscheidende Rolle, um den geschäftlichen Nutzen gegenüber Führungskräften und Mandant*innen transparent darzustellen. Gleichzeitig verlagern sich Budgetentscheidungen weg von „Innovation um der Innovation willen“ hin zu einer klaren ROI-orientierten Ausrichtung.
9. Innovation in der Rechtsberatung & alternative Business-Modelle
Die Veränderung in der Rechtsbranche betrifft die gesamte Struktur juristischer Dienstleistungen. Klassische Stundenhonorare verlieren an Bedeutung, während alternative Preismodelle wie Festpreise, Abonnements oder wertbasierte Vergütungen an Bedeutung gewinnen. Diese Entwicklung wird durch Technologien unterstützt, die Ergebnisse zuverlässig vorhersagen und standardisierte Leistungen effizient bereitstellen. Für Rechtsabteilungen und Mandant*innen wird Kalkulierbarkeit zunehmend zum Standard. Kanzleien, die ihre Liefermodelle entsprechend innovativ gestalten, sichern sich einen Wettbewerbsvorteil gegenüber Wettbewerber*innen, die weiterhin auf traditionelle Stundenhonorare setzen.
10. Lawbots & Vertikale Automatisierung
„Lawbots“ stehen kurz davor, zum festen Bestandteil der Rechtsbranche zu werden. Diese spezialisierten Bots sind darauf ausgelegt, spezifische juristische Aufgaben zu automatisieren – von der Mandantenaufnahme über Dokumentenautomatisierung und Compliance-Prüfungen bis hin zu rechtlicher Recherche. Typische Einsatzszenarien sind etwa maßgeschneiderte Bots für Einwanderungsanträge, Markenanmeldungen oder Routineverfahren in der Prozessführung. Sie übernehmen klar definierte, standardisierte Aufgaben auf höchst effiziente Weise. So gewinnen Anwält*innen wertvolle Zeit, um sich auf komplexe, urteilsbasierte Arbeiten zu konzentrieren und strategische Entscheidungen zu treffen.
Der Autor Oliver Bendig ist CEO von stp.one, einem der führenden Anbietern von Legal-Tech-Komplettlösungen.
Gaming & digitale Medien – eine Perspektive für Start-ups?
Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.
Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.
Indie-Games – eine Perspektive für Entwickler?
Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.
Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.
Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.
Spielentwicklung der neuesten Generation als Studiengang
Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.
Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.
Starke Unterstützung für zukünftige Start-ups
Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.
Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.
Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.
Sichtbarkeit im digitalen Umfeld entscheidend
Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.
KI-Modelle erfolgreich im Unternehmen einführen
Worauf es bei der Implementierung von KI wirklich ankommt.
Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“
Organisatorischer Wandel und Einbindung der Mitarbeitenden
Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“
Auswahl der passenden KI-Lösung
Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“
Datenqualität als Grundlage für verlässliche Ergebnisse
KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“
Schrittweise Einführung statt großer Umbruch
Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“
KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar
Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.
Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.
Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?
Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.
Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.
Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.
Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.
Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.
Schnelles Wachstum kann zu einem Überschuss führen
Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.
Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.
Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.
KI & Bewertungen: Sichtbarkeit in einer neuen Suchrealität
Tipps und To-dos: Wie du dein Bewertungsmanagement strategisch aufsetzt und Sichtbarkeit und Vertrauen im KI-Zeitalter steigerst.
Generative Antworten in Suchmaschinen und Assistenten verändern die Spielregeln der Online-Sichtbarkeit. Nicht mehr nur klassische Rankings entscheiden, sondern die Frage, wem die KI genug vertraut, um es überhaupt zu nennen. Aktuelle, glaubwürdige und inhaltlich konkrete Bewertungen werden dabei zum Schlüsselsignal. Für kleine und mittlere Unternehmen bedeutet das: Bewertungsmanagement ist kein Nice-to-have mehr, sondern ein Pflichtprogramm, das Auffindbarkeit, Auswahl und Conversion spürbar beeinflusst. Im Folgenden erfährst du, wie du dein Bewertungsmanagement strategisch aufsetzen solltest, um Sichtbarkeit und Vertrauen im KI-Zeitalter zu steigern.
Warum Bewertungen jetzt geschäftskritisch sind
KI-Modelle zerlegen Rezensionen in viele kleine Bedeutungseinheiten und ziehen daraus ein konsistentes Bild. Welche Leistung wurde erbracht, an welchem Ort, mit welcher Qualität und für welchen Anlass. Aus den einzelnen Stimmen entsteht so ein Vertrauensprofil, das über bloße Sternesummen hinausgeht. Entscheidend ist nicht die bloße Menge, sondern die Frische und die inhaltliche Dichte der Aussagen. Eine Rezension wie „Schnell geholfen am Sonntag, sehr kompetente Beratung zu Reiseimpfungen“ liefert gleich mehrere Signale. Zeitliche Verfügbarkeit, thematische Expertise und konkreter Nutzen. Genau solche Details erhöhen die Wahrscheinlichkeit, in generativen Antworten aufzutauchen, wenn Menschen in ihrer Nähe nach einer Lösung suchen. Wer regelmäßig neue, authentische und präzise Bewertungen erhält, verschafft der KI verlässliche Hinweise und sichert sich dadurch mehr Sichtbarkeit in genau den Momenten, in denen Entscheidungen vorbereitet werden.
Bewertungsmanagement als Prozess, nicht als Aktion
Wirksam wird Bewertungsarbeit, wenn sie selbstverständlich Teil der täglichen Abläufe ist. Nach dem Kontakt freundlich um Feedback bitten, den Weg zur passenden Plattform so kurz wie möglich machen, interne Zuständigkeiten klar regeln und Reaktionszeiten verbindlich festlegen. Aus diesen scheinbar kleinen Schritten entsteht ein stabiler Rhythmus, der kontinuierlich neue Kund*innenstimmen hervorbringt und der KI immer wieder frische Kontexte liefert. Ein solcher Prozess ist robuster als jede einmalige Kampagne, weil er verlässlich Vertrauen aufbaut und saisonale Schwankungen abfedert. Teams profitieren, wenn sie Zielkorridore definieren, etwa eine bestimmte Zahl neuer Rezensionen pro Woche und wenn sie Fortschritte sichtbar machen. So wird aus gutem Vorsatz ein gelebter Ablauf, der die gesamte Organisation stärkt.
Sprache der Kund*innen wirkt wie natürliches SEO
KI versteht Alltagssprache deutlich besser als Listen isolierter Schlagwörter. Unternehmen gewinnen, wenn sie um freie, aber konkrete Formulierungen bitten, ohne Vorgabetexte und ohne Druck. Eine höfliche Bitte wie: „Wenn es für Sie passt, nennen Sie gern, was Ihnen besonders geholfen hat“ öffnet den Raum für präzise Hinweise auf Leistungen, Erreichbarkeit, Barrierefreiheit oder Schnelligkeit. Solche natürlich entstandenen Details sind für Menschen überzeugend und zugleich für Maschinen gut interpretierbar. Sie zeigen, wofür ein Betrieb tatsächlich steht, und verankern die passenden Begriffe in einem echten Nutzungskontext. Das Ergebnis ist eine Sprache, die Vertrauen schafft und die Auffindbarkeit stärkt, ohne künstlich zu wirken.
Antworten trainieren Vertrauen für Menschen und Maschinen
Jede Reaktion auf eine Bewertung ist ein sichtbares Zeichen von Serviceorientierung und zugleich zusätzlicher Kontext für die KI. Gute Antworten bedanken sich aufrichtig, beziehen sich konkret auf das Erlebte und bieten einen klaren nächsten Schritt an. Bei Kritik zählt ein professioneller Umgang. Das Anliegen nachvollziehen, Verantwortung übernehmen, eine realistische Lösung anbieten und einen direkten Kontaktweg nennen. So entsteht ein Bild von Verlässlichkeit, das Hemmschwellen senkt und Wiederbesuche wahrscheinlicher macht. Die KI erkennt diesen Umgang ebenso und ordnet das Unternehmen eher als vertrauenswürdig ein. Mit der Zeit entsteht ein stabiler Kreislauf aus guter Erfahrung, konstruktiver Reaktion und wachsendem Vertrauen.
Lokaler Content und Social Proof gehören zusammen
Bewertungen entfalten ihre volle Wirkung, wenn sie auf eine solide Informationsbasis treffen. Konsistente Unternehmensdaten, vollständige Leistungsseiten pro Standort, klare Öffnungszeiten inklusive Ausnahmen und eine schnelle, mobil optimierte Webseite erleichtern die Einordnung für Nutzer*innen und Maschine. Wenn ausgewählte Zitate oder Bewertungsschnipsel an relevanten Stellen sichtbar werden, etwa auf der Startseite, in der Buchungsstrecke oder in den häufigen Fragen, entsteht ein schlüssiges Gesamtbild. Der lokale Bezug bleibt klar erkennbar, die Erwartungen sind gut gesetzt, und die nächsten Schritte sind ohne Umwege möglich. So wird aus Social Proof ein handfester Conversion Hebel.
Vom Feedback zur Verbesserungsschleife
Rezensionen sind fortlaufende Marktforschung aus erster Hand. Wer wiederkehrende Themen auswertet, etwa Wartezeiten, Erreichbarkeit oder Bezahloptionen, erkennt schnell die Stellschrauben mit der größten Wirkung. Wichtig ist, die daraus abgeleiteten Verbesserungen konsequent umzusetzen und sichtbar zu machen. Informieren, handeln, erneut um Rückmeldung bitten. Dieser offene Kreislauf wirkt nach innen und nach außen. Mitarbeitende erleben, dass Feedback Veränderungen anstößt, Kund*innen erleben, dass ihre Hinweise ernst genommen werden, und die KI registriert die fortlaufende Pflege der Qualität. Mit jeder Runde werden Erlebnisse besser und Bewertungen stärker, was die Sichtbarkeit weiter erhöht.
Fazit
Sichtbarkeit entsteht heute dort, wo Menschen nach konkreten Lösungen fragen und wo KIs verlässliche Hinweise zu Qualität und Relevanz finden. Unternehmen, die Bewertungen als strategischen, kontinuierlichen Prozess verstehen, erhöhen ihre Chance, in generativen Antworten genannt zu werden und gewinnen genau in den entscheidenden Momenten an Präsenz. Vieles davon ist eine Frage kluger Organisation und klarer Abläufe. Der finanzielle Aufwand bleibt überschaubar, der Nutzen für Auffindbarkeit, Vertrauen und Umsatz ist deutlich spürbar.
Die Autorin Franziska Ortner ist Produktmanagerin bei SELLWERK
