Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding

Autor: David Padilla
44 likes

Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.

In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?

Das Phänomen des Tool-Hoardings

Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.

Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.

Die versteckten Kosten des Tool-Hoardings

Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.

Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.

Sicherheits- und Datenschutzrisiken

Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.

Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.

HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?

Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?

Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.

Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung

Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.

Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.

Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.

Fazit: Klasse statt Masse

Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.

Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.

Fördermittel: Worauf Gründer*innen von Beginn an achten sollten

Wichtige Dos and Don’ts bei der Fördermittelbeantragung.

Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.

In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.

Die Weichenstellung: Förderung ist eine Managemententscheidung

Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:

1) Aufbauphase: Fokus schaffen (unter anderem exist)

In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.

2) Projektphase: Planbar entwickeln (etwa ZIM)

Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.

3) Förderung in jeder Phase (Forschungszulage)

Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.

Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.

Fazit

Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.

Die Autorinnen

Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.

Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Retourendaten als ungenutztes Potenzial

Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!

Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.

Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.

Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.

Wenn Daten ungenutzt verpuffen

Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.

Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.

Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.

Retourendaten als Marketing-Kompass

Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.

Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.

Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.

Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.

Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.

Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams

Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.

Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.

Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.

Daten bringen nachhaltigen Erfolg

Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.

Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.

Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH


StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster

Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?

  • [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
  • [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
  • [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
  • [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
  • [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
  • [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?

Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.

Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung

Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.

Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.

Von der regionalen Machbarkeitsstudie zur internationalen Skalierung

Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.

Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle

Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.

Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.

Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.

Marktumfeld: Spezialisierung als Abgrenzungsmerkmal

Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.

Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.

Herausforderungen in der Skalierung: Legacy-Systeme und Change Management

Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.

11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will

Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.

Vom Forschungsprojekt zum DeepTech-Unternehmen

Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).

Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.

Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine

FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.

Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.

Die Produktion als eigentlicher Hebel

Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.

Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.

Die Realität der Skalierung: Verträge statt Prototypen

Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.

Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.

Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.

GameChanger des Monats: Gwen Thomas - Vom Background-Gesang zum SOMA SPACE

Das Business mit der inneren Stimme: Wie Gwen Thomas Stimmtherapie zum Gamechanger macht.

Einst stand Natascha Gweneth (Gwen) Thomas als Backgroundsängerin für Größen wie Sido und Cro auf der Bühne. Heute ist sie Unternehmerin, Stimmtherapeutin und Autorin. Mit ihrer digitalen Plattform, einer eigenen Ausbildungsmethode und dem Hamburger Studio SOMA SPACE hat sie eine Nische für körperbasierte Bewusstseinsarbeit besetzt.

Dabei schien ihre Karriere zunächst ganz anders vorgezeichnet: Nach einem Stipendium an der Stage School und Jahren im professionellen Musikbusiness tourte sie intensiv und schrieb Songs in den Hansa Studios. Doch der Erfolg in dieser stark männlich geprägten und druckvollen Zeit hatte seinen Preis. „Ich habe funktioniert, aber mich selbst immer weiter verloren“, erinnert sie sich heute. Ein schwerer biografischer Einschnitt zog schließlich den endgültigen Schlussstrich unter ihre Musikkarriere: Im siebten Monat verlor sie ihren ersten Sohn. Sie brach alle Engagements ab, begann eine Therapie und zog sich vollständig zurück. Aus diesem schmerzhaften Nullpunkt heraus entstand das Fundament für ihr heutiges Unternehmen.

Aus eigener Heilung wird ein Business Case

Anstatt auf die Bühne zurückzukehren, verwebte Gwen ihre Erfahrungen aus Musik, Schauspiel, somatischer Arbeit und Klangtherapie zu einem neuen Konzept. Ende 2020 launchte sie die Website www.deinestimmedeinraum.de. Hieraus entwickelte sie rechtlich geschützte Methoden wie das Holistisch Stimmtherapeutische Coaching® sowie den Vocal-Energetic Release™. Ihr Ansatz ist dabei stets körperorientiert. „Die Stimme weiß oft früher als der Verstand, dass etwas nicht stimmt“, erklärt sie. Es gehe nicht um bloßes Schreien, sondern um die Wahrnehmung von Blockaden im Nervensystem. Die Stimme fungiere dabei als Antenne, die zeigt, wo jemand nicht in seiner Wahrheit lebt.

Heute ist ihr Geschäftsmodell breit aufgestellt und umfasst Workshops, Retreats sowie ein spezialisiertes Mentoring. Dass ihre Arbeit oft exklusiv und hochpreisig ist, sieht Gwen nicht als Widerspruch zu ihrem feministischen Anspruch. Für sie ist es ein Akt der Selbstfürsorge, den eigenen finanziellen Wert zu kennen. Sie betont: „Wenn Frauen in meine Ausbildung oder in ein Mentoring investieren, ermöglichen sie ein System, in dem ich Frauen anstellen kann, sie fair bezahle und wirtschaftliche Unabhängigkeit fördere.“

Feminismus und wirtschaftliche Klarheit gehören für Gwen untrennbar zusammen, da das Unter-Wert-Verkaufen lediglich alte patriarchale Systeme reproduzieren würde. Sie möchte, dass Frauen – die oft jahrelang unbezahlte Care-Arbeit geleistet haben – endlich in finanzieller Fülle stehen dürfen.

Embodiment als politischer Akt

Für Gwen ist diese Arbeit weit mehr als individuelles Coaching; sie ist zutiefst politisch. Sie ist überzeugt, dass die Wahrnehmung der Frau über Generationen vom Patriarchat abgespalten wurde. „Gerade wir Frauen haben gelernt, uns zurückzunehmen – nicht nur in unserem Ausdruck, sondern auch in dem, was wir vom Leben wollen“, sagt sie. In ihrem Mentoring arbeitet sie daher gezielt mit Frauen in Führungspositionen, wie etwa Chefärztinnen oder Tech-Expertinnen, die gelernt haben, auf eine männliche Weise zu performen, sich dabei aber selbst verlieren.

Ihre Marke The Vulva Voice ist in diesem Kontext ein klares Statement. Gwen erklärt, dass dieses Branding keine kalkulierte Marketingstrategie war, sondern aus einer verkörperten Haltung entstand. Sie fordert eine Erweiterung des Marktes und eine neue Offenheit in klassischen Unternehmensräumen: „Wir dürfen aufhören so zu tun, als seien Körper, Zyklus, Trauma oder emotionale Intelligenz ‚private Themen‘. Sie betreffen jede Frau – und damit jede Organisation.“

Qualitätssicherung und die Grenzen des Coachings

Um dieses politische Ziel mit fachlicher Exzellenz zu untermauern, nutzt Gwen ihr Buch Vulva Voice als Filter für Qualität. Ihr Fundament bilden Zertifizierungen in traumasensibler Begleitung, Body-Mind-Centering und MediAkupresseur.

Angesprochen auf die Abgrenzung zur klassischen Therapie stellt sie klar, dass ihre Angebote reine „Erfahrungsräume“ sind. Sie versteht sich nicht als Heilerin, sondern als Raumhalterin. Durch ihren traumasensiblen Hintergrund arbeitet sie strikt ressourcenorientiert: „Wir aktivieren zunächst die Fähigkeit zur Selbstregulation [...], bevor wir mit intensiveren Themen arbeiten.“ Sie diagnostiziert nicht und ersetzt keine Therapie. Sollte eine Teilnehmerin therapeutische Hilfe benötigen, kommuniziert Gwen dies transparent. Ihre Arbeit dient der Kapazitätsbildung im Umgang mit biografischen Prägungen, nicht deren „Wegmachen“.

Skalierung und Vision

Obwohl das Unternehmen stark mit Gwens persönlicher Geschichte verwoben ist, plant sie bereits die Skalierung über ausgebildete Trainerinnen im Soma Space. Diese sollen keine Kopien ihrer selbst sein, sondern ihre eigene Geschichte und Stimme nutzen. Für Gwen bedeutet unternehmerisches Wachstum vor allem Multiplikation: „Skalierung bedeutet für mich nicht Entpersonalisierung, sondern Verkörperung in vielen Körpern.“

Die Ergebnisse sind oft lebensverändernd. Viele Frauen erkennen, dass ihre Dysregulation kein individuelles Versagen ist, sondern eine Reaktion auf nicht geachtete Ressourcen. Das führt oft zu radikaler Klarheit – bis hin zu Trennungen, wenn Klientinnen plötzlich ihre eigene Wahrheit spüren.

Gwen Thomas selbst blickt heute mit großer Klarheit auf ihren Weg. Sie hat ihren Schmerz und ihr Trauma in ihre Arbeit transformiert. „Ich weiß heute, dass ich den Schmerz [...] nicht mehr brauche“, sagt sie. „Das hat mir geholfen, hier anzukommen.“

Distart: Vom Agentur-Frust zum EdTech-Champion

Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.

Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.

Wenn „Done for You“ nicht mehr reicht

Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.

Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.

Das Schnellboot zwischen den Tankern

Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.

Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.

Agency-DNA statt Schulbank-Feeling

Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.

Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.

Bootstrapping und gesundes Wachstum

Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.

Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.

Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.

Der Standort als Statement und Vision

Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.

Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.

Executive Search 2026

Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.

Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Was kann KI leisten – und was nicht?

Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.

Warum der Mensch unverzichtbar bleibt

Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.

Leadership in Zeiten von KI

Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.

Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.

KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung

Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.

Fazit: Executive Search neu denken

Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.

KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.

Agentic AI als Erfolgsgrundlage für Start-ups

KI befeuert den aktuellen Gründungsboom, doch für eine erfolgreiche Skalierung braucht es mehr. Warum Agentic AI auf Basis einer soliden Datenarchitektur zum entscheidenden Erfolgsfaktor für Start-ups wird.

Das Jahr startete für Start-ups mit einer Rekordmeldung: In Deutschland wurden im vergangenen Jahr fast ein Drittel mehr Gründungen verzeichnet. In absoluten Zahlen wurden 2025 insgesamt 3.568 neue Firmen geschaffen – ein neuer Höchststand, wie der Start-up-Verband im Januar verkündete. Dies ist auch der künstlichen Intelligenz (KI) zu verdanken, wie sich beim genauen Hinschauen herausstellt. 853 dieser neuen Unternehmen kommen aus dem Bereich Software. Doch nicht nur sie verwenden KI; bei einer Umfrage gab ein Drittel aller Gründer und Gründerinnen an, dass sie mit KI arbeiten. Dementsprechend sehen die Sprecher des Verbands in der Technologie auch die treibende Kraft hinter dem Start-up-Rekord.

Wirft man einen Blick über den Tellerrand hinaus, so lässt sich feststellen, dass die Start-up-Szene in Europa insgesamt floriert. Der „State of European Tech 2025“-Report im Auftrag von Atomico und anderen schätzt, dass im letzten Jahr Investitionen in Höhe von 44 Milliarden US-Dollar (umgerechnet ca. 38 Mrd. EUR) in diesen Sektor geflossen sind. Geldgeber erwarten inzwischen, dass Start-ups mit KI und Deep Tech arbeiten, so der Report. Demnach flossen auch 36 Prozent der europäischen Start-up-Investitionen in genau diese beiden Felder.

Das Gründungsumfeld könnte also kaum besser sein. Doch ein Rekord an Start-ups und steigende Investitionssummen bedeuten nicht zwangsläufig auch eine einfache Skalierung der Geschäftsmodelle. Viele – zu viele – Start-ups scheitern nach erfolgreichen ersten Jahren an der Weiterentwicklung ihres Geschäfts. Neben einer Reihe üblicher Herausforderungen stehen vor allem Bürokratie, Fragen zur Datenhoheit und ein Betrieb über Landesgrenzen und Wirtschaftszonen hinweg im Vordergrund. Start-ups müssen nachweisen, dass ihre Nutzung von KI auf soliden, regulierten Datenfundamenten basiert und den Compliance-Vorgaben entspricht.

Hier kommt Agentic AI ins Spiel. Die Einbettung von KI-Agenten in den Kern der Betriebsabläufe ist die Antwort auf viele dieser Herausforderungen und wird für das Wachstum im Jahr 2026 von entscheidender Bedeutung sein.

Solide Datenbasis vor KI-Einsatz

Start-ups, die dies erreichen wollen, sollten sich darauf konzentrieren, ihre KI-Nutzung auf einer soliden Datenbasis aufzubauen, deren Fundament eine einheitliche Datenarchitektur ist. Sie tun sich deutlich leichter damit, die dafür nötigen Architekturentscheidungen zu treffen, als etablierte Unternehmen mit entsprechender Legacy-IT. Gründer und Gründerinnen sollten daher von Beginn an darüber nachdenken, wie sie eine starke Datenarchitektur aufsetzen, Silos abbauen und KI als Herzstück ihrer Prozesse einbetten.

Diese Grundlage hilft bei der Einführung von KI-Agenten, damit deren Output auch die Erwartungen erfüllt: Geschäftsprozesse effizienter zu strukturieren und zu optimieren sowie die Entscheidungsfindung zu beschleunigen. Start-ups, die dies umsetzen, werden sich gegen ihre Konkurrenten durchsetzen und letztlich erfolgreich sein.

KI-Agenten als Innovationsbeschleuniger

Indem Start-ups KI-Agenten von Beginn an in den Kern ihrer Geschäftsabläufe integrieren, skalieren sie schneller als mit dem Einsatz von nur einem reinen Large Language Model (LLM). Der Grund dafür liegt in der Standardisierung der Daten, die für KI-Agenten notwendig ist. Auf dieser Grundlage können die Agenten ihre einzigartigen, autonomen Fähigkeiten ausspielen, da sie mit unternehmenseigenen Daten trainiert werden. Vor allem bei Start-ups können Potenziale schnell gehoben werden: Wenn Agenten für bestimmte Aufgaben entwickelt werden, können sie diese auch lösen – egal wie komplex und fachspezifisch sie sein mögen. Stimmt die Datenbasis, lassen sich auch mehrere Agenten miteinander verknüpfen, um sogar noch komplexere Herausforderungen zu bewältigen.

Ein Beispiel dafür ist die mögliche Kooperation zwischen einem Kundensupport-Agenten und einem Prognose-Agenten. Wenn ein Kunde einen Support-Fall auslöst, kann der andere Agent sogleich die Kosten berechnen, was die Kundenzufriedenheit durch eine schnellere Reaktion steigern kann. Für die Skalierung von Start-ups ist ein enges Zusammenspiel der Abteilungen wichtig, um die Geschäftsbeziehungen zu zufriedenen Kunden weiter ausbauen zu können. Der Einsatz von KI-Agenten kann, gepaart mit dem menschlichen Element, begrenzte personelle Ressourcen ausgleichen und eine bessere Serviceleistung ermöglichen, was für ein schnelles Wachstum unabdingbar ist.

Doch nicht nur der Kundenkontakt lässt sich automatisieren, sondern auch eine ganze Reihe von Routinevorgängen in der internen Verwaltung der Firmen selbst. Dies ermöglicht nicht nur dem Management, sondern auch den Investoren, schnell einen fundierten Überblick über Liquidität, Umsatz, Einnahmen und Gewinn zu erhalten. Die Erkenntnisse in Echtzeit führen zu schnellen und datenbasierten Entscheidungen, was für junge Unternehmen Gold wert ist und es ihnen ermöglicht, flexibel zu bleiben.

Die Datenbasis muss stimmen

Für Start-ups sind Probleme beim Datenzugriff ein kritisches Risiko für den Geschäftserfolg. Eine einheitliche, moderne Datenarchitektur ermöglicht die Demokratisierung des Datenzugriffs und löst Datensilos auf. Der Vorteil liegt auf der Hand: Schneller Datenzugriff schafft Transparenz gegenüber Kunden und Aufsichtsbehörden. Darüber hinaus erhöht dies auch das Vertrauen der Mitarbeitenden und schafft ein Gefühl des Zusammenhalts.

Governance ist auch bei der Verwendung von KI-Agenten von entscheidender Bedeutung. Der Druck zur Einhaltung von Vorschriften sollte daher als Vorteil betrachtet werden.

Der Dreiklang aus Datenherkunft, Versionierung und automatisierter Auswertung der Ergebnisse hilft jungen Unternehmen dabei, Governance auf einem soliden Fundament aufzubauen. Die Teams erhalten direkte Transparenz darüber, wie sich die KI-Agenten verhalten, auf welchen Daten sie basieren und wie sie ihre Ergebnisse im Laufe der Zeit verändern. Laufende Bewertungen tragen dazu bei, dass KI-Agenten präziser werden, um genau jene hochwertigen Ergebnisse zu liefern, die Start-ups für die Skalierung ihrer Geschäftsmodelle benötigen. Dies ist besonders wichtig, wenn proprietäre KI-Modelle entwickelt und von der Testphase in die Produktion überführt werden, wobei gesetzliche Vorschriften wie die DSGVO oder der EU AI Act zwingend einzuhalten sind.

Parloa, ein deutsches Start-up-Unternehmen mit einer Bewertung von drei Milliarden US-Dollar, ist ein hervorragendes Beispiel dafür, wie dieser Ansatz in der Praxis aussehen kann: Das Unternehmen hat KI-Agenten zum Kern seines Kundenservice gemacht und gleichzeitig eine einheitliche, kontrollierte Datenbasis aufgebaut, die vollständig mit der DSGVO und dem EU AI Act konform ist. Seine Plattform folgt den Prinzipien des „Privacy by Design“, sodass sensible Kundendaten ohne Kontrollverlust verwendet werden können. Durch die Verwaltung des gesamten Lebenszyklus von KI-Agenten macht Parloa Governance zu etwas Greifbarem und gibt den Teams Klarheit darüber, welche Daten verwendet wurden, wie sich die Agenten verhalten haben und wie sich die Ergebnisse im Laufe der Zeit entwickelt haben. Diese Kombination aus moderner Architektur und starker Governance ermöglicht es den Kunden von Parloa, Zugang zu hochwertigen Daten zu erhalten und die Transparenz für Regulierungsbehörden sowie Endnutzer zu erhöhen – und dennoch KI-gesteuerte Kundeninteraktionen in Umgebungen zu skalieren, in denen Fehler oder Missbrauch inakzeptabel sind.

Fazit

KI-Agenten bieten europäischen Start-ups eine einmalige Gelegenheit, schnell zu wachsen und gleichzeitig Investoren anzuziehen, die bekanntermaßen ihr Geld bevorzugt in Unternehmen investieren, die Wert auf Datenverwaltung, Genauigkeit, Qualität und die Schaffung von echtem Mehrwert durch Technologie legen. Es ist jedoch ein Fehler, sich ohne sorgfältige Überlegungen auf die Einführung von Agenten zu stürzen. Start-ups, die KI-Agenten einsetzen, ohne zuvor eine einheitliche Datenbasis aufzubauen und eine solide Verwaltung sowie Bewertung sicherzustellen, riskieren, mehr Komplexität als Mehrwert zu schaffen. Letztlich werden jene Gründer und Gründerinnen erfolgreich sein, die ihre Geschäftsmodelle branchen- und länderübergreifend skalieren können – hierbei spielt der Einsatz von KI-Agenten bereits jetzt eine entscheidende Rolle.

Der Autor Nico Gaviola ist VP Digital Natives & Emerging Enterprise bei Databricks EMEA.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

Milliarden-Coup für Dresdner BioTech: Seamless Therapeutics gewinnt Pharma-Riese Eli Lilly als Partner

Das 2022 gegründete TU-Dresden-Spin-off Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen. Jetzt hat das BioTech eine Forschungskooperation mit dem US-Pharmakonzern Eli Lilly vereinbart. Das Gesamtvolumen des Deals beläuft sich auf bis zu 1,12 Milliarden US-Dollar – wir erklären, was hinter der Summe und der Technologie steckt.

Dass universitäre Spitzenforschung der Treibstoff für wirtschaftlichen Erfolg sein kann, beweist aktuell eine Meldung aus Dresden. Die Seamless Therapeutics GmbH, eine erst 2022 gegründete Ausgründung der Technischen Universität Dresden (TUD), spielt ab sofort in der Champions League der Biotechnologie mit. Mit Eli Lilly konnte eines der weltweit forschungsstärksten Pharmaunternehmen – bekannt u.a. für Durchbrüche in der Diabetes- und Adipositas-Behandlung – als strategischer Partner gewonnen werden.

Der Deal: Mehr als nur eine Schlagzeile

Die Dimensionen der Vereinbarung lassen aufhorchen: Der Kooperationsvertrag beziffert sich auf einen Wert von bis zu 1,12 Milliarden US-Dollar. Doch wie ist eine solche Summe für ein junges Start-up einzuordnen?

In der BioTech-Branche sind solche Verträge oft als sogenannte Bio-Bucks strukturiert. Das bedeutet: Die Milliarde liegt nicht sofort als Koffer voller Geld auf dem Tisch. Der Deal setzt sich in der Regel aus einer substanziellen Sofortzahlung (Upfront Payment) zum Start der Forschung und weiteren, weitaus größeren Teilzahlungen zusammen. Diese fließen erfolgsabhängig, sobald das Startup definierte Meilensteine erreicht – etwa den erfolgreichen Abschluss klinischer Studienphasen oder die Marktzulassung.

Die Technik: Warum Lilly so früh einsteigt

Dass ein Gigant wie Eli Lilly so früh in ein Start-up investiert, liegt an der disruptiven Technologie der Dresdner. Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen.

Während bekannte Verfahren wie die „Genschere“ CRISPR-Cas oft darauf basieren, die DNA-Stränge komplett zu durchtrennen (Doppelstrangbruch) – was zu ungewollten Fehlern bei der zelleigenen Reparatur führen kann –, gehen die Dresdner einen anderen Weg. Sie nutzen sogenannte Designer-Rekombinasen.

Vereinfacht gesagt arbeitet ihre Technologie nicht wie eine grobe Schere, sondern wie ein präzises „Suchen & Ersetzen“-Werkzeug. Sie können genetische „Schreibfehler“ direkt im Erbgut korrigieren, ohne die riskanten Brüche in der Doppelhelix zu erzeugen. Dieser Ansatz ist namensgebend („Seamless“ = nahtlos) und gilt als deutlich sicherer für die Anwendung am Menschen. Ein erstes konkretes Ziel der Kooperation ist die Bekämpfung von genetisch bedingtem Hörverlust.

Die Köpfe: Ein Team auf Expansionskurs

Hinter diesem technologischen Durchbruch steht kein anonymes Labor, sondern ein jahrelang eingespieltes Gründerteam aus der TUD. Den wissenschaftlichen Nukleus bildete die Forschungsgruppe von Prof. Frank Buchholz (Professor für Medizinische Systembiologie). Zusammen mit ihm trieben vor allem Dr. Felix Lansing, der heute als Chief Scientific Officer (CSO) die technologische Vision verantwortet, und Dr. Anne-Kristin Heninger (Head of Operations) die Entwicklung zur Marktreife voran. Komplettiert wurde das Gründungsteam durch Dr. Teresa Rojo Romanos und Dr. Maciej Paszkowski-Rogacz.

Dass Seamless Therapeutics den globalen Durchbruch ernst meint, zeigt auch eine strategische Personalie aus dem April 2024: Um die Brücke in den entscheidenden US-Markt zu schlagen, holte man den Branchenveteranen Dr. Albert Seymour als neuen CEO an Bord. Während Seymour die internationale Skalierung vorantreibt, sichern die Gründer weiterhin die technologische DNA des Unternehmens. „Die Zusammenarbeit mit Eli Lilly ist eine Bestätigung für unsere Gen-Editierungsplattform und ihr krankheitsmodifizierendes Potenzial“, erklärt Prof. Buchholz.

Der Standort: Wie aus Forschung Business wird

Der Erfolg fällt nicht vom Himmel, sondern ist das Ergebnis eines funktionierenden Transfer-Ökosystems. Das Startup wurde seit den frühen Phasen intensiv unterstützt durch TUD|excite, das Excellence Center for Innovation der TU Dresden, sowie durch SaxoCell, das sächsische Zukunftscluster für Präzisionstherapie. Prof. Ursula M. Staudinger, Rektorin der TUD, sieht in dem Deal eine Blaupause für den deutschen Innovationsstandort: „Das Investitionsvolumen unterstreicht eindrucksvoll das Potenzial dieser Technologie [...] Zugleich zeigt dieser Meilenstein, wie konsequent und erfolgreich die TUD den Transfergedanken lebt.“

Für Seamless Therapeutics beginnt nun die Arbeit, die rekombinase-basierte Technologie gemeinsam mit Eli Lilly durch die anspruchsvollen Phasen der Medikamentenentwicklung zu bringen – mit einem Team, das wissenschaftliche Exzellenz nun mit internationaler Management-Erfahrung verbindet.

4,3 Mio. Euro Seed-Finanzierung für nuuEnergy

Das Münchner EnergyTech nuuEnergy sichert sich erneut frisches Kapital, um seine regionalen Installations-Hubs auszubauen. Das Start-up setzt auf eine Kombination aus eigenen Handwerksbetrieben und digitalen Prozessen – ein Ansatz, über den StartingUp bereits früh berichtete.

Das Ende 2023 gegründete Start-up nuuEnergy hat eine Seed-Finanzierungsrunde in Höhe von 4,3 Millionen Euro abgeschlossen. Bereits im vergangenen Jahr hatten wir über den ersten großen Finanzierungserfolg der Münchner berichtet. Angeführt wird die aktuelle Runde nun von Amberra, dem Corporate-Venture-Arm der Genossenschaftlichen FinanzGruppe Volksbanken Raiffeisenbanken. Zu den weiteren Geldgebern gehören EnjoyVenture sowie die Bestandsinvestoren High-Tech Gründerfonds (HTGF), Vireo Ventures, better ventures und Bynd Venture Capital.

Marktlücke zwischen Konzern und Handwerk
Trotz einer spürbaren Delle im Absatzmarkt für Wärmepumpen im Jahr 2024 wächst der Sektor langfristig zweistellig. Die Herausforderung liegt oft nicht mehr in der Technologie selbst, sondern in der Umsetzung: Fachkräftemangel und ineffiziente Abläufe bremsen die Installation. Genau hier positioniert sich nuuEnergy als Bindeglied zwischen traditionellen Handwerksbetrieben und rein digitalen „Neo-Installern“.

Das Geschäftsmodell basiert auf dem Aufbau eigener regionaler Fachhandwerksbetriebe, sogenannter „Hubs“. Diese sind derzeit in den Großräumen München, Hamburg und Köln aktiv und decken einen Radius von rund 1,5 Stunden ab. Ergänzend arbeitet das Start-up in einigen Regionen mit Partnerbetrieben zusammen.

Digitalisierung trifft auf Meisterpflicht

Während die Installation vor Ort durch festangestellte Meister und Monteure erfolgt, setzt nuuEnergy im Hintergrund auf die vollständige Digitalisierung der Planungsprozesse. Spezialisierte Systemplaner erstellen individuelle technische Konzepte, um die Effizienz der Heizsysteme zu maximieren. Neben der Planung und Installation generiert das Unternehmen Umsätze durch langfristige Wartungsverträge sowie Zusatzangebote wie Wasserenthärtungsanlagen oder Energieberatung.

Nach Angaben des Unternehmens konnte der Umsatz von 2024 auf 2025 verfünffacht werden. Für das Jahr 2026 plant das Gründerteam um Tobias Klug und Julia Rafschneider die Umsetzung von Projekten im hohen dreistelligen Bereich.

Strategische Investoren an Bord

Mit dem frischen Kapital soll die Expansion der regionalen Betriebe vorangetrieben und die Prozesskette weiter digitalisiert werden. Der Einstieg von Amberra ist dabei strategisch relevant: Durch die Nähe zur Genossenschaftlichen FinanzGruppe erhält das Start-up potenziellen Zugang zu einem riesigen Kundennetzwerk der Volks- und Raiffeisenbanken, die Immobilienbesitzer oft auch bei Finanzierungsfragen zur energetischen Sanierung begleiten.

„Dem Team geht es nicht um digitalen Vertrieb, sondern um echte, langfristige Innovation bei Handwerk und Technik“, kommentiert Gerrit Gnisa, Investment Manager bei EnjoyVenture, die Entscheidung für das Investment. Auch der HTGF sieht in dem hybriden Ansatz aus skalierbarer Tech-Plattform und lokalem Handwerk einen entscheidenden Hebel, um den Wärmepumpen-Hochlauf trotz Fachkräftemangel zu bewältigen.

From Lab to Launch

Wie Start-ups Forschung in Wirkung und Wachstum übersetzen: So gelingt Life-Sciences-Start-ups die Series A.

Life Sciences gehören zu den spannendsten, aber auch anspruchsvollsten Bereichen für Wachstumskapital. Kaum ein Sektor verbindet wissenschaftliche Exzellenz so direkt mit gesellschaftlichem Nutzen und gleichzeitig mit langen Entwicklungszyklen, hohen Kosten und komplexen regulatorischen Anforderungen. Genau diese Mischung macht den Weg vom Forschungslabor bis zum Series A-Deal so herausfordernd – und sie erklärt, warum Impact-Investoren hier besonders genau hinschauen.

Hervorragende Technologien werden nicht automatisch zu einer überzeugenden Investmentstory. Entscheidend ist, ob ein Start-up den Sprung von der wissenschaftlichen Idee zur skalierbaren Wertschöpfung schafft. Wer Series A-Kapital aufnehmen will, muss zeigen, dass aus Forschung ein Produkt werden kann, aus einem Produkt ein Markt und aus einem Markt ein nachhaltiges Geschäftsmodell.

Wissenschaft allein reicht nicht: Der Forschungsansatz muss investierbar werden

Viele Life Sciences-Start-ups starten mit einem starken technologischen Fundament. Die wissenschaftliche Tiefe ist oft beeindruckend, ebenso wie die Expertise im Team. Für Investoren ist das jedoch nur der Ausgangspunkt. Series A-Investoren erwarten einen realistischen Anwendungskontext und ein skalierbares Businessmodell mit klarer Exitstrategie. Damit verändern sich die entscheidenden Fragen im Unternehmen und auch die Teamanforderungen. Wie stabil ist die Datenlage? Wie groß ist der adressierbare Markt? Wie robust ist das Verfahren außerhalb idealer Laborbedingungen? Ist die Patentlage verteidigbar? Wie ist das Wettbewerbsumfeld strukturiert – und welche Schritte (inkl. Regulatorik und Kapitalbedarf) sind nötig, um ein marktfähiges Produkt zu schaffen? Je klarer ein Start-up diesen Übergang strukturieren und belegen kann, desto eher entsteht Vertrauen beim Investor: Denn die Series A ist oft der Zeitpunkt, an dem Investoren das hohe Risiko eines Life Sciences-Start-ups anhand seines Kommerzialisierungspotenzials genauer beurteilen. Detaillierte Informationen zu Entwicklungszeit, Kapitalbedarf, Regulatorik sowie Marktzugang, Exitoptionen und die richtige Equity Story werden zu entscheidenden Faktoren für ein Series A-Start-up.

Impact ist kein Buzzword: Wirkung muss messbar und plausibel sein

Impact-Investoren investieren nicht nur in Rendite, sondern auch in Wirkung. Gerade in den Life Sciences kann Impact sehr konkret sein, etwa durch bessere Diagnostik, effizientere Therapien, schnellere Entwicklungspfade oder niedrigere Kosten im Gesundheitssystem – oder auch eine erste neue Therapieoption für bestimmte Indikationen. Impact muss verständlich, messbar und realistisch hergeleitet werden. Viele Start-ups formulieren ihren Impact zu allgemein. Am meisten Erfolg verspricht eine klare, fokussierte Wirkungskette. Welches Problem wird gelöst? Für welche Patientengruppe oder welches Versorgungssystem? Welche Outcomes verbessern sich tatsächlich? Und welche Evidenz spricht dafür, dass diese Wirkung erreichbar ist? Gibt es kompetitive Therapien oder Diagnostika, wie strukturiert sich der Preis, und vor allem: Gibt es eine (teilweise) Erstattung der Versicherungen? Wer Impact so darstellt, dass er nicht nur emotional, sondern auch ökonomisch und klinisch nachvollziehbar wird, schafft einen echten Vorteil im Fundraising.

Der Weg zur Series A: Strategie schlägt Hoffnung

Series A-Kapital ist nicht einfach „mehr Geld“. Es markiert einen Strategiewechsel. In dieser Phase wollen Investoren sehen, dass ein Start-up seinen Entwicklungsplan realistisch strukturiert, die Risiken kennt und einen klaren Pfad zur Kommerzialisierung aufzeigen kann. Dazu gehören belastbare Meilensteine, ein sauberer Finanzierungsplan und eine klare Priorisierung. Welche Daten müssen bis wann vorliegen? Welche regulatorischen Schritte sind kritisch? Welche Partnerschaften sind erforderlich, um Zeit und Kosten zu reduzieren und sich strategisch zu platzieren? Und wie sieht der Plan aus, wenn einzelne Annahmen nicht eintreten? Ein überzeugender Series A-Case zeigt nicht nur das Best Case-Szenario, sondern auch professionelles Risikomanagement – denn Investoren wissen, dass im Life Sciences-Umfeld nicht alles planbar ist. Umso wichtiger ist ein strukturierter, realistischer Ansatz.

Team, Governance und Umsetzungskraft: Investoren investieren in Führung

Im Life Sciences-Bereich ist die Teamfrage oft entscheidend. Nicht, weil wissenschaftliche Kompetenz unwichtig wäre, sondern weil Series A eine operative Phase ist. Investoren suchen Teams, die nicht nur Forschung können, sondern auch kommerzielle Produktentwicklung, klinische Strategie, Marktlogik und Partnerschaften. Start-ups wirken besonders überzeugend, wenn sie früh ein starkes Set-up schaffen. Dazu gehören erfahrene Advisors, ein realistisches Verständnis für klinische und regulatorische Prozesse sowie eine Governance-Struktur, die Wachstum ermöglicht. Ein starkes Board, klare Rollen und ein transparenter Kommunikationsstil sind nicht nur „nice to have“, sondern Signale von Reife. Gerade Impact-Investoren achten darauf, ob die Mission eines Unternehmens auch organisatorisch getragen wird. Wer Wirkung verspricht, muss zeigen, dass Verantwortung strukturell verankert ist.

Skalierung in Life Sciences: Partnerschaften oft der schnellste Hebel

Während in klassischen Tech-Modellen Skalierung oft über Vertrieb und Marketing läuft, ist der Hebel in den Life Sciences häufig ein anderer. Strategische Partnerschaften können der Schlüssel sein, um schneller Richtung Markt zu kommen und früh einen Exitpfad zu skizzieren. Das kann über Pharmakooperationen, Diagnostikpartner, Forschungseinrichtungen oder Industriepartner geschehen.

Für Investoren ist dabei entscheidend, dass Partnerschaften nicht nur als Option erwähnt werden, sondern als strategischer Bestandteil des Geschäftsmodells. Wer zeigen kann, dass der Zugang zu Infrastruktur, klinischen Studien, Produktionskapazitäten oder Vertriebskanälen realistisch gesichert ist, reduziert das Risiko (oft auch die Kosten) und erhöht die Attraktivität der Series A-Runde.

Gleichzeitig sollten Start-ups vermeiden, sich zu früh abhängig zu machen. Gute Deals entstehen, wenn die eigene Position stark genug ist, um Partnerschaften auf Augenhöhe zu verhandeln.

Fazit: Series A gewinnt, wer Impact in ein skalierbares Geschäftsmodell übersetzt

Der Weg vom Labor zum Launch ist in den Life Sciences kein Sprint, sondern ein anspruchsvoller, kapitalintensiver Prozess. Impact-Investoren sind bereit, diesen Weg zu begleiten, erwarten jedoch Klarheit, Struktur und Evidenz. Wissenschaftliche Exzellenz ist die Basis, doch Series A-Kapital gibt es nur, wenn daraus ein investierbares Produkt, ein plausibler Markt und ein professionell geführtes Unternehmen entsteht. Start-ups, die ihren Impact messbar machen, ihre Meilensteine realistisch planen und ihr Team auf Umsetzung ausrichten, haben die besten Chancen, Wirkung und Rendite zusammenzubringen: Denn am Ende überzeugt nicht die Vision allein, sondern vor allem die Fähigkeit, sie in messbare Ergebnisse zu übersetzen.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier geht's zum E-Shop.